OpenAI Se lanzan Gpt-oss-120b y Gpt-oss-20b, llevando modelos de vanguardia a dispositivos locales.
En Resumen OpenAI ha lanzado dos potentes modelos de peso abierto, gpt-oss-120b y gpt-oss-20b, que permiten un rendimiento de inteligencia artificial local avanzado sin acceso a Internet, lo que marca un paso importante en la accesibilidad para desarrolladores.
organización de investigación de inteligencia artificial OpenAI anunció el lanzamiento de dos modelos de lenguaje avanzados de peso abierto, denominados gpt-oss-120b y gpt-oss-20b. Estos modelos ofrecen un rendimiento sólido en aplicaciones prácticas, manteniendo bajos costos operativos. Publicados bajo la flexible licencia Apache 2.0, superan a otros modelos abiertos de tamaño similar en tareas de razonamiento, presentan sólidas capacidades de uso de herramientas y están optimizados para un funcionamiento eficiente en hardware de consumo. El proceso de entrenamiento implicó técnicas de aprendizaje por refuerzo combinadas con información derivada de... OpenAILos modelos internos más avanzados, incluidos o3 y otros sistemas de vanguardia.
El modelo gpt-oss-120b tiene un rendimiento casi igual al de OpenAIEl modelo o4-mini de 's en pruebas de razonamiento fundamental se ejecuta eficientemente en una sola GPU de 80 GB. Mientras tanto, el modelo gpt-oss-20b logra resultados comparables a... OpenAIEl o3-mini de 's cumple con los estándares comunes y es capaz de operar en dispositivos periféricos con tan solo 16 GB de memoria, lo que lo hace ideal para aplicaciones en el dispositivo, inferencia local o pruebas rápidas sin requerir una infraestructura costosa. Ambos modelos demuestran sólidas capacidades en el uso de herramientas, llamadas a funciones de pocos intentos y razonamiento en cadena de pensamiento (CoT), como se demostró en la evaluación de agentes de Tau-Bench y HealthBench, superando en ocasiones a modelos propietarios como OpenAI o1 y GPT-4o.
Estos modelos son compatibles con la API de Respuestas y están diseñados para integrarse en flujos de trabajo de agentes, ofreciendo seguimiento avanzado de instrucciones, uso de herramientas como búsqueda web y ejecución de código Python, y capacidades de razonamiento. Esto incluye un esfuerzo de razonamiento ajustable para optimizar tareas que no requieren razonamiento complejo o que priorizan una baja latencia en los resultados finales. Ambos modelos son totalmente personalizables, admiten razonamiento en cadena de pensamiento completo y se adaptan a formatos de salida estructurados.
Las consideraciones de seguridad son fundamentales para el lanzamiento de estos modelos, especialmente dada su naturaleza abierta. Además de una capacitación y evaluaciones de seguridad exhaustivas, se aplicó una capa adicional de pruebas mediante una versión optimizada de gpt-oss-120b bajo... OpenAIMarco de preparación de . Los modelos gpt-oss alcanzan un rendimiento de referencia de seguridad comparable a OpenAILos últimos modelos propietarios de [nombre del producto], que ofrecen a los desarrolladores garantías de seguridad similares. Los resultados detallados y más información están disponibles en un artículo de investigación y una ficha de modelo. La metodología ha sido revisada por expertos externos, lo que representa un avance en el establecimiento de nuevos estándares de seguridad para modelos de peso abierto.
OpenAI Ha colaborado con socios pioneros como AI Sweden, Orange y Snowflake para explorar los usos reales de estos modelos abiertos, incluyendo el alojamiento local para la seguridad de datos y el ajuste de conjuntos de datos especializados. La disponibilidad de estos modelos abiertos busca empoderar a una amplia gama de usuarios, desde desarrolladores individuales hasta grandes empresas y entidades gubernamentales, para ejecutar y personalizar la IA en su propia infraestructura. Al combinarse con otros modelos accesibles a través de OpenAIMediante la API, los desarrolladores pueden seleccionar entre una variedad de opciones que equilibran el rendimiento, el costo y la latencia para admitir diversos flujos de trabajo de IA.
Gpt-oss-120b y Gpt-oss-20b ahora disponibles gratuitamente con amplio soporte de plataformas y hardware
Los pesos de gpt-oss-120b y gpt-oss-20b están disponibles para su descarga en Hugging Face y cuentan con cuantificación nativa en formato MXFP4. Esto permite que el modelo gpt-oss-120b funcione con una capacidad de memoria de 80 GB, mientras que el modelo gpt-oss-20b requiere solo 16 GB. Ambos modelos se han entrenado posteriormente con el formato de prompt de armonía, y existe un renderizador de armonía de código abierto disponible en Python y Rust para facilitar su adopción. Además, se proporcionan implementaciones de referencia para ejecutar inferencias con PyTorch y la plataforma Metal de Apple, junto con un conjunto de herramientas de ejemplo para su aplicación práctica.
Estos modelos están diseñados para ofrecer flexibilidad y facilidad de uso, y admiten la implementación local, en el dispositivo o a través de proveedores de inferencia externos. Para mejorar la accesibilidad, se establecieron alianzas antes del lanzamiento con las principales plataformas de implementación, como Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare y OpenRouter. También se colaboró con fabricantes de hardware como NVIDIA, AMD, Cerebras y Groq para garantizar un rendimiento óptimo en diversos sistemas.
Junto con esta versión, Microsoft ofrece versiones optimizadas para GPU del modelo gpt-oss-20b para dispositivos Windows. Con la tecnología de ONNX Runtime, estas versiones admiten inferencia local y son accesibles a través de Foundry Local y el kit de herramientas de IA para VS Code, lo que simplifica el proceso de integración para los desarrolladores en plataformas Windows.
Para los desarrolladores que buscan modelos totalmente personalizables, capaces de ajustarse e implementarse en sus propios entornos, los modelos gpt-oss ofrecen una solución ideal. Por el contrario, para quienes requieren capacidades multimodales, herramientas integradas y una integración fluida con la plataforma, los modelos ofrecidos a través de la plataforma API siguen siendo la opción preferida. Se siguen monitoreando los comentarios de los desarrolladores, con la posibilidad de considerar la futura compatibilidad de la API con los modelos gpt-oss.
La introducción de gpt-oss-120b y gpt-oss-20b representa un avance notable en el ámbito de los modelos de peso abierto, que ofrece mejoras significativas en la capacidad de razonamiento y la seguridad a su escala. Estos modelos abiertos complementan los modelos alojados propietarios al ofrecer a los desarrolladores una selección más amplia de herramientas para facilitar la investigación de vanguardia, impulsar la innovación y promover un desarrollo de IA más seguro y transparente en diversas aplicaciones.
Además, estos modelos abiertos ayudan a reducir las barreras de entrada para mercados emergentes, sectores con recursos limitados y organizaciones más pequeñas que podrían enfrentar limitaciones para adoptar soluciones propietarias. Al proporcionar herramientas accesibles y potentes, los usuarios de todo el mundo tienen la capacidad de desarrollar, innovar y crear nuevas oportunidades. La amplia disponibilidad de estos modelos de peso abierto, eficaces y producidos en Estados Unidos, contribuye a la expansión del acceso equitativo a la IA.
Un ecosistema confiable de modelos abiertos es esencial para promover una accesibilidad amplia e inclusiva a la IA. Se anima a desarrolladores e investigadores a utilizar estos modelos para la experimentación, la colaboración y la superación de los límites de lo alcanzable. Se anticipa con interés el progreso continuo en este campo.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
Nuevos pares de trading con margen en spot: ¡PROVE/USDT!
Bitget admitirá activos seleccionados en las funciones de préstamo y margen de la Cuenta Unificada
Promoción de agosto para holders de BGB: ¡Gana una parte de $10,000!
Towns Protocol (TOWNS): Protocolo de comunicación descentralizado en tiempo real

En tendencia
MásPrecios de las criptos
Más








