Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosEarnWeb3CentroMás
Trading
Spot
Compra y vende cripto con facilidad
Margen
Aumenta tu capital y maximiza tus fondos
Onchain
Going Onchain, without going Onchain!
Convert
Convierte sin comisiones ni deslizamiento
Explorar
Launchhub
Obtén ventajas desde el principio y empieza a ganar
Copy
Copia al trader elite con un solo clic
Bots
Bot de trading con IA sencillo, rápido y confiable
Trading
Futuros USDT-M
Tradea futuros liquidados en USDT
Futuros USDC-M
Futuros liquidados en USDC
Futuros Coin-M
Tradea futuros liquidados en cripto
Explorar
Guía de Futuros
Un recorrido de principiante a experto en el trading de futuros
Promociones de futuros
Gana grandes recompensas
Resumen
Una variedad de productos para incrementar tus activos
Simple Earn
Deposita y retira en cualquier momento para obtener retornos flexibles sin riesgo.
On-chain Earn
Obtén ganancias diarias sin arriesgar tu capital
Earn estructurado
Innovación financiera sólida para sortear las oscilaciones del mercado
VIP y Gestión Patrimonial
Aumenta tu patrimonio con nuestro equipo de primer
Préstamos
Préstamos flexibles con alta seguridad de fondos
OpenAI Se lanzan Gpt-oss-120b y Gpt-oss-20b, llevando modelos de vanguardia a dispositivos locales.

OpenAI Se lanzan Gpt-oss-120b y Gpt-oss-20b, llevando modelos de vanguardia a dispositivos locales.

MPOSTMPOST2025/08/07 01:50
Por:MPOST

En Resumen OpenAI ha lanzado dos potentes modelos de peso abierto, gpt-oss-120b y gpt-oss-20b, que permiten un rendimiento de inteligencia artificial local avanzado sin acceso a Internet, lo que marca un paso importante en la accesibilidad para desarrolladores.

organización de investigación de inteligencia artificial OpenAI anunció el lanzamiento de dos modelos de lenguaje avanzados de peso abierto, denominados gpt-oss-120b y gpt-oss-20b. Estos modelos ofrecen un rendimiento sólido en aplicaciones prácticas, manteniendo bajos costos operativos. Publicados bajo la flexible licencia Apache 2.0, superan a otros modelos abiertos de tamaño similar en tareas de razonamiento, presentan sólidas capacidades de uso de herramientas y están optimizados para un funcionamiento eficiente en hardware de consumo. El proceso de entrenamiento implicó técnicas de aprendizaje por refuerzo combinadas con información derivada de... OpenAILos modelos internos más avanzados, incluidos o3 y otros sistemas de vanguardia.

El modelo gpt-oss-120b tiene un rendimiento casi igual al de OpenAIEl modelo o4-mini de 's en pruebas de razonamiento fundamental se ejecuta eficientemente en una sola GPU de 80 GB. Mientras tanto, el modelo gpt-oss-20b logra resultados comparables a... OpenAIEl o3-mini de 's cumple con los estándares comunes y es capaz de operar en dispositivos periféricos con tan solo 16 GB de memoria, lo que lo hace ideal para aplicaciones en el dispositivo, inferencia local o pruebas rápidas sin requerir una infraestructura costosa. Ambos modelos demuestran sólidas capacidades en el uso de herramientas, llamadas a funciones de pocos intentos y razonamiento en cadena de pensamiento (CoT), como se demostró en la evaluación de agentes de Tau-Bench y HealthBench, superando en ocasiones a modelos propietarios como OpenAI o1 y GPT-4o.

Estos modelos son compatibles con la API de Respuestas y están diseñados para integrarse en flujos de trabajo de agentes, ofreciendo seguimiento avanzado de instrucciones, uso de herramientas como búsqueda web y ejecución de código Python, y capacidades de razonamiento. Esto incluye un esfuerzo de razonamiento ajustable para optimizar tareas que no requieren razonamiento complejo o que priorizan una baja latencia en los resultados finales. Ambos modelos son totalmente personalizables, admiten razonamiento en cadena de pensamiento completo y se adaptan a formatos de salida estructurados.

Las consideraciones de seguridad son fundamentales para el lanzamiento de estos modelos, especialmente dada su naturaleza abierta. Además de una capacitación y evaluaciones de seguridad exhaustivas, se aplicó una capa adicional de pruebas mediante una versión optimizada de gpt-oss-120b bajo... OpenAIMarco de preparación de . Los modelos gpt-oss alcanzan un rendimiento de referencia de seguridad comparable a OpenAILos últimos modelos propietarios de [nombre del producto], que ofrecen a los desarrolladores garantías de seguridad similares. Los resultados detallados y más información están disponibles en un artículo de investigación y una ficha de modelo. La metodología ha sido revisada por expertos externos, lo que representa un avance en el establecimiento de nuevos estándares de seguridad para modelos de peso abierto.

OpenAI Ha colaborado con socios pioneros como AI Sweden, Orange y Snowflake para explorar los usos reales de estos modelos abiertos, incluyendo el alojamiento local para la seguridad de datos y el ajuste de conjuntos de datos especializados. La disponibilidad de estos modelos abiertos busca empoderar a una amplia gama de usuarios, desde desarrolladores individuales hasta grandes empresas y entidades gubernamentales, para ejecutar y personalizar la IA en su propia infraestructura. Al combinarse con otros modelos accesibles a través de OpenAIMediante la API, los desarrolladores pueden seleccionar entre una variedad de opciones que equilibran el rendimiento, el costo y la latencia para admitir diversos flujos de trabajo de IA.

gpt-oss es un modelo de razonamiento de peso abierto de vanguardia, con un rendimiento real comparable al de o4-mini, que puedes ejecutar localmente en tu ordenador (o teléfono, que es más pequeño). Creemos que es el mejor y más útil modelo abierto del mercado.

- Sam Altman (@sama) 5 de agosto de 2025

Gpt-oss-120b y Gpt-oss-20b ahora disponibles gratuitamente con amplio soporte de plataformas y hardware

Los pesos de gpt-oss-120b y gpt-oss-20b están disponibles para su descarga en Hugging Face y cuentan con cuantificación nativa en formato MXFP4. Esto permite que el modelo gpt-oss-120b funcione con una capacidad de memoria de 80 GB, mientras que el modelo gpt-oss-20b requiere solo 16 GB. Ambos modelos se han entrenado posteriormente con el formato de prompt de armonía, y existe un renderizador de armonía de código abierto disponible en Python y Rust para facilitar su adopción. Además, se proporcionan implementaciones de referencia para ejecutar inferencias con PyTorch y la plataforma Metal de Apple, junto con un conjunto de herramientas de ejemplo para su aplicación práctica.

Estos modelos están diseñados para ofrecer flexibilidad y facilidad de uso, y admiten la implementación local, en el dispositivo o a través de proveedores de inferencia externos. Para mejorar la accesibilidad, se establecieron alianzas antes del lanzamiento con las principales plataformas de implementación, como Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare y OpenRouter. También se colaboró con fabricantes de hardware como NVIDIA, AMD, Cerebras y Groq para garantizar un rendimiento óptimo en diversos sistemas.

Junto con esta versión, Microsoft ofrece versiones optimizadas para GPU del modelo gpt-oss-20b para dispositivos Windows. Con la tecnología de ONNX Runtime, estas versiones admiten inferencia local y son accesibles a través de Foundry Local y el kit de herramientas de IA para VS Code, lo que simplifica el proceso de integración para los desarrolladores en plataformas Windows.

Para los desarrolladores que buscan modelos totalmente personalizables, capaces de ajustarse e implementarse en sus propios entornos, los modelos gpt-oss ofrecen una solución ideal. Por el contrario, para quienes requieren capacidades multimodales, herramientas integradas y una integración fluida con la plataforma, los modelos ofrecidos a través de la plataforma API siguen siendo la opción preferida. Se siguen monitoreando los comentarios de los desarrolladores, con la posibilidad de considerar la futura compatibilidad de la API con los modelos gpt-oss.

La introducción de gpt-oss-120b y gpt-oss-20b representa un avance notable en el ámbito de los modelos de peso abierto, que ofrece mejoras significativas en la capacidad de razonamiento y la seguridad a su escala. Estos modelos abiertos complementan los modelos alojados propietarios al ofrecer a los desarrolladores una selección más amplia de herramientas para facilitar la investigación de vanguardia, impulsar la innovación y promover un desarrollo de IA más seguro y transparente en diversas aplicaciones.

Además, estos modelos abiertos ayudan a reducir las barreras de entrada para mercados emergentes, sectores con recursos limitados y organizaciones más pequeñas que podrían enfrentar limitaciones para adoptar soluciones propietarias. Al proporcionar herramientas accesibles y potentes, los usuarios de todo el mundo tienen la capacidad de desarrollar, innovar y crear nuevas oportunidades. La amplia disponibilidad de estos modelos de peso abierto, eficaces y producidos en Estados Unidos, contribuye a la expansión del acceso equitativo a la IA.

Un ecosistema confiable de modelos abiertos es esencial para promover una accesibilidad amplia e inclusiva a la IA. Se anima a desarrolladores e investigadores a utilizar estos modelos para la experimentación, la colaboración y la superación de los límites de lo alcanzable. Se anticipa con interés el progreso continuo en este campo.

0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Bloquea y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!