Los nuevos modelos sustituyen a o1 y o3-mini, que dejan de estar disponibles en ChatGPT
OpenAI ha lanzado sus nuevos modelos de razonamiento o3 y o4‑mini, los más inteligentes que ha lanzado hasta la fecha y los primeros de la app capaces de incorporar imágenes en su cadena de pensamiento. Según la compañía, esto les permite, por ejemplo, interpretar una foto de una pizarra, rotarla y ampliarla mientras resuelven un problema matemático o generan código, todo dentro de la misma respuesta. Esto es un salto cualitativo y también permitirá simplificar la elección de modelo: hasta ahora era necesario pensar qué modelo era mejor en cada una de las funciones (programar, generar o interpretar imágenes…).
Qué aportan los nuevos modelos
-
Razonamiento de múltiples pasos con herramientas: o3 puede elegir y encadenar de forma autónoma búsquedas web, ejecución de código Python, análisis de archivos y generación de imágenes para responder a cuestiones complejas en menos de un minuto. o4‑mini hace lo mismo, pero con menor coste y más rapidez.
-
Salto en potencia: en los benchmarks académicos, o3 mejora un 20 % la tasa de aciertos de o1; o4‑mini supera a o3‑mini en matemáticas, programación y preguntas científicas, y domina la AIME 2024‑25 y los retos GPQA.
-
Visión integrada: ambos modelos “piensan con imágenes”, algo inédito en la serie o; sus razonamientos pueden mezclar texto, gráficos, bocetos o capturas de pantalla.
Seguridad actualizada
OpenAI afirma haber reconstruido todo el dataset de entrenamiento en seguridad, reforzando la negativa ante peticiones de biorriesgo, malware o jailbreaks. Además, ha aplicado su nuevo Preparedness Framework y un monitor LLM que detectó el 99 % de intentos peligrosos durante el red‑teaming. Los resultados completos figuran en la system card publicada junto al lanzamiento.
Disponibilidad y planes de precios
-
Los usuarios de ChatGPT Plus, Pro y Team ya pueden elegir o3, o4‑mini y o4‑mini‑high; los suscriptores Enterprise y Edu lo recibirán la próxima semana.
-
El modelo o4‑mini se ofrecerá también a usuarios del plan gratuito bajo la opción “Think”.
-
En la API, ambos modelos están activos desde hoy, y en pocas semanas llegará o3‑pro con acceso completo a herramientas.
Codex CLI y programa de becas
Junto a los modelos, OpenAI ha liberado Codex CLI, un agente ligero que ejecuta el razonamiento multimodal de o3 y o4‑mini directamente desde el terminal del desarrollador. Para incentivar proyectos, la empresa destinará 1 millón de dólaresen créditos API, repartidos en ayudas de 25.000 dólares para propuestas que integren esta herramienta.
Por qué importa
La convergencia entre la serie o —especializada en razonamiento— y la serie GPT promete asistentes capaces no solo de conversar, sino de actuar: buscar, calcular, ver y crear. Con o3 y o4‑mini, OpenAI da un paso decisivo hacia ese “ChatGPT agente” que resuelve tareas de principio a fin, marcando un nuevo estándar de inteligencia útil y, ahora, también visual.