Skip to main content

Los nuevos modelos sustituyen a o1 y o3-mini, que dejan de estar disponibles en ChatGPT

OpenAI ha lanzado sus nuevos modelos de razonamiento o3 y o4‑mini, los más inteligentes que ha lanzado hasta la fecha y los primeros de la app capaces de incorporar imágenes en su cadena de pensamiento. Según la compañía, esto les permite, por ejemplo, interpretar una foto de una pizarra, rotarla y ampliarla mientras resuelven un problema matemático o generan código, todo dentro de la misma respuesta. Esto es un salto cualitativo y también permitirá simplificar la elección de modelo: hasta ahora era necesario pensar qué modelo era mejor en cada una de las funciones (programar, generar o interpretar imágenes…).

Qué aportan los nuevos modelos

  • Razonamiento de múltiples pasos con herramientas: o3 puede elegir y encadenar de forma autónoma búsquedas web, ejecución de código Python, análisis de archivos y generación de imágenes para responder a cuestiones complejas en menos de un minuto. o4‑mini hace lo mismo, pero con menor coste y más rapidez.

  • Salto en potencia: en los benchmarks académicos, o3 mejora un 20 % la tasa de aciertos de o1; o4‑mini supera a o3‑mini en matemáticas, programación y preguntas científicas, y domina la AIME 2024‑25 y los retos GPQA.

  • Visión integrada: ambos modelos “piensan con imágenes”, algo inédito en la serie o; sus razonamientos pueden mezclar texto, gráficos, bocetos o capturas de pantalla.

Seguridad actualizada

OpenAI afirma haber reconstruido todo el dataset de entrenamiento en seguridad, reforzando la negativa ante peticiones de biorriesgo, malware o jailbreaks. Además, ha aplicado su nuevo Preparedness Framework y un monitor LLM que detectó el 99 % de intentos peligrosos durante el red‑teaming. Los resultados completos figuran en la system card publicada junto al lanzamiento.

Disponibilidad y planes de precios

  • Los usuarios de ChatGPT Plus, Pro y Team ya pueden elegir o3, o4‑mini y o4‑mini‑high; los suscriptores Enterprise y Edu lo recibirán la próxima semana.

  • El modelo o4‑mini se ofrecerá también a usuarios del plan gratuito bajo la opción “Think”.

  • En la API, ambos modelos están activos desde hoy, y en pocas semanas llegará o3‑pro con acceso completo a herramientas.

Codex CLI y programa de becas

Junto a los modelos, OpenAI ha liberado Codex CLI, un agente ligero que ejecuta el razonamiento multimodal de o3 y o4‑mini directamente desde el terminal del desarrollador. Para incentivar proyectos, la empresa destinará 1 millón de dólaresen créditos API, repartidos en ayudas de 25.000 dólares para propuestas que integren esta herramienta.

Por qué importa

La convergencia entre la serie o —especializada en razonamiento— y la serie GPT promete asistentes capaces no solo de conversar, sino de actuar: buscar, calcular, ver y crear. Con o3 y o4‑mini, OpenAI da un paso decisivo hacia ese “ChatGPT agente” que resuelve tareas de principio a fin, marcando un nuevo estándar de inteligencia útil y, ahora, también visual.

Adrián Soler

Periodista por la Universitat Pompeu Fabra de Barcelona. Soy especialista en IA, tecnología y formador en comunicación. Reflexiono sobre cómo los algoritmos moldearán nuestro oficio.

Dejar un comentario