Skip to main content

El fundador y director científico de OpenAI ha abandonado la compañía tan sólo un día después de la demostración de dos ChatGPTs hablando y cantando entre ellos.

La salida de Ilya Sutskever de OpenAI es el evento más relevante del arco argumental de esta segunda temporada de la epopeya de la Inteligencia Artificial. Una segunda temporada que empezó con el anuncio de ChatGPT en noviembre del 2022. Y que, tras todos los anuncios de OpenAI y Google de esta semana, ha entrado en su nudo central.

Se desconoce cuál ha sido el acuerdo de salida. En estos momentos la mayoría de los periodistas en Silicon Valley buscan la información como si fuera oro puro. El tiempo lo dirá, pero para nuestro análisis vamos a suponer que no ha regalado su participación en OpenAI y que conserva un porcentaje significativo. Que le permita seguir conociendo e influyendo en la evolución de la compañía, aunque sea de forma indirecta. Así como, llegado el momento, poder convertir dicha participación en capital para su nueva y desconocida aventura, de la que ha dicho que “está más alineada con su visión personal del avance de la Inteligencia Artificial”. 

El Oppenheimer de la Inteligencia Artificial

Para analizar qué pasa tras este hecho tan relevante, recordemos su participación en la primera temporada de esta epopeya. En ella, el nivel de protagonismo de Sutskever es tal que se puede asegurar que no existiría OpenAI ni ninguno de los proyectos que nacieron del Big Bang inversor tras el anuncio de ChatGPT. Ni este artículo ni Paréntesis MEDia existiríamos. Construyó una bomba informática, que al explotar cambió el mundo para siempre.

Así que, como si se tratara de un entrelazamiento cuántico, podemos observar que Oppenheimer y Sutskever en realidad son la misma persona en dos cuerpos entrelazados. Su historia es absolutamente paralela: “Sutskever es el Oppenheimer de la Inteligencia Artificial”. Porque él lideró la investigación, desarrollo y puso a disposición de Microsoft detonar ChatGPT, la bomba atómica de la Sociedad de la Información.

Sutskever, como Oppenheimer y la mayoría de los científicos, da la impresión que siente un deber asociado al privilegio de haber nacido y desarrollado unas capacidades intelectuales que superan a las de la media, especialmente aplicadas a la investigación tecnológica. Y ese deber le lleva a ser un ferviente defensor públicamente de la responsabilidad con la que se debe avanzar en el desarrollo y puesta a disposición de la Inteligencia Artificial al servicio de la Humanidad. Participó así activamente en la creación de OpenAI como una fundación que debía proteger sus descubrimientos de la agresividad comercial de las multinacionales y fondos de inversión tecnológicos. Ha defendido, hasta ayer mismo con todas sus capacidades, que el gobierno de OpenAI esté formado por miembros comprometidos con esa visión fundacional. Ni toda su inteligencia ni la mejor de las voluntades le han permitido salvaguardar esa misión. En el preciso instante en el que la ambición de sus descubrimientos estuvo por encima de su prudencia, se rindió ante el hecho de que OpenAI iba a necesitar el apoyo de una gran corporación que les financiara las infraestructuras de dimensiones titánicas necesarias. Y esa corporación no fue otra que Microsoft. En el símil con Oppenheimer, el Ejército de los Estados Unidos.

“Superaligment vs Preparedness”

Tras la explosión empezaron las tensiones internas en OpenAI entre el liderazgo comercial de Sam Altman y el liderazgo responsable que Ilya Sutskever representaba. El sudoku corporativo entre la empresa comercial de OpenAI, la fundación que supuestamente la gobernaba y Microsoft, el principal “socio estratégico y comercial” de OpenAI se le presentó a Sustkever como irresoluble, a pesar de su indudable inteligencia como científico. Demostrando que el que más sabe de Inteligencia Artificial no necesariamente es el que más sabe del instinto animal de los seres humanos.

Aprovechando su posición en el consejo de OpenAI, supuestamente superior en gobernanza a la de Sam Altman, comenzó por iniciativa propia la creación del equipo de “Superaligment”, Superalineamiento en adelante. Según publicaron en su web el 5 de Julio de 2023 (meses antes del despido fulminante de Sam Altman):

“Necesitamos descubrimientos científicos y técnicos para supervisar y controlar sistemas de Inteligencia Artificial mucho más inteligentes que nosotros. Para resolver este problema en los siguientes cuatro años hemos creado este equipo (de Superalineamiento) liderado por  Ilya Sutskever y Jan Leike, dedicando el 20% de la potencia computacional que hemos asegurado a día de hoy a este esfuerzo. Estamos buscando investigadores e ingenieros excelentes para unirse a nosotros.”

Ayer, junto con Ilya Sutskever, también dimitió Jan Leike. Ese pequeño párrafo nos está mostrando la punta del iceberg que explica los motivos de la dimisión de ambos. El periodismo debe estar a la altura de su objetivo más que nunca y los medios deben cumplir con el deber de sacar a la luz pública qué se esconde bajo la superficie de estos hechos.

La prensa estadounidense especializada sigue una pista que encontramos en la propia web de OpenAI. El 18 de Diciembre de 2023, al inicio de la semana en la que la mayoría de los americanos vuelven a su ciudad de origen a pasar unos días en familia, publicaron la creación de un equipo, paralelo al de Superalineamiento de Sutskever, y con los mismos objetivos: el equipo de “Preparedness”, en adelante Preparación. Según la propia web:

“Creemos que el estudio científico de los riesgos catastróficos de la Inteligencia Artificial va muy por detrás de donde necesitamos estar. Para hacer frente a esta carencia presentamos nuestro Marco de trabajo de Preparación. Un documento vivo que describe los procesos de seguimiento, evaluación, predicción y protección contra los riesgos catastróficos derivados de unos modelos cada vez más poderosos.”

Esta disputa sobre las medidas a tomar por los riesgos de la IA viene de lejos. Uno de los principales competidores actuales de OpenAI, Antrophic, está liderado por otros fundadores de OpenAI que no estaban de acuerdo ya en 2020 con las políticas comerciales y de seguridad lideradas por Sam Altman. Sin embargo, Ilya en ese momento se quedó defendiendo un desarrollo más controlado y prudente. Llegando al extremo, tras la creación del equipo paralelo de Preparación, de liderar el despido de Sam Altman a finales de 2023. 

Pero, pasados unos meses, el resultado de ese despido a día de hoy se ha saldado con:

  1. La confirmación de Sam Altman como máximo responsable de la compañía y persona de máxima confianza de Microsoft.
  2. La integración hace meses de todo el equipo de Superalineamiento con el equipo de otro de los fundadores, John Schulman, director de aprendizaje por refuerzo. Decisión muy cuestionada por todos los expertos en seguridad de la Inteligencia Artificial.
  3. La disolución gradual del equipo de Preparación, quedando las funciones repartidas bajo la COO Mira Murati y el propio John Schulman.
  4. La dimisión de Ilya Sutskever y Jan Leiker, para perseguir sus objetivos personales en otro proyecto.

TECH WARS: Todo vale para acabar con Google

No es coincidencia que el anuncio de la dimisión haya ocurrido después de la presentación de producto más impactante de OpenAI desde el primer ChatGPT: GPT-4o. Las demostraciones de este lunes pasado de dos sistemas multimodales interactuando con voz e imagen entre ellos y con personas son la segunda onda expansiva de la bomba atómica detonada en noviembre de 2022. Detonada por Microsoft. Nos atrevemos a suponer que, tras la dimisión de Sutskever y dado el histórico de la multinacional, todo está avanzando bajo la orden de los accionistas de referencia y su fundador Bill Gates. ¿Con qué objetivo? El liderazgo absoluto de Microsoft en la revolución IA y Cloud de Occidente y la destrucción del competidor que les ganó la batalla del primer Internet en todos los frentes: Google, ahora Alphabet. La misma estrategia que siguieron con Windows y Office para frenar el crecimiento Apple y posicionarse, en aquel momento, al frente de la informática personal a nivel mundial. ¿Piensa Sutskever enfrentarse a Microsoft, como David frente a Goliat?

Os invitamos a seguir muy atentamente todo lo que suceda en adelante con Ilya Sutskever. Detrás de esos hechos pueden estar las respuestas a todas estas preguntas: ¿Son sinceras las motivaciones de Sutskever o forma parte de una estrategía por el poder en la industria de la IA?¿Cuál es el nivel de riesgo que asume OpenAI en nombre de todos los ciudadanos,  entrenando sus modelos propietarios con nuestros datos que en ningún caso hemos cedido explícitamente para ello? ¿Cuál es el impacto en las emisiones de carbono y consumo de agua del funcionamiento de las infraestructuras mastodónticas IA de Microsoft? ¿Qué pasos dará el gobierno de Estados Unidos en esta guerra abierta entre las empresas de tecnología que, como en toda guerra, tendrá daños colaterales? ¿Cuáles serán las reacciones del gobierno de China en su apoyo al desarrollo de la IA en su país? 

Para conocer más a Sutskever y sus opiniones públicas os dejamos dos enlaces muy interesantes y que quizá formen parte importante de la Historia de la Humanidad:

The Exciting, Perilous Journey Toward AGI | Ilya Sutskever | TED

En esta TED Talk, grabada apenas unas semanas de los eventos alrededor del despido de Sam Altman a finales del 2023, Ilya Sutskever repasa el potencial y los peligros de los modelos en los que ya están trabajando. 

Rogue superintelligence and merging with machines: Inside the mind of OpenAI’s chief scientist

En esta conversación explica en profundidad todos los aspectos y detalles de los que habla en el vídeo anterior. Quizá uno de los retratos más sinceros, aunque sesgado por su percepción del riesgo de los modelos y aplicaciones que están por llegar los próximos años.

Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.