Skip to main content

Oriol Jaumà es profesor del Institut TIC de Barcelona y ha trabajado en empresas como Sony y Apple. De formación es ingeniero en Telecomunicaciones y se ha especializado en inteligencia artificial y ‘machine learning’. Hablamos con él en el marco de la jornada AI@BCOMBINATOR, celebrada en el Poblenou de Barcelona.

Uno de los temas de conversación es la posibilidad de que los datos sintéticos (los generados por IA) puedan llegar a colapsar los modelos, hasta el punto de que el texto que generen sea irreconocible. Ya hay algunos estudios que apuntan a esa posibilidad. Si a eso le sumamos la dificultad que existe para filtrar los textos humanos y la progresiva «deshumanización» de internet, todo ello puede contribuir al «colapso» de la IA.


Escúchalo en Spotify

Dependencia de las grandes multinacionales

  • «Yo pienso que es muy difícil ligarte a tecnologías, a empresas tan grandes, donde tú eres una parte muy insignificante de su ‘cash flow’. Hay que ir a cosas más tuyas, más propias, que puedas tocar, que no tengas que crear una ‘tuneladora’ para poder llegar y enviar tus datos privados, sino decir: esto lo corro en la nevera de mi casa».
  • «Una de las noticias que más me impactó de este verano fue que OpenAI dejó de dar soporte en varios modelos. Cuántas empresas hay que dependen de la tecnología de ese modelo y ellos deciden unilateralmente que lo dejan de utilizar…»

La importancia de las clases prácticas

  • Jaumà trabaja con sus alumnos por proyectos que se basan en solucionar problemas prácticos: «Es muy importante ir haciendo e ir probando las tecnologías viejas y poco a poco ir adoptando las tecnologías nuevas. Utilizar algoritmos de imagen como AlexNet, que son de 2012, para hacer cosas modernas como detección de cáncer de colon; o después esta misma detección hacerla con un modelo de Vision Transformer para ver cómo se traduce lo que has hecho a hoy en día».

Los datos humanos como input

  • «Una cosa que ha demostrado OpenAI con GPT 3.5 es que el ‘Human Reinforcement’ no es tan bueno como creíamos. Pensábamos que los humanos éramos buenos en saber cuándo un texto es bueno y no, y resulta que no. No tenemos esa capacidad. Quizá no se recurría a los profesionales más adecuados para hacerlo».
  • «Hace un par de años, cuando empezamos a enseñar los modelos Transformer, una de las primeras prácticas que hice a mis alumnos fue que se los descargaran y que los entrenaran con sus conversaciones de WhatsApp. Les pregunté: ¿A qué conclusión llegáis? Pensando a nivel de IA. La conclusión era que escribimos fatal por WhatsApp. A la que escribías una pregunta de más de cuatro palabras, respondía “sí”.»

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.