Skip to main content

En un intento por seguir los pasos de Perplexity, Google ha lanzado su nueva función de resúmenes generados por inteligencia artificial, conocida como AI Overviews. De momento, está en fase beta y solo los usuarios de Estados Unidos pueden acceder al servicio. Los internautas, que ya han probado intensamente la herramienta, han compartido una serie de errores que ponen en duda la fiabilidad de la tecnología de Google. Uno de los ejemplos más alarmantes y absurdos fue cuando un resumen sugirió a un usuario «poner pegamento en su pizza» para evitar que el queso se deslizara.

AI Overview no distingue las fuentes fiables de la ironía viral

Imagina que estás preparando una pizza casera y, al notar que el queso no se adhiere bien, decides buscar una solución en Google. Según la nueva función AI Overviews, la respuesta sería mezclar un octavo de taza de pegamento no tóxico con la salsa. Esta respuesta absurda y peligrosa, según ha informado ‘The Verge’, es consecuencia de considerar como fuente fiable un comentario irónico que un usuario de Reddit hizo hace más de una década.

Perros en la NBA y otros errores desconcertantes

Los errores de la IA de Google no se limitan a consejos culinarios. La herramienta también ha afirmado que un perro ha jugado en la NBA, la NFL y la NHL. Estas respuestas también fueron viralizadas por usuarios de redes sociales y se han usado como fuente principal para generar el resumen con IA. Por no hablar de que también se hacen eco de foros que generan desinformación en internet y que difunden, por ejemplo, que Barack Obama es el primer presidente musulmán de los Estados Unidos.

Estos errores ponen de manifiesto un problema más amplio con la implementación de inteligencia artificial a gran escala. Google no es la única compañía que ha enfrentado dificultades con respuestas inexactas generadas por IA. Empresas como OpenAI y Meta también han tenido problemas similares. Sin embargo, parece ser que en este caso son los propios resultados de Google los que ‘contaminan’ de alguna forma el resumen. Seguramente porque el algoritmo prioriza la viralidad del contenido frente a la veracidad de la información.

La respuesta de Google

Ante estas críticas, Google ha defendido su nueva herramienta argumentando que los errores son el resultado de consultas extremadamente raras y no representan la experiencia general de los usuarios. “La mayoría de los resúmenes generados por AI Overviews proporcionan información de alta calidad”, afirmó un portavoz de Google a ‘The Verge’. Sin embargo, estos incidentes han sembrado dudas sobre la capacidad de Google para gestionar y perfeccionar esta tecnología. Ahora ya han solventado los casos que se han hecho virales, pero seguramente deberán acabar de modificar el algoritmo para que sea más fiable.

Los errores de la AI de Google son también una llamada de atención sobre los peligros de depender en exceso de la inteligencia artificial sin una supervisión adecuada. Aunque Google y otras compañías tecnológicas continúan refinando sus sistemas, estos incidentes subrayan la necesidad de un enfoque más crítico hacia la implementación de estas tecnologías. Mientras tanto, los usuarios deben ser conscientes de los posibles errores y verificar la información consultando múltiples fuentes antes de seguir cualquier consejo proporcionado por la IA.

Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.