Skip to main content

El uso de inteligencia artificial en el periodismo sigue generando controversias, y el Los Angeles Times se está enfrentado a críticas por su implementación. Ayer por la mañana, Patrick Soon-Shiong, propietario del diario, anunció en una carta a los lectores que el medio utiliza IA para añadir la etiqueta «Voices» (Voces) a artículos que expresan una postura o presentan una perspectiva personal. Además, estos textos pueden incluir una serie de Insights (Perspectivas) generados por IA, que aparecen al final del artículo en forma de viñetas, con secciones como «Diferentes puntos de vista sobre el tema.»

«Voices no se limita estrictamente al contenido de la sección de Opinión», explicó Soon-Shiong. «También incluye comentarios sobre noticias, críticas, reseñas y más. Si un artículo toma una postura o presenta una perspectiva personal, puede llevar la etiqueta Voices.» Según el empresario, esta iniciativa busca proporcionar una mayor variedad de perspectivas y ayudar a los lectores a comprender los problemas de la sociedad actual. Sin embargo, no todos la han recibido de manera positiva.

Este nuevo uso de la IA ha generado una gran controversia en el gremio

El sindicato del LA Times rechazó esta estrategia. En declaraciones a The Hollywood Reporter, Matt Hamilton, vicepresidente del LA Times Guild, señaló que, aunque apoyan la diferenciación entre noticias y opinión, «no creemos que este enfoque, un análisis generado por IA y sin supervisión editorial, haga mucho para mejorar la confianza en los medios.» La falta de control humano sobre la interpretación de los textos y el riesgo de que la IA distorsione los mensajes originales generan preocupación en el gremio periodístico.

Las críticas aumentaron cuando surgieron ejemplos problemáticos. The Guardian reportó que un artículo de opinión del LA Times del 1 de marzo, que advertía sobre los peligros del uso no regulado de la IA en documentales históricos, incluyó un Insight generado por IA que sugería que «la IA democratiza la narración históricaEsta afirmación, aparentemente neutral, contradecía el espíritu del artículo y confundía a los lectores.

Otro caso polémico surgió con un artículo del 25 de febrero sobre la presencia del Ku Klux Klan en los gobiernos municipales de California en la década de 1920. Entre los Insights generados por la IA, apareció una viñeta que sugería que algunos relatos históricos locales describían al Klan como «un producto de la cultura protestante blanca que respondía a los cambios sociales, en lugar de un movimiento explícitamente motivado por el odio.» Aunque históricamente correcto, el comentario parecía minimizar la amenaza ideológica del Klan, lo que generó indignación. Ante la controversia, el autor del artículo respondió a las críticas mediante la red social X, pero finalmente el LA Times eliminó esta sección.

La integración de la IA en el periodismo plantea grandes desafíos

Este tipo de problemas resalta la necesidad de una supervisión editorial rigurosa en el uso de la IA dentro del periodismo. Casos anteriores han demostrado los riesgos de una implementación descuidada. Por ejemplo, el agregador de noticias de IA de MSN recomendó erróneamente un banco de alimentos en Ottawa como un destino turístico para almorzar. De manera similar, Apple tuvo que modificar su sistema Apple Intelligence luego de que este distorsionara un titular de la BBC, sugiriendo erróneamente que un sospechoso de asesinato se había suicidado.

Si bien la tecnología puede ofrecer beneficios, como la diversificación de perspectivas y la eficiencia en la producción de contenido, su implementación debe ser transparente y estar sujeta a controles editoriales rigurosos. De lo contrario, la IA podría perpetuar sesgos o generar análisis inexactos, lo que erosionaría aún más la confianza del público en los medios de comunicación.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Gerard Quintana

Periodista. Me encanta el periodismo y la tecnología.