Una amenaza profesional… con potencial para regenerar los valores informativos
Para muchos periodistas, el avance de la inteligencia artificial se percibe como una amenaza directa: los modelos de lenguaje como ChatGPT pueden investigar, redactar y editar textos, desplazando las tareas que eran tradicionalmente de los periodistas.
A esta tensión se suma la desconexión entre usuarios y medios. Cuanto más eficaz sea la IA en dar respuestas, menos necesidad tienen los lectores de acudir directamente a las fuentes. El resultado es un modelo donde las publicaciones compiten no solo entre sí, sino con sistemas que resumen su contenido sin citarlas ni redirigir tráfico.
La audiencia ha cambiado sus hábitos
Las cifras son contundentes: ChatGPT cuenta con más de 400 millones de usuarios semanales y se encuentra entre los sitios más visitados del mundo. Herramientas de IA ya canalizan cantidades enormes de tráfico, hasta un 1.200% más en siete meses, según Adobe, una señal clara de lo que podría venir para el periodismo.
Google también se mueve hacia un futuro más automatizado: sus resúmenes con IA aparecen cada vez más en los resultados de búsqueda, y su “modo IA” elimina incluso los enlaces tradicionales. Aunque todavía no se aplica de lleno a noticias de actualidad, la dirección es clara: más IA, menos intermediarios humanos.
¿Qué premia la IA? Contenido original y profundo
De manera paradójica, el tipo de contenido que más valoran los modelos de IA es aquel que representa el mejor periodismo: reportajes únicos, enfoques bien argumentados, análisis originales. Los sistemas tienden a construir sus respuestas a partir de múltiples fuentes, pero priorizan las más completas y matizadas.
Esto podría corregir distorsiones generadas por la era del clickbait, donde el éxito se medía por visitas rápidas y titulares llamativos. En cambio, si las plataformas de IA empiezan a citar los contenidos más sólidos, las redacciones tendrán al fin incentivos para apostar por profundidad, contexto y exclusivas.
Riesgos de opacidad, sesgo y conflictos legales
Las decisiones de los modelos de IA son opacas, y los sesgos siguen siendo una amenaza. Newsguard ha documentado un intento exitoso de manipular las respuestas de varios chatbots a favor de la narrativa rusa sobre la guerra en Ucrania. También, los conflictos legales sobre derechos de autor podrían llevar a que los modelos favorezcan solo a medios aliados, limitando la diversidad informativa.
Las disputas legales en torno a los derechos de autor están lejos de resolverse, y las grandes tecnológicas, incluida OpenAI, enfrentan demandas por el uso de contenido periodístico en el entrenamiento de sus modelos. Aunque no está claro si las empresas están excluyendo activamente a medios en litigio, sí han reconocido que los acuerdos de licencia pueden influir en qué fuentes se priorizan o citan en los resúmenes generados por IA.
Si los tribunales acaban considerando que el uso masivo de datos protegidos entra dentro del “uso justo”, el incentivo para que los medios participen voluntariamente en estos sistemas podría debilitarse, reduciendo su capacidad de negociación y visibilidad dentro de los ecosistemas de IA.
Redefinir el juego, no rechazarlo
La IA ya está transformando el periodismo, pero aún es posible moldear el sistema. En lugar de resistirse a una tecnología que ya forma parte del presente, el objetivo está en diseñar un modelo donde la verdad, la profundidad y la transparencia sean premiadas. La IA puede hacer muchas cosas, pero cuando los periodistas hacen su trabajo con rigor y propósito, ese valor debe ser reconocible hasta para un algoritmo.
Foto de AbsolutVision en Unsplash
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.