Un estudio analiza el impacto que podría tener la IA en los contenidos que se publican en internet
La expansión de la IA generativa avanza sin pausa, con los nuevos modelos GPT-4.5 de OpenAI y Claude 3.7 Sonnet de Anthropic sumándose a la competencia. Pero, mientras estas herramientas facilitan la creación de contenido, también están transformando de manera silenciosa la forma en la que consumimos información en la web. Un estudio reciente, publicado en el servidor arXiv de la Universidad de Cornell, advierte sobre el impacto masivo del contenido generado por IA en la web.
Este fenómeno se denomina «slop» y describe la proliferación de contenido de baja calidad producido por herramientas de IA generativa, que va desde textos hasta imágenes creadas por IA. El informe expone que tras el lanzamiento de ChatGPT por OpenAI en noviembre de 2022, la presencia de este tipo de contenido no ha parado de crecer.
Un análisis de 300 millones de documentos
La investigación ha analizado más de 300 millones de documentos, incluyendo quejas de consumidores, comunicados de prensa corporativos, ofertas de empleo y hasta mensajes institucionales de las Naciones Unidas. El período evaluado va desde enero de 2022 a septiembre de 2024. Los resultados muestran que, antes de la existencia de ChatGPT, solo el 1,5% de las quejas de consumidores mostraban indicios de asistencia por IA. Pero, después de su lanzamiento, la cifra se ha elevado hasta el 15%.
El estudio también identifica diferencias geográficas en Estados Unidos. En 2024, los estados de Arkansas, Misuri y Dakota del Norte fueron los más propensos a utilizar IA en la redacción de quejas, con alrededor de una de cada cuatro quejas mostrando evidencia de generación automatizada. En otros estados, como Virginia Occidental, Idaho y Vermont, fue mucho menor, con proporciones de entre una de cada 20 y una de cada 40.
¿Cuál es el método de detección?
Para poder identificar el contenido generado por IA, los investigadores crearon un marco estadístico propio que analiza patrones lingüísticos, como la distribución de la frecuencia de palabras, y los compara con textos humanos previos al lanzamiento de ChatGPT. El método alcanza una tasa de error de predicción inferior al 3,3%, con una precisión bastante alta en la distinción entre textos generados por humanos y los automatizados.
Una amenaza para la creatividad y la confianza digital
Yaohui Zhang, uno de los coautores del estudio, ha expresado su preocupación sobre el impacto que puede llegar a tener situar a la IA generativa por encima de la creatividad humana: «de alguna manera, está limitando la creatividad». También, el aumento de contenido automatizado puede afectar la confianza en los contenidos digitales, sobre todo en sectores como los comunicados corporativos y las quejas institucionales.
El crecimiento del «slop» generado por IA en la web pone en valor la necesidad de desarrollar herramientas que permitan identificar y gestionar este tipo de contenido. ¿Cómo equilibraremos la eficiencia de la IA en la generación de contenido con la preservación de la autenticidad y creatividad humana? Son preguntas que quedan abiertas y el desenlace está por verse.
Image by Gerd Altmann from Pixabay
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.