Skip to main content

En un reciente informe de investigación, Google ha revelado que la inteligencia artificial generativa podría distorsionar la comprensión colectiva de la realidad sociopolítica o el consenso científico, y en muchos casos, ya lo está haciendo. Este informe, titulado «Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data», fue coescrito por investigadores del laboratorio de inteligencia artificial de Google, DeepMind, el grupo de reflexión de seguridad Jigsaw, y la organización benéfica Google.org.

El documento destaca que la mayoría de los daños causados por la IA generativa no son intencionadamente maliciosos ni violan explícitamente las políticas de contenido o los términos de servicio de estas herramientas. Este tipo de contenido es, en otras palabras, una característica, no un error.

La investigación se basa en el análisis de aproximadamente 200 incidentes de mal uso reportados en medios y documentos académicos entre enero de 2023 y marzo de 2024. A diferencia de las advertencias de figuras como Sam Altman de OpenAI o Elon Musk sobre los riesgos existenciales de la inteligencia general artificial, la investigación de Google se enfoca en los daños reales que la IA generativa está causando actualmente y cómo podrían empeorar en el futuro.

La facilidad con la que la IA generativa permite a cualquiera inundar internet con texto, audio, imágenes y videos generados plantea una amenaza real a la confianza pública y a la integridad de la información que consumimos.

Metodología de la investigación

Google adoptó un enfoque exhaustivo para desarrollar una taxonomía de tácticas de mal uso de la IA generativa. La metodología incluyó una revisión de la literatura académica reciente y un análisis cualitativo de informes de medios de comunicación sobre casos de mal uso. Los investigadores identificaron y categorizaron distintas tácticas de explotación de las capacidades de la IA generativa y ataques a los sistemas de IA.

Principales hallazgos

El informe revela que los casos más prevalentes de mal uso de la IA generativa involucran la manipulación de la apariencia humana y la falsificación de evidencia. Estos incluyen desde la suplantación de identidad hasta la creación de material de abuso sexual infantil generado por IA. Otro hallazgo crucial es que la mayoría de los casos reportados no consisten en usos tecnológicamente sofisticados de sistemas de IA, sino en la explotación de capacidades accesibles y fáciles de usar de la IA generativa.

Tácticas de explotación

La investigación de Google identifica diez tácticas distintas que explotan las capacidades de la IA generativa. Entre ellas se encuentran:

  • Suplantación de identidad: Asumir la identidad de una persona real y actuar en su nombre.
  • Imágenes apropiadas: Usar o alterar la apariencia de una persona sin su consentimiento.
  • Creación de personas falsas: Generar perfiles falsos en redes sociales con imágenes y descripciones generadas por IA.
  • Contenido sexual no consentido: Crear material explícito usando la apariencia de una persona sin su consentimiento.
  • Falsificación de evidencia: Fabricar o representar falsamente documentos, reportes e imágenes.

Impacto en la confianza pública

El informe subraya que estos usos de la IA generativa pueden socavar significativamente la confianza pública. La capacidad de generar grandes volúmenes de contenido falso o manipulado facilita la desinformación y puede llevar a la manipulación de la opinión pública, la comisión de fraudes y otros daños sociales y económicos.

Los hallazgos de Google proporcionan una base de evidencia para que los responsables de políticas, equipos de confianza y seguridad, y los investigadores desarrollen estrategias de gobernanza y mitigación más efectivas. Además, la investigación sugiere que es crucial mejorar las evaluaciones de seguridad y las estrategias de pruebas adversariales alineadas con el panorama de amenazas en constante cambio.

Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.