Skip to main content

El avance de la inteligencia artificial (IA) ha traído consigo un fenómeno preocupante conocido como el ‘dividendo del mentiroso‘, donde la creación de contenido falso mediante deepfakes está causando una gran confusión en la política y la economía. Este problema se ha agravado con la aparición de herramientas como FraudGPT y WormGPT, que facilitan la creación de mensajes y correos electrónicos falsos altamente convincentes.

El uso de deepfakes, videos e imágenes generados por IA, está contribuyendo a la desinformación y a la manipulación de la opinión pública. Según un informe de Brief News, las empresas tecnológicas y de redes sociales están trabajando para desarrollar formas de verificar y moderar el contenido generado por IA, pero el progreso ha sido lento. La IA se está utilizando con fines maliciosos, incluyendo estafas, pornografía deepfake y campañas de desinformación.

El uso de inteligencia artificial para crear contenido falso, conocido como ‘dividendo del mentiroso’, está causando confusión y dificultad para distinguir entre información real y falsa.

Los expertos advierten que la IA está desestabilizando el concepto mismo de verdad. Políticos de todo el mundo están utilizando la IA como chivo expiatorio para rechazar acusaciones dañinas. Por ejemplo, en un caso reciente en New Hampshire, se investigaron llamadas robóticas con una voz generada por IA que sonaba como el presidente Biden, instando a los votantes a no participar en las primarias.

En el ámbito de la seguridad cibernética, herramientas como FraudGPT y WormGPT representan una amenaza significativa. Estas herramientas permiten a personas con conocimientos técnicos limitados crear campañas maliciosas con altas probabilidades de éxito. Esto significa que los usuarios individuales y las empresas tendrán que enfrentar un número aún mayor de amenazas.

Además, la IA generativa se está utilizando para modificar imágenes y videos, lo que aumenta la dificultad de distinguir entre contenido real y falso. La creación de pornografía no consensuada utilizando IA es especialmente alarmante, ya que se dirige a mujeres y causa un daño personal y profesional significativo.

La IA también se ha utilizado para crear imágenes engañosas de inmigrantes, influir en la opinión pública y las elecciones, y ejecutar campañas de desinformación a gran escala. La tecnología de IA tiene el potencial de ser utilizada más allá de sus aplicaciones actuales, incluso para el diseño de armas bioquímicas.

Defenderse contra FraudGPT y la IA maliciosa requiere una combinación de aprendizaje automático, educación del usuario, medidas regulatorias, soluciones tecnológicas y pautas éticas. La detección y bloqueo de ataques sofisticados es posible, pero se necesita educar a los usuarios para reconocer correos electrónicos de phishing y otras amenazas.

 

Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.