Skip to main content

En un revelador informe, Shane Jones, ingeniero de inteligencia artificial en Microsoft, ha advertido sobre la capacidad de Copilot, una herramienta de diseño asistido por IA, para generar imágenes sexuales, violentas y perturbadoras. Este descubrimiento pone en tela de juicio las medidas de seguridad y ética implementadas en las tecnologías de IA, especialmente en un momento donde la regulación de contenido generado por inteligencia artificial se encuentra en un punto crítico.

Jones, quien ha estado probando Copilot Designer, una herramienta de generación de imágenes basada en la tecnología de OpenAI, durante tres meses, encontró que el modelo era capaz de generar contenido ilegal, incluyendo imágenes sexualizadas de mujeres, menores consumiendo drogas y alcohol, y adolescentes portando rifles de asalto. Además, la IA produjo imágenes de personajes y objetos de Disney y Star Wars, a pesar de las promesas previas de Microsoft de haber solucionado este tipo de problemas.

Un ingeniero de Microsoft alza la voz sobre los riesgos que implica el uso de la inteligencia artificial de Copilot, capaz de crear contenido ilegal y perturbador.

A pesar de las advertencias internas de Jones, Microsoft no ha tomado medidas para retirar Copilot Designer del uso público hasta que se implementen mejores salvaguardas. Jones, sintiéndose ignorado, llevó sus preocupaciones a la Comisión Federal de Comercio de Estados Unidos, pidiendo una investigación sobre la situación. Microsoft, por su parte, ha afirmado estar comprometido en abordar las recomendaciones de los empleados y ha señalado la existencia de canales internos de comunicación para reportar problemas.

El caso de Copilot Designer resalta los desafíos legales y éticos que enfrentan las empresas tecnológicas al desarrollar y comercializar herramientas de IA. La capacidad de estas herramientas para generar contenido perturbador y potencialmente ilegal plantea serias preguntas sobre la responsabilidad de las empresas en la moderación de contenido y la protección de los usuarios.

La situación con Copilot Designer es un claro llamado a la acción para que las empresas tecnológicas implementen controles más estrictos y transparentes en sus herramientas de IA. La necesidad de salvaguardas robustas y mecanismos de reporte efectivos es más crítica que nunca, especialmente cuando estas tecnologías tienen el potencial de influir en la percepción pública y la seguridad en línea.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.