Skip to main content

Esta medida, que busca proteger a los menores de edad, se aplicará únicamente en conversaciones con niños

El senador de California, Steve Padilla, ha presentado el proyecto de ley SB 243, que busca proteger a los menores de los posibles efectos negativos de los chatbots. La ley obliga a las empresas de IA a recordar a los niños que están hablando con una máquina y no con una persona.

También se exige que las compañías limiten el uso de patrones de compromiso adictivos, y presenten informes anuales al Departamento de Servicios de Salud de California, detallando todas las veces que han detectado ideas suicidas en los menores y las ocasiones en que el chatbot ha abordado este tema. Además se va a requerir que las empresas informen a los usuarios sobre la posible inapropiabilidad de los chatbots para algunos niños.

Casos que han encendido las alarmas

La ley surge tras varios incidentes que ha habido relacionados con chatbots. En 2024, una madre demandó Character.AI por homicidio involuntario, después de que su hijo adolescente que interactuaba continuamente con los bots, se suicidara. Otra demanda acusó a la empresa de enviar «material dañino» a adolescentes. Character.AI en respuesta, anunció que estaba trabajando en controles parentales y desarrolló un nuevo modelo para usuarios adolescentes, en el que se bloquea contenido «sensible o sugestivo».

Padilla ha recalcado la necesidad de proteger a los jóvenes de las prácticas tecnológicas que les pueden acabar perjudicando, afirmando: «Nuestros hijos no son conejillos de indias para que las empresas tecnológicas experimenten a costa de su salud mental. Necesitamos protecciones de sentido común para los usuarios de chatbots para evitar que los desarrolladores empleen estrategias que saben que son adictivas y depredadoras».

Chatbots que pueden poner en riesgo a los niños

Hay investigaciones que han señalado que muchos niños pueden percibir a los chatbots como seres casi humanos y con los que tienen confianza, lo que puede llevar a problemas cuando la IA no responde adecuadamente a sus necesidades y vulnerabilidades. En 2021, el asistente de voz de Amazon, Alexa, le dijo a una niña de 10 años que tocara un enchufe eléctrico con una moneda. En otro caso, el chatbot «My AI» de Snapchat proporcionó a investigadores, que se hicieron pasar por una niña de 13 años, consejos sobre cómo perder su virginidad con un hombre de 31 años. Estos incidentes demuestran que es urgente implementar medidas para garantizar que la IA sea segura para los niños.

Los estados y el gobierno federal aumentan fuerzas para poder garantizar la seguridad en las redes sociales. Ahora los chatbots de IA podrían sumarse y ser el próximo objetivo de los legisladores. Dejando clara la necesidad de regular la IA para proteger la salud de los menores.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Laia Herranz

Estudiante de Comunicación Audiovisual en la Universidad Internacional de Catalunya (UIC). Apasionada por la tecnología y la IA.