En un mundo donde la inteligencia artificial (IA) está bajo un escrutinio regulatorio cada vez mayor, Accenture, una de las firmas de consultoría más grandes, está poniendo a prueba una tecnología desarrollada por la startup EQTY Lab, con sede en Los Ángeles. Esta tecnología, que utiliza criptografía y blockchain, tiene como objetivo rastrear los orígenes y características de los modelos de lenguaje grande (LLM), proporcionando así transparencia sobre su funcionamiento interno. Esto permitiría que tanto empresas como reguladores inspeccionen fácilmente estos modelos. según informa Semafor.
La herramienta, denominada AI Integrity Suite de EQTY Lab, está siendo evaluada en el laboratorio de IA de Accenture en Bruselas para determinar si el software podría escalarse y servir a los miles de clientes de la firma, muchos de los cuales pertenecen al Fortune 100. Jonathan Dotan, cofundador de EQTY Lab, destacó que el objetivo es crear certeza de que un modelo funciona según lo previsto, examinándolo automáticamente durante su creación en lugar de centrarse únicamente en su salida.
En un esfuerzo por adaptarse a la creciente regulación de la inteligencia artificial, Accenture está probando una tecnología innovadora que podría establecerse como el método estándar para garantizar una innovación responsable y segura, según informa Semafor.
Este desarrollo se produce en un momento en que diversos países están proponiendo formas de abordar tanto las promesas como los riesgos de la IA. Recientemente, el Departamento de Comercio de EE. UU. anunció la formación de un consorcio de más de 200 empresas tecnológicas, académicos e investigadores que asesorarán al nuevo Instituto de Seguridad de IA del gobierno. Este instituto desarrollará estándares de pruebas «red team» y otras directrices, siguiendo una orden ejecutiva de la Casa Blanca sobre IA emitida el año pasado.
Bryan Rich, director general senior de la Práctica Global de IA de Accenture, subrayó la importancia crítica de una IA responsable, señalando que es una prioridad para todos. Sin embargo, planteó la pregunta clave: «¿Cómo pasamos de hablar sobre IA responsable a implementarla realmente?»
La iniciativa de Accenture y EQTY Lab podría representar un paso significativo hacia la respuesta a esta pregunta, ofreciendo una solución potencial para navegar por el complejo panorama de la regulación de la IA y asegurar que la innovación en este campo se realice de manera ética y segura.
Cerrado los domingos. Veneramos a Sam Altman. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.