Skip to main content

El debate sobre la regulación no es nuevo: mientras EE.UU. se ha convertido en la cuna de la innovación sin límites, Europa continúa innovando en regulación. El MWC25 es el punto de encuentro perfecto para discutir los diferentes puntos de vista.

Francisco Montalvo, Chief Data Officer de Telefónica, sorprende a la audiencia con una anécdota que ejemplifica a la perfección el dilema regulatorio que vive Europa. «Hemos desarrollado dentro de Telefónica un producto llamado KIRI que mide con gran precisión cuál es el impacto de la huella de carbono en cada ejecución en la nube«, explicó. Sin embargo, al presentar internamente el proyecto, recibió una advertencia inesperada: «Por favor, no lo hagas público«. El temor, explicó, era que si la empresa demostraba su capacidad de medir con precisión su impacto ambiental, los reguladores podrían exigir que esta práctica se convirtiera en estándar obligatorio. «Si no vamos a hacer lo correcto por miedo a ser regulados, entonces no hay manera de hacer negocios en absoluto», concluye el directivo.

Este dilema sobre la regulación y la innovación lo viven casi las empresas que desarrollan o implementan sistemas de IA en la actualidad. Ahora, en el marco del MWC25, sale a la luz de la mano de Claudia Nemat (Deutsche Telekom), Richard Benjamins (RAIght.ai), Nia Castelly (Google Checks) y Francisco Montalvo, moderados por Ansgar Koene.

El dilema europeo: cómo saltar de la regulación a la innovación

Claudia Nemat fue contundente al señalar los riesgos de un exceso normativo en la inteligencia artificial: «Hemos llegado, en cierta medida, a crear el cinturón de seguridad antes de inventar los coches«. En su visión, Europa necesita volverse un «AI execution continent» [continente de ejecución de la IA] con el ser humano al centro, pero sin ahogar la innovación en burocracia. Propuso reducir barreras regulatorias, consolidar un mercado común y fomentar la inversión público-privada. «Deberíamos dejar de hacer más pequeñas a nuestras empresas líderes», advirtió, citando como ejemplo el declive del sector de las telecomunicaciones, con Deutsche Telekom como una excepción gracias a su alianza con startups y la apuesta por la inteligencia artificial. Precisamente, Nemat venía de anunciar un acuerdo estratégico con Perplexity para lanzar un smartphone de IA.

¿Pueden las empresas regularse a sí mismas?

Por su parte, Nia Castelly, desde la perspectiva de Google y el ecosistema regulador estadounidense, reconoció que la legislación en EE.UU. avanza con menor rapidez que en Europa, lo que obliga a las empresas a establecer sus propios estándares de responsabilidad. «Puede que seamos un poco más lentos en el ámbito legislativo, pero las empresas tendrán que asumir la responsabilidad de construir y desplegar de manera responsable». Castelly subrayó también que las empresas no deben esperar a que los gobiernos dicten reglas, sino adelantarse y crear sus propios marcos internos basados en principios claros.

Richard Benjamins, por su parte, abordó la evolución de los enfoques en la regulación de IA: «IA ética, IA confiable, IA responsable… para mí, todas se reducen a la misma idea fundamental». «En realidad, cuando hablamos de ello, solemos referirnos a cómo evitar el impacto negativo. Es decir, la ética en torno a ser responsables. Pero creo que también hay una oportunidad para generar un impacto positivo. Para mí, la responsabilidad no es solo evitar impactos negativos». Benjamins también enfatizó la importancia de establecer marcos de gobernanza claros dentro de las empresas, más allá de las normativas externas.

El futuro de la IA: eficiencia y sentido común

Montalvo cerró con una reflexión sobre la eficiencia en la adopción de nuevas tecnologías. «Cuando los LLMs llegaron al mercado, todos los desarrolladores quisieron usarlos», señaló, pero advirtió que en muchos casos no eran la mejor solución. «De hecho, era menos eficiente que los bots que habíamos estado usando». Con este ejemplo, planteó la necesidad de adoptar un enfoque pragmático: «A veces no se trata de ser el más rápido todo el tiempo; se trata de ser el más eficiente».

La discusión dejó en claro que la regulación de la IA es un desafío complejo: un equilibrio entre la necesidad de control y la libertad para innovar. Para resumirlo, viene bien la frase de Nemat: «Comprender cómo creas tecnologías responsables se está convirtiendo en algo tan esencial como gestionar el flujo de efectivo o los ingresos«.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Adrián Soler

Periodista por la Universitat Pompeu Fabra de Barcelona. Soy especialista en IA, tecnología y formador en comunicación. Reflexiono sobre cómo los algoritmos moldearán nuestro oficio.