Skip to main content

El pasado día 9 de abril, organizado por el Foro Periodismo 2030 y la Fundación AXA, tuvo lugar en la Cámara de Comercio de Barcelona una sesión con especialistas en IA, big data, TIC y supercomputación. El objetivo era debatir sobre los grandes retos y dilemas de la tecnología del futuro. Un debate, planteado por el periodista Fernando Jáuregui, presidente del Foro Periodismo 2030, en que subyacía la pregunta no verbalizada sobre si la IA llegaría a superar la mente humana y se contextualizaba en el XI Informe de Riesgos Futuros de AXA, en el que se explicita que la ciberseguridad, la Inteligencia Artificial y el Big Data son las amenazas crecientes a nivel global y la ciberseguridad sigue siendo considerada una de las principales preocupaciones globales, así pues la irrupción de la IA, simultáneamente a impulsar grandes transformaciones en todos los ámbitos, plantea riesgos de todo tipo.

Seguir el debate y las ponencias de Luis Moreno Ortí, José María Cela, Miquel Ferrer, Eduard Martín y Albert Tort no sólo aportó información relevante para configurar opinión, sino que además deja un poso para reflexionar con posterioridad, en especial en los aspectos asociados a la privacidad, el uso de datos y los límites éticos.

Los riesgos de la privacidad

Lo cierto es que la IA ha puesto de nuevo a debate los riesgos asociados a las informaciones que se le aportan al interactuar con ella, atendiendo a que, si bien muchas plataformas aseguran que no almacenan la información que introducimos, la realidad es que algunas sí utilizan esos datos para entrenar sus modelos, personalizar contenido o incluso influir en nuestras decisiones.

Reflexionando sobre estos aspectos, la pregunta que me surgió, a raíz de la sesión a la que hacía referencia, es: ¿qué información no se debería compartir con una IA? Por ello, estuve buscando anotaciones sobre encuentros y conversaciones informales con desarrolladores de IA, especialistas en redes sociales y expertos en ciberseguridad.

Lo que nunca se debe compartir con la IA

La conclusión es que al interactuar con una IA no se le deben aportar: imágenes del rostro, atendiendo a que de las mismas se pueden extraer datos biométricos; Datos personales de identificación como: nombre completo, teléfono, dirección, fecha de nacimiento ya que pueden ser usados para suplantaciones o fraudes; Informaciones médicas o de salud, ya sean analíticas, diagnósticos o imágenes clínicas, ya que son datos sensibles; Datos bancarios y financieros como números de tarjeta, cuentas o ingresos, por los enormes riesgos de robo. Adicionalmente hay otros riesgos menos evidentes que no podemos ignorar, ya que la IA puede construir una imagen detallada de cada persona y usarla para dirigir publicidad o contenidos personalizados de tal manera que lo que uno acaba comprando, leyendo o consumiendo esta influido por algoritmos entrenados con tus propios datos.

Proteger nuestros datos no es solo una cuestión técnica, sino un acto de responsabilidad individual y colectiva

Los riesgos de la Inteligencia Artificial, como una herramienta poderosa, son notables, por ello es preciso una reflexión profunda sobre los límites a establecer y la necesidad de proteger datos personales, el respeto a la privacidad y la transparencia en el funcionamiento de los algoritmos, atendiendo que en un mundo cada vez más mediado por algoritmos, proteger nuestros datos no es solo una cuestión técnica, sino un acto de responsabilidad individual y colectiva ya que nuestra privacidad no tiene por qué ser el precio a pagar.

Antoni Garrell Guiu

Ingeniero industrial especialista en temas de tecnología, innovación y economía del conocimiento.

Ingeniero industrial especialista en temas de tecnología, innovación y economía del conocimiento.
Antoni Garrell Guiu

Ingeniero industrial especialista en temas de tecnología, innovación y economía del conocimiento.

Dejar un comentario