Recientemente leí el libro ‘Ignorancia’ escrito por el profesor Peter Burke, un libro que trata sobre las distintas facetas de la ignorancia y sus implicaciones. De hecho, el estudio de la ignorancia o agnoliología debería ser una disciplina entre las materias estructurales para configurar nuestra formación básica, atendiendo que ayudaría a comprender mejor la historia y mejorar los estudios prospectivistas, no en vano la ignorancia sobre aspectos del ecosistema terrestre ha moldeado y moldea una buena parte de las actuaciones humanas y a su vez la ignorancia asimétrica, es decir cuando unos saben menos que otros, facilita el engaño, los análisis sesgados o lo miedos paralizantes.
Reflexionando sobre la ignorancia en general y la asimétrica en particular pensé en la omnipresencia en los debates e informaciones de dos tecnologías disruptivas que pueden cambiar el futuro de forma radical, me refiero la cuántica y la IA, dos disciplinas sobre las cuales ignoramos mucho y pocos son los que realmente las conocen en profundidad y aportan avances significativos en su comprensión y desarrollo.
De las dos, la que más se debate es la IA y, a menudo, tengo la impresión de que lo hacemos olvidando aspectos importantes para comprender su impacto y limitaciones precisamente porque ignoramos con certeza cómo evolucionarán sus potencialidades. Me refiero a que no tomamos con suficiente énfasis el hecho de que las IA no entienden el mundo de la misma manera que los humanos, ya que operan a partir de patrones y datos, no de comprensión consciente, por lo cual aprenden de los datos que se le proporcionan, los cuales sí que están sesgados, las IA pueden perpetuarlos, así como que por su propia naturaleza implica que las IA no puede reemplazar la empatía y el juicio humano en muchas situaciones como ocurre en la educación o sanidad. También desde un cierto nivel de ignorancia debatimos a menudo sobre su impacto en el empleo y poco de las oportunidades de nuevos empleos en el ámbito de la IA.
Lo que no ignoramos es que la IA se encuentra actualmente en lo que denominamos IA débil. Esto significa que es capaz de resolver problemas específicos de manera igual o mejor que un ser humano. También sabemos que estamos lejos de alcanzar la Inteligencia Artificial General, que sería capaz de resolver cualquier problema como lo haría un ser humano altamente cualificado, si bien es imposible saber cuándo ocurrirá, así como es imposible conocer si surgirá una superinteligencia artificial que supere las capacidades del mejor ser humano en términos de preparación e inteligencia.
Debemos ser conscientes de nuestras limitaciones en cuanto a conocimiento e ignorancia y evitar tanto el apocalipticismo como ignorar las problemáticas asociadas al estado actual de la IA, una tecnología que puede ser utilizada para crear contenido engañoso o manipular la opinión pública, lo que plantea la necesidad de un marco ético y regulatorio para que guíe su desarrollo y uso con el objetivo de mitigar sus riesgos.
Sin duda, nuestra comprensión de la IA puede ser limitada, lo que puede llevar a afirmaciones incorrectas o exageradas sobre sus capacidades y consecuencias. Sin embargo, debemos estar convencidos de que la manera de construir un futuro mejor es reduciendo la ignorancia, lo que implica invertir en formación y en todos los ámbitos de la ciencia.