El lanzamiento de un consorcio internacional en Barcelona es el primer paso para crear una comunidad científica alrededor de la IA aplicada a la investigación
Normalmente se comunican a través de Slack, lo que teniendo en cuenta el gran número de miembros (unos 850), es una proeza. Desde hoy y hasta el viernes el International Trillion Parameter Consortium (TPC) se reúne en Barcelona para debatir sobre el desarrollo de modelos de lenguaje fundacionales para aplicaciones científicas, invitados por el Barcelona Supercomputing Center.
El sector privado ahora mismo tiene muchísimo más poder de computación que el sector público, gracias al creciente interés por la IA comercial. Esto ha provocado que la ciencia a veces se encuentre con dificultades para acceder a chips y hardware necesario para sus operaciones.
Rick Stevens, director del Argonne National Laboratory en Estados Unidos, lo explica a la perfección. El sector privado está haciendo muchos avances, con herramientas como GPT-4 o Sora, y en la actualidad «hay mucho dinero invertido en IA». Un ejemplo es el superordenador Stargate AI, con una inversión de 100.000 millones de dólares «en un solo lugar» y al servicio de Microsoft y Open AI.
«Hasta hace poco, el sector público solía tener las máquinas de computación más potentes, pero ahora la dinámica ha cambiado», explica Stevens. Empresas como Meta o Microsoft son los principales clientes del chip H100 de Nvidia, fundamental para entrenar la inteligencia artificial generativa. Las empresas más pequeñas y las instituciones lo tienen a veces más difícil para acceder al hardware necesario para desarrollar aplicaciones científicas. Esto dificulta el desarrollo de modelos fundacionales que podrían ser de gran ayuda para mejorar en la investigación en muchos campos, como el cáncer, la ingeniería o el cambio climático, entre otros. Algunas de las aplicaciones con las que ya se trabaja se han repasado en la conferencia inaugural del consorcio.
Japón predice terremotos y tsunamis con IA
La idea del TPC es intentar crear desde el sector público modelos abiertos al servicio de la ciencia. China ya ha publicado recientemente el Qwen 2-72B, un claro ejemplo de que los modelos abiertos están mejorando poco a poco y situándose cada vez más cerca de las capacidades que ofrecen los cerrados (como GPT-4).
Satoshi Matsuoka, director del Riken Center for Computational Science, ha puesto énfasis en que «la IA aplicada a la ciencia solo puede crearla la comunidad científica». Ni Meta ni «ninguna compañía privada» tiene la capacidad para desarrollarla. En su supercomputador de Riken hay 100.000 científicos trabajando, algo «impensable» en una compañía privada.
En Japón ya se trabaja en sistemas que simulan terremotos con gran precisión y herramientas para predecir tsunamis. Esto permite calcular en pocos segundos la afectación que tendrá y «alertar a los habitantes de las zonas afectadas para coordinar la evacuación» antes de que se produzca el desastre.
Modelos fundacionales para aplicaciones científicas
«Si todos crean un modelo de propósito general con los mismos datos, al final llegarán al mismo resultado», vaticina Stevens. Para el estadounidense, la comunidad científica debe aprovechar los datos abiertos (papers científicos, investigaciones…) y realizar un ajuste fino para adaptarlos a aplicaciones concretas.
«Se necesitan muchas personas, datos y computación para crear un modelo de lenguaje grande», explica Stevens. De ahí la necesidad de colaboración, para evitar que los esfuerzos se dupliquen. Desde Estados Unidos tienen previsto crear un asistente con IA para la ciencia computacional. Pero esto tendrá que esperar entre 5 y 10 años.
Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.