El MareNostrum 5 se ampliará a poco menos de un año de haberse estrenado con una inversión de 90 millones de euros, financiados entre el Gobierno de España y la Unión Europea. El objetivo es aumentar un 50% su capacidad para hacer frente a las crecientes necesidades de supercomputación que implica el desarrollo de la inteligencia artificial. La ampliación afectará tanto a la GPU como a la CPU del sistema y su capacidad de computación pasará de 312 a 450 petaflops, en el que se conocerá como MareNostrum 5+ (plus).
España considera que tener acceso a la supercomputación supone una clara ventaja competitiva en un mundo en el que cada vez será más escasa, según fuentes del Ministerio para la Transición Digital y de la Función Pública. Por ello han decidido adelantarse a la fecha de actualización prevista, en 2029, y ampliar la capacidad de este equipamiento estratégico. Desde el Ministerio recuerdan que no todos los países europeos tienen un centro nacional de supercomputación: de momento solo hay nueve en toda la UE.
Para hacer extensiva su apuesta, España también reforzará la Red Española de Supercomputación (RES) y ampliará sus nodos, distribuyendo su capacidad por diferentes puntos de la geografía española.
Abrirse a la industria
Con la aprobación de la Estrategia de Inteligencia Artificial, se ha anunciado que por primera vez la industria podrá utilizar el MareNostrum 5+ para hacer ensayos experimentales. Hasta el momento su uso se reducía a investigaciones científicas. A partir de ahora, en cambio, se destinará un 20% de su capacidad para el acceso de la industria.
Por último, se prevé que en 2025 entre en funcionamiento un nuevo clúster especializado en IA en colaboración con el Ministerio de Ciencia y Universidades, del que no han trascendido más detalles.
Modelo de lenguaje ALIA
La supercomputación es esencial para entrenar los nuevos modelos de lenguaje en los que trabaja el CNS-BSC en el marco del proyecto ALIA. El modelo fundacional en español y lenguas cooficiales tendrá hasta 175 miles de millones de parámetros, es decir, más o menos los usados en ChatGPT 3.5. La diferencia es que contarán con más de un 20% de datos en castellano, cuando otros modelos no llegan ni al 5%.
A partir de este primer modelo, se entrenarán otros más especializados en diferentes áreas de conocimiento, como sanidad, territorio, justicia, medioambiente o gestión tributaria. El último objetivo es conseguir que este modelo sirva para incorporarse en aplicaciones concretas y herramientas lingüísticas al servicio de la sociedad y las empresas.
Está previsto que el modelo fundacional vea la luz a principios de septiembre, y que a finales de 2024 salgan a la luz los modelos más pequeños y especializados.
Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.