Este artículo presenta Apertus, el modelo de lenguaje a gran escala desarrollado en Suiza por ETH Zurich, EPFL y el Centro Nacional de Supercomputación (CSCS), e impulsado por el superordenador “Alps”. Su objetivo es ofrecer una alternativa abierta, transparente y multilingüe al universo de modelos propietarios como ChatGPT o Llama. Entrenado con entre 8 000 y 70 000 millones de parámetros sobre más de 1 000 idiomas (aproximadamente un 60 % en inglés y un 40 % en otros idiomas, incluyendo dialectos suizos como el alemán suizo o el romanche), está disponible bajo licencia Apache 2.0. Nuestro enfoque aquí es explicar con claridad sus implicaciones técnicas, éticas y de soberanía digital, con un tono cercano pero preciso.

Apertus y la apuesta suiza por una IA abierta

El modelo Apertus, lanzado oficialmente en septiembre de 2025, surge como una iniciativa coordinada entre la ETH Zurich, EPFL y CSCS, bajo la égida de la Swiss AI Initiative, que comenzó en diciembre de 2023 y que ya agrupa a más de una decena de instituciones académicas suizas. El proyecto ha movilizado a más de 800 investigadores y consume en torno a 20 millones de horas de GPU cada año gracias al superordenador “Alps”, tal y como explica AIhub.

Desde el punto de vista técnico, Apertus es un modelo multilingüe entrenado sobre más de 1 500 idiomas, con una distribución que otorga un 40 % del entrenamiento a lenguas distintas del inglés, cifra inusualmente elevada si se compara con otros modelos de referencia dominados por el inglés. Según ETH Zurich News, la arquitectura, los pesos y los datos de entreno se publican íntegramente, con pleno acceso para reproducir o auditar el modelo. La Swiss AI Initiative confirma que esto incluye tanto los parámetros como las recetas de entrenamiento.

El desarrollo se ha realizado en el superordenador Alps, un sistema que utiliza más de 10 000 chips NVIDIA Grace Hopper y que funciona con electricidad neutra en carbono. Este detalle añade un valor adicional al proyecto, puesto que no solo aborda la cuestión de la transparencia, sino también la de la sostenibilidad tecnológica en el ámbito de la inteligencia artificial.

Apertus como herramienta clave

Apertus se consolida como el producto más destacado de este esfuerzo suizo. Está disponible abiertamente en plataformas como Hugging Face y también mediante el socio estratégico Swisscom, lo que facilita su despliegue en múltiples entornos. La Swiss AI Initiative explica que puede aplicarse en educación, investigación, comercio, traducción y sistemas conversacionales, con plena libertad para integrarlo tanto en proyectos académicos como en desarrollos comerciales gracias a su licencia Apache 2.0.

El modelo se ofrece en dos versiones diferenciadas: una con 8 000 millones de parámetros, adecuada para usuarios individuales y pruebas en entornos de menor escala, y otra con 70 000 millones, pensada para aplicaciones que demandan un alto nivel de procesamiento y precisión. Esta dualidad amplía su rango de aplicación, desde usos experimentales hasta desarrollos industriales de gran complejidad. La publicación íntegra del código y de los datos permite auditar y replicar el proceso, lo que constituye un estándar poco habitual en el sector.

Contexto y proyección europea

Con este desarrollo, Suiza refuerza la soberanía tecnológica frente a modelos cerrados dominados desde Estados Unidos o China. Como destaca un análisis en Medium, este LLM se perfila como “a cornerstone for digital sovereignty” al ofrecer “an independent, fully open alternative”, lo que refuerza la autonomía tecnológica europea. La apuesta no solo es científica, sino también política y estratégica, pues busca garantizar que los usuarios europeos dispongan de modelos auditables y adaptados a sus propios marcos regulatorios.

La publicación en MultiLingual resalta otro aspecto fundamental: el carácter multilingüe del sistema. Según la revista, Apertus se convierte en una herramienta valiosa para adaptar contenidos, traducir materiales y apoyar la comunicación pública en contextos muy diversos. De este modo, Suiza aporta un modelo que puede ser especialmente útil en entornos donde la diversidad lingüística y cultural es la norma, desde instituciones europeas hasta empresas de alcance global.

Implicaciones técnicas y cuantitativas

Las implicaciones técnicas de Apertus son múltiples. Su entrenamiento en Alps alcanza niveles de rendimiento de decenas de PFLOPS, lo que indica una capacidad computacional comparable a la de los centros de supercomputación más avanzados del mundo. La cobertura lingüística supera los 1 500 idiomas, con un 60 % del entrenamiento en inglés y un 40 % en otros idiomas, lo que constituye una diferencia significativa frente a los modelos comerciales que rara vez dedican más de un 10 % a lenguas minoritarias.

En cuanto a su tamaño, las versiones de 8 000 y 70 000 millones de parámetros permiten a los usuarios seleccionar el modelo que mejor se adapta a sus necesidades, equilibrando costes computacionales con capacidad predictiva. Además, la licencia Apache 2.0 asegura que tanto empresas como universidades puedan desplegarlo sin restricciones, lo que favorece la creación de un ecosistema colaborativo y transparente. Esta apertura resulta particularmente relevante en un momento en que el debate sobre la ética y la regulación de la IA está más vivo que nunca.

Reflexiones finales

El proyecto Apertus marca un punto de inflexión en el panorama europeo de la inteligencia artificial. Se trata de un modelo potente, accesible y multilingüe, que combina transparencia con un compromiso real con la sostenibilidad y la auditabilidad. Su desarrollo en infraestructuras públicas, con participación de universidades y centros de supercomputación, convierte a Suiza en un ejemplo de soberanía digital y de responsabilidad tecnológica.

La iniciativa podría servir de referencia para otros países que deseen apostar por modelos abiertos, respetuosos con la diversidad lingüística y acordes con principios éticos. En un sector dominado por grandes corporaciones privadas, Apertus ofrece una alternativa que equilibra innovación, accesibilidad y confianza pública.

304
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x