Meta ha presentado su nueva generación de modelos de inteligencia artificial generativa bajo la familia Llama, con un enfoque que combina potencia técnica y un grado de apertura poco habitual en la industria. Su estrategia consiste en ofrecer un modelo descargable y adaptable por parte de los desarrolladores, aunque bajo ciertas condiciones de licencia. Esta propuesta incluye capacidades multimodales —capaces de procesar texto, imagen e incluso vídeo— y un sistema de seguridad compuesto por varias herramientas complementarias. Las versiones actuales, denominadas Scout y Maverick, alcanzan decenas de miles de millones de parámetros y pueden manejar contextos de hasta diez millones de tokens, lo que permite mantener coherencia en textos extensos. A continuación se detallan los aspectos técnicos más relevantes, el contexto empresarial que rodea al lanzamiento y la forma en que Meta pretende consolidar su posición frente a competidores como OpenAI, Anthropic o Google.
Qué es Llama y qué lo distingue
El modelo Llama —acrónimo de Large Language Model Meta AI— no es un sistema único, sino una familia de modelos generativos desarrollada por Meta. La versión más reciente, Llama 4, fue presentada en abril de 2025 e incluye dos variantes principales llamadas Scout y Maverick, mientras que un modelo más ambicioso, conocido como Behemoth, se encuentra en desarrollo. Según un análisis publicado por TechCrunch, la versión Scout cuenta con 17 mil millones de parámetros activos (109 mil millones totales) y una ventana de contexto de hasta 10 millones de tokens, mientras que Maverick conserva el mismo número de parámetros activos, pero alcanza los 400 mil millones en total y un millón de tokens de contexto. El proyecto Behemoth, todavía sin fecha concreta, pretende escalar hasta 288 mil millones de parámetros activos y 2 billones de parámetros en total.
Una característica central es la arquitectura mixture-of-experts (MoE). A diferencia de los modelos tradicionales, en los que se activan todos los parámetros en cada inferencia, Llama selecciona solo un subconjunto de “expertos” para cada tarea, lo que reduce la demanda energética y acelera el procesamiento. Scout utiliza dieciséis expertos y Maverick ciento veintiocho, una estructura que optimiza el uso de los recursos disponibles sin degradar la calidad del texto generado. La amplitud de las ventanas de contexto —diez millones de tokens equivalen aproximadamente a ochenta novelas estándar— permite además mantener la coherencia en documentos muy extensos o en conversaciones prolongadas.
Otra novedad es la compatibilidad multimodal. El modelo es capaz de recibir texto, imágenes y vídeo como entrada, aunque la calidad de los resultados es todavía más sólida en inglés que en otros idiomas. Según TechCrunch, Meta sigue entrenando versiones multilingües para reducir esa asimetría, algo fundamental si aspira a consolidar su presencia global.
Capacidades, herramientas y licencia
Llama se ha concebido como un modelo versátil que puede emplearse para generación de texto, razonamiento, codificación, traducción y soporte conversacional. Sus capacidades abarcan al menos doce idiomas, entre ellos inglés, francés, alemán y español, y puede conectarse con servicios externos como Wolfram Alpha o Brave Search, aunque estos conectores requieren configuración específica por parte del usuario. En evaluaciones de rendimiento, la versión Maverick obtuvo un 40 % de aciertos en el test LiveCodeBench, frente al 85 % de GPT-5 y el 83 % de Grok 4 Fast, lo que sugiere que Meta aún no domina el ámbito de la programación automática.
La política de licencia es particular. Aunque Meta promociona a Llama como modelo abierto, el término tiene matices. Cualquier desarrollador puede descargar los pesos, ajustarlos o desplegarlos localmente, pero si la aplicación resultante supera los 700 millones de usuarios activos mensuales, se requiere una licencia especial. Esta restricción busca evitar que grandes corporaciones reempaquen el modelo sin aportar mejoras. De acuerdo con TechCrunch, Meta mantiene acuerdos con más de 25 socios que alojan versiones de Llama en la nube, entre ellos Nvidia, Databricks, Groq, Dell o Snowflake, de modo que el modelo puede ejecutarse tanto en entornos locales como en infraestructuras remotas.
La seguridad es otro eje clave. Meta ha liberado un conjunto de herramientas complementarias: Llama Guard, Prompt Guard, Llama Firewall, Code Shield y CyberSecEval. Cada una cumple una función específica, desde el filtrado de contenidos inapropiados hasta la detección de intentos de inyección de prompts maliciosos o la evaluación del riesgo cibernético de las salidas generadas. Estas medidas buscan reforzar la fiabilidad del modelo, aunque no eliminan completamente los fallos. En versiones anteriores se detectaron respuestas inapropiadas o contenido erróneo, y la propia Meta reconoció que aún es necesario mejorar los filtros para garantizar interacciones seguras, especialmente cuando los modelos se integran en aplicaciones dirigidas a menores.
A pesar de los avances, los riesgos legales siguen siendo un punto sensible. Parte del conjunto de datos de entrenamiento incluye libros y artículos con derechos de autor. Aunque un juez estadounidense dictaminó que ese uso se ampara en la doctrina del “fair use”, el riesgo de reproducir fragmentos protegidos sigue presente. Algunos investigadores, como los autores del estudio BadLlama, demostraron que los filtros de seguridad pueden eliminarse o modificarse con un coste inferior a 200 dólares, lo que refuerza la necesidad de una supervisión continua.
El papel de Llama en el ecosistema de Meta
Llama es mucho más que una línea de investigación: constituye el núcleo del ecosistema de IA de Meta. La compañía lo utiliza para alimentar sus chatbots en Facebook Messenger, WhatsApp, Instagram y en su propia interfaz Meta.ai, disponible ya en más de 200 países. Además, los usuarios pueden acceder al modelo mediante plataformas como Hugging Face, o descargarlo para ejecutarlo localmente. La estrategia empresarial no se basa en cobrar por el acceso directo al modelo, sino en beneficiarse de los acuerdos de infraestructura con sus socios y de la integración en sus redes sociales, donde el tráfico y los datos derivados representan un valor considerable.
Durante la conferencia LlamaCon, celebrada en primavera de 2025, Meta detalló la hoja de ruta del proyecto y anunció herramientas de integración en la nube. En opinión de TechCrunch, la empresa busca posicionarse frente a OpenAI mediante una oferta que combine potencia y accesibilidad. Documentos judiciales filtrados ese mismo mes revelaron que la dirección de Meta consideraba a OpenAI su rival más directo y veía imprescindible superarlo en prestaciones técnicas antes de finales de año.
En el plano regulatorio, Meta parece querer aprovechar la futura Ley de Inteligencia Artificial de la Unión Europea, que prevé un trato más favorable para los sistemas “libres y abiertos”. Si la interpretación jurídica se mantiene, el modelo de licencia de Llama podría convertirse en una ventaja competitiva frente a alternativas cerradas. De hecho, Reuters informó de que la compañía planea extender el acceso completo del modelo a aliados de Estados Unidos en Europa y Asia, una maniobra que apunta tanto a la cooperación tecnológica como al posicionamiento geopolítico.
Las cifras son significativas. Un modelo como Maverick, con 400 mil millones de parámetros y un millón de tokens de contexto, puede requerir más de 300 GB de memoria para su ejecución en inferencia completa. Meta recomienda hardware basado en GPU de alta gama (A100, H100 o equivalentes), aunque se han mostrado versiones optimizadas para funcionar parcialmente en CPU de servidor. Este tipo de especificaciones cuantifican la magnitud técnica del proyecto: incluso con la arquitectura MoE, el procesamiento sigue siendo intensivo y requiere una infraestructura considerable.
Perspectivas y conclusiones
La aparición de Llama consolida una tendencia hacia modelos de gran escala que combinan eficiencia y accesibilidad. Meta ha optado por ofrecer un equilibrio entre apertura y control, permitiendo que la comunidad explore las capacidades del modelo sin renunciar a salvaguardas mínimas. Sin embargo, la decisión de publicar los pesos también implica riesgos: la manipulación de las versiones abiertas puede dar lugar a usos no autorizados o a la difusión de modelos modificados sin las limitaciones de seguridad originales.
Desde un punto de vista técnico, Llama introduce mejoras cuantificables en tres áreas: la ampliación de la ventana de contexto, el uso eficiente del mixture-of-experts y la incorporación de módulos multimodales. La posibilidad de trabajar con hasta diez millones de tokens abre la puerta a sistemas de análisis documental extensos, a resúmenes de corpus científicos o incluso a motores de búsqueda semánticos de nueva generación. No obstante, el verdadero reto será mantener la consistencia y la precisión a medida que el modelo se amplíe y se use en más idiomas.
Para los desarrolladores y empresas que buscan integrar inteligencia artificial en sus productos, Llama ofrece una oportunidad de independencia frente a proveedores cerrados. El modelo puede desplegarse localmente, ajustarse a dominios específicos y auditarse internamente, reduciendo la dependencia de API externas. Aun así, exige un nivel de conocimiento técnico avanzado: calibrar la temperatura de inferencia, controlar la longitud del context window y evitar la degradación semántica en sesiones largas son tareas que requieren pericia y experimentación.
En última instancia, Llama no solo representa una apuesta tecnológica, sino una estrategia política y comercial. Meta ha comprendido que en la próxima década la ventaja competitiva no residirá únicamente en disponer del modelo más preciso, sino en ofrecer el ecosistema más interoperable. Si logra mantener un equilibrio entre apertura y seguridad, y si consigue mejorar el rendimiento en programación y razonamiento lógico, Llama podría consolidarse como el estándar de referencia para modelos abiertos de gran escala.
588