La reciente presentación de DeepSeek —y en concreto de sus nuevos modelos DeepSeek‑V3.2 y DeepSeek‑V3.2‑Speciale— ha sorprendido al mundo de la inteligencia artificial. Según sus responsables, estos modelos no solo alcanzan el nivel de GPT‑5 o incluso lo superan en tareas de razonamiento, matemáticas y programación, sino que además están disponibles bajo licencia abierta, lo que permite su uso libre. Esto podría cambiar muchas dinámicas actuales: desde la competitividad entre empresas hasta la accesibilidad de modelos potentes para desarrolladores independientes.
¿Qué hace especial a DeepSeek V3.2 y V3.2-Speciale?
DeepSeek ha adoptado una arquitectura renovada basada en lo que han llamado DeepSeek Sparse Attention (DSA), una técnica de atención (attention) especialmente optimizada para procesar mensajes largos o documentos extensos sin que los costes computacionales crezcan de forma desproporcionada. En términos concretos, procesar 128 000 tokens —aproximadamente equivalente a un libro de 300 páginas— tiene un coste estimado de unos 0,70 dólares por millón de tokens decodificados, frente a los 2,40 dólares que costaba en la versión anterior del modelo. Esta reducción —en torno al 70 % en coste de inferencia— hace que la ejecución de modelos con «contexto largo» sea mucho más asequible.
Además, DeepSeek-V3.2 y su variante Speciale cuentan con 685 mil millones de parámetros y un “context window” de 128 000 tokens, lo que las hace adecuadas para abordar tareas complejas: análisis de textos largos, revisión de código, análisis de investigaciones, etc.
La empresa describe sus modelos como sistemas “reasoning-first”: no solo entienden lenguaje natural, sino que pueden razonar, resolver problemas matemáticos, programar, planificar tareas con múltiples pasos y utilizar herramientas externas como entornos de codificación o APIs, manteniendo su “traza de razonamiento” tras cada interacción. Este enfoque de “razonamiento + uso de herramientas” es clave: evita que la IA pierda el hilo cada vez que necesita ejecutar una acción o consultar información externa.
Resultados en pruebas de referencia: ¿a la altura de los mejores?
Los logros técnicos de DeepSeek no se quedan en promesas: los números hablan por sí solos. En la competición AIME 2025, DeepSeek-V3.2-Speciale obtuvo un 96,0 % de aciertos, frente al 94,6 % de GPT-5-High y el 95,0 % de Gemini‑3.0‑Pro. En el torneo de matemáticas Harvard-MIT (HMMT), la variante Speciale alcanzó un 99,2 %, por encima del 97,5 % de Gemini.
En dificultades más exigentes, los resultados son aún más remarcables: en la International Mathematical Olympiad 2025 (IMO) obtuvo 35 de 42 puntos —calificación de “medalla de oro”—, y en la International Olympiad in Informatics 2025 (IOI) logró 492 de 600 puntos, también medalla de oro, clasificándose en décimo lugar general. Además, en la final mundial de programación competitiva ICPC World Finals 2025 resolvió 10 de 12 problemas, colocándose en segunda posición.
En benchmarks relacionados con programación práctica, DeepSeek-V3.2 arregló el 73,1 % de bugs reales en SWE-Verified —muy próximo al 74,9 % de GPT-5-High—. En un test de flujos de trabajo complejos (Terminal Bench 2.0) alcanzó un 46,4 %, claramente por encima del 35,2 % de GPT-5-High.
Estos rendimientos fueron alcanzados sin acceso a internet ni herramientas externas durante las pruebas, replicando las condiciones de competiciones reales.
Un giro hacia el código abierto y accesible
Una de las decisiones más relevantes de DeepSeek es ofrecer sus modelos bajo licencia abierta (MIT). Esto significa que cualquier desarrollador, investigador o empresa puede descargar los pesos, el código de entrenamiento, la documentación, y desplegar los modelos por su cuenta. Está todo disponible públicamente en plataformas como Hugging Face. Venturebeat+2Analytics India Magazine+2
Este movimiento plantea un cambio de paradigma: ya no es necesario pagar tarifas API elevadas o depender de proveedores propietarios para acceder a IA de vanguardia. Para empresas con recursos limitados, investigadores independientes o startups, esto abre la puerta a innovar con tecnologías altamente potentes sin necesidad de enormes infraestructuras.
No obstante, existen desafíos y riesgos. Según su propio informe técnico, la eficiencia por token sigue siendo una asignatura pendiente: para igualar la calidad de salida de competidores como Gemini 3 Pro, DeepSeek suele requerir trayectorias de generación más largas, lo que implica más consumo de recursos de cómputo.
También hay dudas sobre la amplitud del conocimiento general —el informe reconoce que, en ciertos dominios de conocimiento del mundo real, DeepSeek-V3.2 aún no alcanza el nivel de los modelos propietarios más extendidos.
¿Qué implica esto para el futuro de la IA?
La aparición de DeepSeek-V3.2 y Speciale supone una sacudida en el panorama de la inteligencia artificial. Primero, demuestra que no es necesario desplegar supercomputadoras multimillonarias ni depender exclusivamente de hardware restringido para lograr capacidades punteras: mediante innovación arquitectónica y optimización, es posible ofrecer un modelo de 685 mil millones de parámetros funcional a bajo coste.
Segundo, la apuesta por código abierto y bajo coste podría democratizar el acceso a IA potente. Esto podría acelerar el desarrollo de aplicaciones de IA en ámbitos como educación, investigación, desarrollo de software, automatización de tareas complejas o análisis de grandes volúmenes de texto —tareas tradicionalmente reservadas a grandes compañías.
Tercero, obliga a repensar los modelos comerciales actuales. Si una IA de nivel “frontier” puede ofrecerse gratis o casi gratis, las empresas propietarias de servicios de IA deberán justificar sus precios o adaptar sus modelos de negocio.
Por otro lado, la apertura al público también exige responsabilidad. Con un modelo tan accesible, los riesgos de mal uso aumentan —por ejemplo, generación masiva de código automatizado, abusos en automatización, creación de contenido engañoso, o incluso vulnerabilidades de seguridad si se usa sin control.
Reflexiones finales
DeepSeek representa un paso importante hacia una IA avanzada más accesible y flexible. Sus modelos V3.2 y V3.2-Speciale muestran que, con diseño inteligente, es posible combinar potencia, eficiencia y apertura. Para muchos desarrolladores, investigadores y empresas pequeñas, esto podría ser una oportunidad real para experimentar con IA de primer nivel sin barreras económicas.
No obstante, conviene mantener una perspectiva crítica: el rendimiento técnico en benchmarks no garantiza dominio absoluto en todos los ámbitos —el conocimiento general, la seguridad, la fiabilidad de respuestas en contextos complejos o sensibles siguen siendo retos. Además, la liberación de estos modelos exige reflexión ética y regulación, sobre todo si su uso se expande globalmente.
En resumen, DeepSeek no es simplemente “otra IA más”: es una señal de que la frontera de lo posible en IA ya no depende únicamente de recursos millonarios, sino de decisiones de diseño abiertas e inteligentes.
377