Microsoft y Westinghouse Nuclear están apostando por la inteligencia artificial para acelerar la construcción y la obtención de permisos de nuevas centrales nucleares, una estrategia motivada por el creciente consumo energético de la IA. Sin embargo, según un informe del instituto AI Now —citada por 404 Media—, externalizar partes del proceso regulatorio a modelos de lenguaje plantea riesgos graves para la seguridad nuclear, la proliferación y la confianza pública. Este debate subraya la complejidad de integrar IA en infraestructuras críticas y exige un escrutinio profundo.
La presión energética de la IA dispara el interés por la nuclear
El crecimiento exponencial de la inteligencia artificial ha llevado a un consumo energético sin precedentes. Los enormes centros de datos que respaldan los modelos generativos requieren una fuente de energía estable, masiva y, a ser posible, de baja huella de carbono. En ese contexto, algunas empresas tecnológicas han identificado una solución ambiciosa: utilizar IA para construir nuevas centrales nucleares más rápido. Según un reportaje de 404 Media, Microsoft y Westinghouse Nuclear están entrenando modelos con datos históricos de licencias nucleares y con información sobre emplazamientos para automatizar la generación de documentación regulatoria, acelerando así los trámites.
Esta apuesta no es baladí. El proceso de “licensing” nuclear puede durar años y requiere enormes inversiones, tanto de tiempo como de recursos. La presentación de Microsoft —según recoge la misma fuente— habla de recortar hasta diez años y reducir costes por cientos de millones al utilizar IA para generar borradores técnicos, informes medioambientales y análisis regulatorios, que luego serían revisados por humanos.
La motivación de Microsoft también parece estratégica: garantizar un suministro energético fiable que sostenga su expansión en IA, sin depender exclusivamente de redes eléctricas tradicionales, que pueden ser vulnerables o no tan limpias como la energía nuclear.
Las advertencias sobre seguridad y proliferación
Pese al atractivo económico y regulatorio, varios expertos han levantado la voz para alertar del peligro. En el informe del AI Now Institute, Heidy Khlaaf, científica principal en IA, advierte de que la licencia nuclear “no es un conjunto de documentos, sino un proceso”, con debates, decisiones técnicas y razonamientos profundos que no pueden ser simplemente automatizados
Según Khlaaf, confiar en un modelo de lenguaje para redactar documentos de seguridad podría obviar análisis de riesgo esenciales o simplificar decisiones críticas. La documentación generada por IA podría pasar por alto compensaciones entre distintos diseños de reactores, fallos potenciales o consideraciones de diseño que solo emergen cuando se reflexiona críticamente sobre seguridad.
También existen riesgos más sutiles: los modelos de lenguaje pueden cometer errores —por ejemplo, equivocarse en la versión de un software usado en un control de seguridad o confundir especificaciones técnicas— y esos errores, aunque parezcan pequeños, en un reactor nuclear pueden tener consecuencias muy graves. Khlaaf incluso recuerda el incidente de Three Mile Island como ejemplo de cómo fallos humanos, combinados con diseño deficiente, pueden desencadenar incidentes catastróficos.
Además, se plantea una dimensión estratégica: entrenar una IA con datos nucleares sensibles podría facilitar la proliferación tecnológica. Datos que actualmente se consideran técnicos o confidenciales podrían terminar siendo “filtrados” en los modelos, lo que aumentaría el riesgo de que actores malintencionados aprovechen esa información para diseñar reactores o tecnologías nucleares con fines no pacíficos. Khlaaf y su colega Sofía Guerra advierten de que algunas de las solicitudes de datos por parte de estas empresas tienen un carácter demasiado amplio, lo que podría exponer “secretos nucleares” que no deberían estar disponibles públicamente.
Ventajas técnicas: cómo la IA puede transformar la construcción y operación nuclear
Sin embargo, la integración de la IA en la industria nuclear no es solo motivo de preocupación: también ofrece oportunidades reales para mejorar eficiencia, seguridad y velocidad. De hecho, según 404 Media, el Idaho National Laboratory (INL) ya está colaborando con Microsoft para que su IA genere los informes de ingeniería y los análisis de seguridad necesarios para las licencias de construcción y operación nuclear. (<a href=»https://www.404media.co/power-companies-are-using-ai-to-build-nuclear-power-plants/»>404 Media</a>)
Por su parte, Westinghouse ha desarrollado su propio sistema de IA muy específico para la industria nuclear: su modelo generativo se llama bertha y su plataforma cognitiva HiVE. Según su página oficial, HiVE y Bertha están diseñados para optimizar procesos como la redacción de documentación regulatoria, el análisis de seguridad y la gestión de datos con máxima seguridad y conformidad, usando más de 75 años de información propietaria de la empresa.
Además, en colaboración con Google Cloud, Westinghouse ya ha anunciado un proyecto para acelerar la construcción de sus reactores AP1000 utilizando IA. Esta colaboración pretende automatizar la generación de “paquetes de trabajo” modulares para la construcción, mejorar el diseño digital y reducir los tiempos de construcción.
Otro aspecto clave: la IA no solo ayuda en la fase inicial, sino también durante la operación. Westinghouse afirma que su IA puede monitorizar anomalías, prever fallos de componentes, optimizar ciclos de combustible e incluso mejorar las inspecciones visuales de los reactores, lo que podría reforzar significativamente la seguridad y reducir costes operacionales.
Un dilema regulatorio y ético global
El cruce entre IA y energía nuclear no solo plantea retos técnicos, sino también un dilema profundo en términos de gobernanza: ¿cómo se regula una IA que participa en decisiones nucleares? A nivel regulador, algunas voces sugieren que no basta con las normas existentes para plantas nucleares: se necesitan nuevas reglas específicas para el uso de modelos de IA en procesos críticos, especialmente en licencias y seguridad.
La transparencia debe ser clave. Para muchos expertos, cualquier uso de IA en la industria nuclear debe ir acompañado de auditorías independientes, mecanismos de trazabilidad, revisiones humanas rigurosas y estándares claros sobre qué datos pueden usarse para entrenar estos sistemas sin comprometer la seguridad o la confidencialidad.
Asimismo, la dimensión geopolítica no debe ignorarse. Si los modelos de IA se alimentan con datos nucleares, ¿qué conocimientos se vuelven accesibles? ¿Quién tiene el derecho de entrenar esos modelos? ¿Cómo se evita que la IA revele información sensible que pueda facilitar la proliferación de tecnología nuclear con fines militares?
Por último, no se puede olvidar el aspecto social: la confianza pública. Si la sociedad percibe que estamos delegando la seguridad nuclear a inteligencias artificiales sin supervisión adecuada, la aceptación social podría debilitarse, lo que pondría en riesgo futuros proyectos de energía nuclear, incluso si técnicamente son viables.
Conclusión
La utilización de IA para impulsar la construcción y operación de centrales nucleares es una apuesta audaz pero también controvertida. Por una parte, promete acelerar trámites, reducir costes y mejorar la eficiencia operativa. Por otra, introduce riesgos serios: errores en documentos críticos, filtración de conocimientos sensibles y una posible erosión del control humano y regulatorio.
La clave para que esta transición sea segura no reside en rechazar la IA, sino en integrarla con responsabilidad. Es necesario desarrollar marcos regulatorios nuevos, auditorías independientes, y garantizar que las decisiones más esenciales siguen siendo supervisadas por expertos humanos. Si se gestiona bien, la IA puede ser una palanca poderosa para un futuro energético más limpio y potente; si no, puede desencadenar consecuencias imprevisibles para la seguridad global.
532