Algo debe tener la Inteligencia Artificial para que las grandes de dediquen a comprar muchas empresas pequeñas especializadas en esta tecnología y si no que se lo digan a Microsoft que compró primero a Bonsai y a continuación una «pequeña» participación de mil millones en OpenAI del fundador de Tesla.
Ahora y aprovechando la Build 2020, Microsoft acaba de anunciar el desarrollo de un supercomputador alojado en Azure creado expresamente para probar los modelos de inteligencia artificial a gran escala de OpenAI.
El propósito de su creación es acelerar el desarrollo de nuevos modelos de machine learning e inteligencia artificial por lo que su desarrollo se destina únicamente a esta finalidad. Esta nueva infraestructura está ya disponible para poder ser utilizada desde la nube de Azure de Microsoft.
A principios de este año, Microsoft ya lanzó el modelo de lenguaje de Inteligencia Artificial más grande del mundo al público, con el nombre de Microsoft Turing, el cual se enfoca en la creación de grandes modelos con diversas herramientas especializadas en optimizar y capacitar machine learning. Microsoft Turing es un modelo de generación de lenguaje natural que dispone de 17 mil millones de parámetros.
La supercomputadora OpenAI funciona con 285.000 núcleos de CPU y 10.000 GPU (cada una de los cuales también está unida por conexiones rápidas de 400 gigabits por segundo).
Y aunque Microsoft no reveló ninguna capacidad de velocidad específica, la compañía dice que está en el puesto número 5 de la lista TOP500 de supercomputadores anunciados públicamente.
1104
Otro producto muy, muy interesante presentado en el mismo evento ha sido SeepSpeed que es una biblioteca de aprendizaje profundo opensource para Pytorch diseñada para optimizar los recursos necesarios para la formación de modelos a gran escala y con ello reducir la potencia de cómputo necesaria para desarrollar la misma tarea.
Utilizando esta librería los desarrolladores han podido entrenar modelos 15 veces más grandes y hasta 10 veces más rápido.