El pasado año Microsoft nos sorprendió con su GPT-3, un modelo de machine learning que cuenta con 175.000 millones de parámetros para sus aplicaciones de lenguaje natural.
Ahora, son los chinos acaban de anunciar una nueva «bestia» para generar contenido gracias a un modelo de aprendizaje profundo con 1,750 trillones de parámetros… o sea 10 veces más que el famoso GPT-3… y un poco más potente que el último Switch Transformer con 1,6 trillones que Google presentó el pasado mes de enero.
La Academia de Inteligencia Artificial de Beijing (BAAI) dio a conocer la versión más reciente de su modelo de aprendizaje profundo preentrenado en un evento sobre IA en Beijing conocido como Wudao (significa «comprensión de las leyes naturales»).
La intención de Wudao es crear un inteligencia artificial cognitiva general que sea vea reforzada por datos y conocimientos de forma dual: Hacer que la IA piense como un humano y evolucione cognitivamente como la mente de un humano.
A pesar de todo cada vez hay màs expertos en Inteligencia Artificial que consideran que un aumento del tamaño de los algoritmos no es lo único que se necesita para conseguir llegar a la Inteligencia Artificial fuerte es decir, aquella que iguale o exceda la inteligencia humana promedio, es decir, la inteligencia de una máquina que pueda realizar con éxito cualquier tarea intelectual de cualquier ser humano.
428
Afortunadamente la Real Academia de la Lengua recibirá una subvención de cinco millones de euros para desarrollar el proyecto «Lengua Española e Inteligencia Artificial» (LEIA), para mejorar el uso del español en el ámbito digital