Aunque a muchos les moleste reconocerlo una Red Neuronal Artificial tiene mucha relación con la estadística clásica. En ambas técnicas el objetivo es reducir al mácimo las diferencias entre los datos observados y las predicciones obtenidas lo que consigue mofificando los parámetros / coeficientes / pesos de las “señales” que van de una neurona a la siguiente.

La introducción de una función de activación (en forma de ecuación matemática no lineal) otorga características especiales a estas redes y, al mismo tiempo complica el entrenamiento ya que requiere mucha potencia de cálculo y circuitos porque implica la transferencia de datos de ida y vuelta entre dos unidades separadas: la memoria y un procesador externo.

Ahora, un equipo de investigadores de la Universidad de California en San Diego ha desarrollado un dispositivo de tamaño nanométrico que puede llevar a cabo la función de activación de forma eficiente.

El nuevo dispositivo puede ejecutar cálculos de redes neurales utilizando entre 100 y 1000 veces menos energía y área que el hardware existente basado en la tecnología CMOS.

En el aspecto energético, las neuronas artificiales serían más similares a las biológicas de lo que son hoy en día.

Entrenar redes neurales para que realicen tareas, como el reconocimiento de imágenes o la conducción de coches autónomos, podría algún día requerir menos potencia de cálculo y menos hardware gracias a este nuevo dispositivo.

La versión actual es una simple prueba de concepto en forma de sistema diminuto en el que solo hay apiladas una capa de sinapsis y una capa de activación. Apilando más de estas capas, se podría hacer un sistema más complejo para diferentes aplicaciones.

617
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x