La Universidad técnica de Viena en colaboración con el MIT están trabajando en el desarrollo de redes neuronales concurrentes que modelan la evolución temporal de las señales nerviosas de una manera completamente diferente a la clásica.

Para la mayoría de las redes neuronales, todas las entradas se entregan a la vez, lo que resulta inmediatamente en una salida determinada. Pero en la naturaleza las cosas son muy diferentes.

El reconocimiento de voz, por ejemplo, siempre depende del tiempo, al igual que las traducciones simultáneas o las secuencias de movimientos que reaccionan ante un entorno cambiante.

La nueva arquitectura RNN propuesta está basada en una neurona biofísica y un modelo de sinapsis que permite dinámicas que varían con el tiempo en lugar de ser una función lineal en el tiempo. Permitir que las actividades de las células y los enlaces entre las células varíen con el tiempo abre posibilidades completamente nuevas.

El nuevo enfoque tiene otra ventaja importante: proporciona una mejor visión del funcionamiento interno de la red neuronal al tratarse de redes mucho más sencillas (con menos nodos / neuronas) que en las redes clásicas.

Las redes neuronales anteriores, que a menudo consistían en muchos miles de nodos, han sido tan complejas que solo se pudieron analizar los resultados finales. Lograr una comprensión más profunda de lo que está sucediendo en el interior era casi imposible.

La red más pequeña pero extremadamente poderosa del equipo de Viena es más fácil de analizar, por lo que los científicos pueden entender al menos parcialmente qué células nerviosas causan qué efectos.

Responder

avatar
  Suscribirse  
Notificación