Una red neuronal (al menos en su concepción inicial) no es más que un conjunto de nodos (neuronas) a los que llega una señal y se transforma. La salidas de muchas neuronas se combinan para entrar en la siguiente capa de neuronas y así la señal va rebotando de una capa a otra hasta llegar a la capa de salida.

Para «entrenar» dicha red neuronal tan «solo» se necesita repetir una y otra vez modificando ciertos parámetris de la red hasta que la señal de salida se asemeje lo más posible a la salida real.

Normalmente este proceso, muy laborioso, se realiza utilizando ordenadores potentes y últimamente GPU (tarjetas gráficas) dada la cantidad de cálculos (en paralelo) necesarios durante el entrenamiento para conseguir la convergencia.

Sin embargo ahora un grupo de investigadores acaban de publicar en Nature sus estudios que demuestran que es posible el uso de objetos cotidianos para la obtención de modelos de «deep learning utilizando la técnica del Backpropagation» descrito con anterioridad.

Para demostrar el concepto, los investigadores construyeron redes neuronales en tres tipos de sistemas físicos, cada uno de los cuales contenía hasta cinco capas de procesamiento:

En cada capa de un sistema mecánico, usaron un altavoz para hacer vibrar una pequeña placa de metal y registraron su salida usando un micrófono.

En un sistema óptico, pasaban luz a través de cristales.

Y en un sistema analógico-electrónico, pasaron corriente a través de pequeños circuitos.

En cada caso, los investigadores codificaron los datos de entrada, como imágenes sin etiquetar, en sonido, luz o voltaje.

Para cada capa de procesamiento, también codificaron parámetros numéricos que le indicaban al sistema físico cómo manipular los datos.

Para entrenar el sistema, ajustaron los parámetros para reducir los errores entre las etiquetas de imagen predichas del sistema y las etiquetas reales (o sea «backpropagation» del error).

En una tarea, entrenaron los sistemas, a los que llaman redes neuronales físicas (PNN), para reconocer dígitos escritos a mano.

En otro caso, los PNN reconocieron siete sonidos de vocales.

La precisión en estas tareas osciló entre el 87 % y el 97 %, informan.

538
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x