Cada día resulta más sencillo programar robots y lejos de necesitar aprender extraños lenguajes ahora basta con dejarles que copien tus movimientos para que, al cabo de un tiempo, lo hagan igual de bien (o mal) que tú. Algo así como las medidas contra el coronavirus que finalmente está lanzando nuestro Gobierno copiando los pasos del italiano, por ejemplo
Los científicos del MIT (como no) han desarrollado un sistema, Planificación con especificaciones inciertas (PUnS), que ayuda a los robots a aprender tareas complicadas cuando de otro modo tropezarían, como poner la mesa.
En lugar del método habitual en el que el robot recibe recompensas por realizar las acciones correctas, PUnS hace que el robot tenga “creencias” sobre una variedad de especificaciones y usa un lenguaje (lógica temporal lineal) que le permite razonar sobre lo que tiene que hacer en este momento y en el futuro. ¿Tendrá algo que ver con el aprendizaje reforzado del que somos unos apasionados seguidores? Por lo pronto vamos a intentar profundizar en PUnS).
El sistema del MIT es mucho más efectivo para la optimización (basada en restircciones) que los enfoques tradicionales en las primeras pruebas.
Un robot basado en PUnS solo cometió seis errores en 20,000 intentos de poner la mesa, incluso cuando los investigadores arrojaron complicaciones como esconder un tenedor: el autómata acaba de terminar el resto de las tareas y regresó al tenedor cuando apareció.
De esa manera, demostró una capacidad similar a la humana para establecer un objetivo general claro e improvisar.
Los desarrolladores finalmente quieren que el sistema no solo aprenda observando, sino que reaccione a los comentarios y de esea forma se les podría dar correcciones verbales o una crítica de su desempeño, por ejemplo. Eso implicará mucho más trabajo, pero abre la puerta a que un futuro crecano los robots caseros podrían adaptarse a nuevas tareas simplemente viendo como los humanos las realizan.
945