La Inteligencia Artificial actualmente tiene dos problemas difícilmente resolubles. Uno es su capacidad de interpretación de sus modelos sobre todo cuando están creados como cajas negras con miles de números (pesos), funciones de activación no lineales, etc.. que de poco servirán para entender lo que se esconde de bajo por mucho que ajusten a la realidad.

Por otro lado e incluso mucho más difícil de solventar por cuanto la mayoría de las personas no llegan a tenerlo claro es la diferencia entre causalidad y correlación que se confunden.

Del principio de causalidad se han dado infinidad de formulaciones. Nosotros proponemos la siguiente:”cualquier suceso nuevo tiene otro suceso anterior como causa, que lo determina y lo hace ser como es, y no de otro modo”.

Comprender el principio de causa y efecto resulta fundamental para lo que conocemos como sentido común. Pero los actuales sistemas de inteligencia artificial no tienen ni idea de eso.

Según Bareinboim y Pearl, aunque la capacidad de IA para detectar correlaciones como la de las nubes y la probabilidad de lluvia solo representa el nivel más simple del razonamiento causal, fue suficientemente importante como para impulsar el auge del aprendizaje profundo en la última década. Gracias a la gran cantidad de datos sobre situaciones similares, esta técnica es capaz de generar muy buenas predicciones. Un ordenador puede calcular la probabilidad de que un paciente con ciertos síntomas tenga una determinada enfermedad, porque ha aprendido con qué frecuencia otras miles o incluso millones de personas con los mismos síntomas tenían esa enfermedad.

Pero existe un creciente consenso en torno a la idea de que el progreso de la AI se detendrá si los ordenadores no mejoran su comprensión de la causalidad. Si las máquinas pudieran entender que ciertas cosas conducen a otras, no tendrían que verse obligadas a aprenderlo todo de nuevo cada vez: podrían aprovechar lo aprendido en un campo y aplicarlo a otro. Y si las máquinas pudieran usar el sentido común, les daríamos más libertad para trabajar por su cuenta, pues sabíamos que tendrían pocas probabilidades de cometer errores tontos.

La IA actual tiene una capacidad limitada para deducir el resultado de una acción determinada. En el aprendizaje reforzado (la técnica que ha permitido que las máquinas dominen juegos como el ajedrez y el Go), el sistema utiliza repetidas pruebas y errores para descubrir con qué movimientos tiene más probabilidades de ganar la partida. Pero este enfoque no funciona en los complicados entornos del mundo real. Una máquina ni siquiera es capaz de adquirir una comprensión general de cómo podría jugar a otros juegos.

Un nivel aún mayor de pensamiento causal sería la capacidad de razonar sobre por qué ocurre algo y hacer preguntas del tipo “¿qué pasaría si…?”. Un paciente se muere durante un ensayo clínico; ¿la culpa fue de la medicina experimental o de otra cosa? La puntuación de las pruebas escolares está disminuyendo; ¿qué cambios podrían mejorarla? Este tipo de razonamientos van mucho más allá de la capacidad actual de la inteligencia artificial.

693
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x