Inteligencia artificial: el hombre en la encrucijada
¿Qué se puede decir acerca de la Inteligencia Artificial que aún no se haya dicho? ¿Es algún monstruo malvado el intento de devorar nuestras libertades ganadas? ¿O un tronco mágico con los poderes para liberar a la humanidad de sus humildes insuficiencias? En verdad no es nada: la inteligencia artificial en nuestra vida será cualquier cosa y todo lo que decidamos que sea.
La batalla entre el hombre y la máquina no es nada nuevo. Reccordemos a los luditas en el siglo XIX en Inglaterra, que destruyeron la maquinaria de la fábrica por temor a que sus artesanías ancestrales se desperdiciaran. Pero la llegada de la Inteligencia Artificial lleva la batalla a un nivel completamente nuevo, porque esta vez el temor es que las máquinas nos hagan a los humanos simplemente irrelevantes.
La IA puede replicar ciertas funciones humanas, pero no puede replicar completamente a una persona porque los humanos son "multi-tareas" mientras que la IA solo maneja una tarea a la vez.
La IA que conocemos hoy se llama IA débil porque se enfoca en una tarea estrecha. Pero funciona increíblemente rápido y puede analizar grandes cantidades de datos insondables. También tiene poderes cognitivos, observando sus alrededores y detectando detalles específicos, aprendiendo de lo que ve y evolucionando a partir de lo que aprende. Puede dar sentido a sus observaciones y sacar conclusiones inteligentes. ¿Pero eso significa que la IA puede reemplazar a los humanos?
No es probable. Y por una variedad de razones, realmente no es una buena idea.
Primero, la IA puede replicar ciertas funciones humanas, pero no puede replicar completamente a una persona porque los humanos son "multitarea", mientras que la IA solo maneja una tarea a la vez. Otra diferencia esencial es que la IA carece de la sensibilidad, el libre albedrío y la conciencia que nos definen como seres humanos.
En segundo lugar, esta IA débil necesita datos, muchos datos, de los cuales aprender. Por lo tanto, depende totalmente de los datos que le proporcionan y, en última instancia, de las personas que se los proporcionan.
Eso nos lleva a la cuestión de la veracidad e integridad de los datos utilizados en el proceso de aprendizaje. Ha habido casos de sistemas de inteligencia artificial que son racistas porque los datos que aprendieron estaban sesgados racialmente. Y en un experimento, una máquina era incapaz de reconocer a un león si no estaba en su hábitat natural. Para enseñar a un ordenador a reconocer un león, debes mostrarle millones de imágenes de diferentes leones en diferentes poses. Y en el experimento, resultó que la máquina estaba aprendiendo a reconocer el hábitat, no el león. Por lo tanto, el análisis basado en la IA está claramente lejos de ser infalible e, intencionalmente o no, podría estar sesgado.
Es posible que estas debilidades no sean particularmente preocupantes en las aplicaciones de los consumidores que utilizan IA hoy en día. Pero podrían tener consecuencias dramáticas en los sistemas de defensa, seguridad o transporte, por ejemplo. Sería poco realista e inconcebible dejar la inteligencia artificial en sus propios dispositivos cuando la vida y la seguridad de millones de personas están en juego.
This article is part of a series of publications associated with Thales Media Day in Montreal, January 24, devoted to the Autonomous world & artificial intelligence, in the presence of Patrice Caine, Thales Group CEO & Yoshua Bengio, Full Professor, Department of Computer Science Operations Research, Canada Research Chair in Statistical Learning Algorithms.