Los robots y los ordenadores podrán conversar y discutir sobre sus decisiones con los humanos en un futuro cercano, según un proyecto que desarrolla la universidad escocesa de Aberdeen. Un grupo de investigadores de dicho centro universitario trabaja en una tecnología destinada a incrementar la confianza de las personas en la "inteligencia" de las máquinas, explicó el responsable del proyecto, el ingeniero Wamberto Vasconcelos, a la agencia británica Press Association.
El programa, del que se esperan los primeros resultados dentro de tres años, tiene como objetivo crear robots y sistemas autónomos, piezas consustanciales a la industria moderna, capaces de cuestionarse sus decisiones.
Esas máquinas, que pueden procesar enormes cantidades de información antes de ejecutar una acción, "están acostumbradas a desarrollar su tarea sin la guía continua de los humanos", relató Vasconcelos.
Sin embargo, "pueden cometer errores", subrayó el investigador, que sostiene además que esa autonomía puede generar "desconfianza" en los humanos, que en determinadas circunstancias pueden no entender por qué el robot ha decidido ejecutar cierta acción.
"Lo que estamos creando es una nueva generación de sistemas autónomos que podrán entablar una comunicación bidireccional con las personas", explicó el ingeniero de la universidad escocesa. El sistema que proyecta el grupo de Vasconcelos permitirá la comunicación con las máquinas a través de órdenes escritas, y no de viva voz, como funcionan algunos de los ordenadores inteligentes que ha retratado en numerosas ocasiones la ciencia ficción, como el conocido HAL 9000, que se revela contra los humanos en la novela del británico Artur C. Clarke "2001: Odisea en el espacio".
El programa de la Universidad de Aberdeen permitirá al operador humano cuestionar o anular las decisiones que tome la máquina, que deberá por su parte justificar sus decisiones. "Será posible autorizar al sistema informático para romper las reglas establecidas si es necesario, por ejemplo, para lograr un mejor uso de los recursos, o por motivos de seguridad", apuntó el investigador.
Vasconcelos señaló que el equipo de ingenieros que trabaja en el proyecto ha decidido incorporar a un psicólogo al grupo para asegurar que las respuestas de las máquinas no son "amenazantes o maleducadas".