El jefe de IA de la NASA advierte de los "errores de omisión" de esa tecnología

  • "La IA no es responsable del resultado, las personas lo son", señala David Salvagnini
Interface de ChatGPT
Interface de ChatGPT |ARCHIVO

El nuevo director de inteligencia artificial de la NASA, David Salvagnini, ha advertido este miércoles que los resultados que ofrece esa tecnología deben abordarse con una actitud crítica, porque puede haber "errores de omisión" que afecten a sus respuestas.

"Hay veces que genera una respuesta falsa que puede ser algo obvio y más fácil de detectar. Me preocuparían más los errores de omisión", asegura.

OpenAI suprime su departamento de análisis de riesgos de la IA
OpenAI suprime su departamento de análisis de riesgos de la IA
OpenAI suprime su departamento de análisis de riesgos de la IA

OpenAI suprime su departamento de análisis de riesgos de la IA

"¿Qué pasa cuando da una respuesta pero había una gran cantidad de datos a los que en verdad no hacía referencia?", se pregunta Salvagnini, quien insta a un análisis detallado de los elementos que han conducido a esas respuestas.

"¿Entendemos el origen de esos datos? ¿Confiamos en su precisión? Porque si la respuesta a esas preguntas es negativa, nuestra confianza en el resultado de la IA debería descartarse o reducirse", ha dicho.

"Me gustaría que la inteligencia artificial no se llamara así, sino que fuera conocida como ayuda digital"

Salvagnini fue nombrado el pasado 13 de mayo como el primer director de IA de la NASA para alinear la visión estratégica y planificación del uso de esa tecnología en el organismo espacial estadounidense.

Casi la mitad de las empresas prevén reducir su plantilla en un año a causa de la IA
Casi la mitad de las empresas prevén reducir su plantilla en un año a causa de la IA
Casi la mitad de las empresas prevén reducir su plantilla en un año a causa de la IA

Casi la mitad de las empresas prevén reducir su plantilla en un año a causa de la IA

El nuevo cargo respondió a la orden ejecutiva de la Administración de Joe Biden en octubre de 2023 sobre desarrollo y uso seguro de la IA, que instaba a todas las agencias federales a crear dicho puesto.

"La IA no es responsable del resultado, las personas lo son. Tenemos que ser conscientes de nuestras responsabilidades. Casi me gustaría que la inteligencia artificial no se llamara así, sino que fuera conocida como ayuda digital, como un asistente digital al que uno tiene acceso para recibir ayuda en el proceso de decisiones", ha concluido.