El nuevo jefe de Inteligencia Artificial de la NASA cuestionó la precisión y confiabilidad de esta tecnología
El nuevo director de Inteligencia Artificial (IA) de la NASA, David Salvagnini, advirtió que los resultados que ofrece esa tecnología deben abordarse con una actitud crítica, porque puede haber “errores de omisión” que afecten a sus respuestas.
“Hay veces que genera una respuesta falsa que puede ser algo obvio y más fácil de detectar. Me preocuparían más los errores de omisión. ¿Qué pasa cuando da una respuesta pero había una gran cantidad de datos a los que en verdad no hacía referencia?”, se preguntó en un foro de su agencia en Washington en torno a esa tecnología.
Salvagnini instó por ello a un análisis detallado de los elementos que han conducido a esas respuestas.
¿Entendemos el origen de esos datos? ¿Confiamos en su precisión? Porque si la respuesta a esas preguntas es negativa, nuestra confianza en el resultado de la IA debería descartarse o reducirse”, dijo.
Salvagnini fue nombrado el pasado 13 de mayo como el primer director de IA de la NASA para alinear la visión estratégica y planificación del uso de esa tecnología en el organismo espacial estadounidense.
El nuevo cargo respondió a la orden ejecutiva de la Administración de Joe Biden en octubre de 2023 sobre el desarrollo y uso seguro de la IA, que instaba a todas las agencias federales a crear dicho puesto.
“La IA no es responsable del resultado, las personas lo son. Tenemos que ser conscientes de nuestras responsabilidades. Casi me gustaría que la inteligencia artificial no se llamara así sino que fuera conocida como ayuda digital, como un asistente digital al que uno tiene acceso para recibir ayuda en el proceso de decisiones”, concluyó Salvagnini.