Según las Fuerzas Aéreas de EEUU, un coronel que describió un experimento en el que un dron con IA decidió atacar a su operador para completar su misión "se equivocó al hablar".".
En una conferencia organizada por la Real Sociedad Aeronáutica habló el coronel Tucker Hamilton, jefe de pruebas y operaciones de IA de la Fuerza Aérea estadounidense.
Hubo una noticia viral al respecto.
Según las Fuerzas Aéreas, no hubo tal experimento.
Habló de una simulación en la que un operador humano de un dron impidió repetidamente que un dron con IA destruyera emplazamientos de misiles tierra-aire para cumplir su misión.
A pesar de estar programado para no matar al operador, afirmó que al final el dron destruyó la torre de comunicaciones, haciendo que el operador no pudiera comunicarse con ella.
En una declaración posterior a la Royal Aeronautical Society, el coronel Hamilton aclaró: "Nunca hemos llevado a cabo ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que se trata de un resultado plausible.
Continuó diciendo que se trataba simplemente de un "experimento mental" y que en realidad no había ocurrido nada.
Aunque no todos los expertos coinciden en la gravedad del riesgo, ha habido varias advertencias recientes sobre la amenaza que la IA supone para la humanidad por parte de quienes trabajan en este campo.
En una entrevista concedida a la BBC a principios de esta semana, el profesor Yoshua Bengio, uno de los tres informáticos apodados los "padrinos" de la inteligencia artificial tras recibir el prestigioso premio Turing por sus contribuciones, expresó su opinión de que los militares nunca deberían tener acceso a la tecnología de IA.
Una de las peores ubicaciones para una IA superinteligente, en sus palabras, era allí.
Las afirmaciones del coronel Hamilton, de las que se informó ampliamente antes de su aclaración, fueron acogidas con gran escepticismo por los expertos con los que hablé durante varias horas esta mañana tanto en IA como en defensa.
El coronel Hamilton, en su relato inicial, en la revista Alerta y Defensa, afirmó que la IA no debería ser una amenaza para el ejército. El relato inicial de Hamilton, en opinión de un experto en defensa, parecía carecer de "contexto importante", si no de algo más.
En las redes sociales, corría el rumor de que si tal experimento había tenido lugar, era más probable que hubiera sido un escenario planeado de antemano que el dron habilitado para IA estuviera utilizando el aprendizaje automático para completar la tarea. Esto significa básicamente que no habría estado tomando decisiones sobre los resultados de la tarea sobre la marcha basándose en lo que había sucedido en el pasado.
Cuando le pregunté a Steve Wright, profesor de ingeniería aeroespacial en la Universidad del Oeste de Inglaterra y especialista en vehículos aéreos no tripulados, qué pensaba de la trama, respondió bromeando: "Siempre he sido fan de las películas de Terminator."
"Hacer lo correcto" y "no hacer lo incorrecto" son las dos preocupaciones de los ordenadores de control de aeronaves, explicó, y éste es un ejemplo paradigmático de lo segundo.
En la práctica, nos ocupamos de esto teniendo siempre un ordenador de reserva que se programa con métodos anticuados y que puede utilizarse para apagar el sistema en cuanto el ordenador principal se comporta de forma extraña. "
Visite la cuenta de Twitter de Zoe Kleinman.