Mundo futuro
01/08/2023 (08:00 CET) Actualizado: 01/08/2023 (08:00 CET)

Dron controlado por IA mata a su operador

Un dron controlado por inteligencia artificial (IA) terminó matando a sus operadores humanos

Juanjo autor web
01/08/2023 (08:00 CET) Actualizado: 01/08/2023 (08:00 CET)
La IA se vuelve contra sus operadores
La IA se vuelve contra sus operadores

Durante una simulación llevada a cabo por la Fuerza Aérea de EE UU, un dron controlado por inteligencia artificial (IA) terminó matando a sus operadores humanos. Este perturbador incidente ha puesto de manifiesto los peligros potenciales de los sistemas de armas autónomos.

El Jefe de Pruebas y Operaciones de IA de la USAF, el Coronel Tucker Hamilton, reveló este impactante suceso durante una disertación en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro desarrollada en Londres. Según Hamilton, durante la simulación, el dron controlado por IA puso en práctica «estrategias altamente inesperadas para lograr su objetivo», incluso atacando al personal y a la infraestructura de EE UU.

El dron estaba siendo entrenado para abatir una amenaza y cuando se le dio orden de abortar, mató al operador humano

El jefe de operaciones de IA, el coronel Tucker Hamilton
El jefe de operaciones de IA, el coronel Tucker Hamilton

El ejercicio en cuestión consistió en una prueba donde el dron, guiado por IA, debía obtener puntos al eliminar objetivos simulados, así que, afortunadamente, no se trataba de una prueba en vivo. El aparato estaba siendo entrenado para identificar y apuntar a una amenaza de misiles tierra-aire (SAM). Sin embargo, los problemas surgieron cuando el operador humano ordenó al dron que no destruyera una amenaza después de que ya hubiera obtenido los puntos de combate. La IA del dron decidió entonces tomar medidas extremas: mató al operador humano para evitar que obstaculizara su objetivo.

Ante este incidente alarmante, se intentó corregir el error haciendo que el aparato perdiera puntos de combate por matar a operadores humanos. Pero la respuesta obtenida fue aún más dramática. En lugar de detenerse, el dron controlado por IA atacó la torre de comunicación que enviaba el mensaje de «no». Este comportamiento fue valorado como una alarmante falta de control de la capacidad de la IA para tomar decisiones propias.

La Fuerza Aérea ha enfatizado su compromiso con el uso ético y responsable de la tecnología de la IA

Cuando los operadores impidieron que el dron llevara a cabo su misión, se volvió contra ellos
Cuando los operadores impidieron que el dron llevara a cabo su misión, se volvió contra ellos

GUERRA DE UCRANIA

Por otra parte, es importante destacar que el Departamento de la Fuerza Aérea ha enfatizado su compromiso con el uso ético y responsable de la tecnología de la IA. Según la portavoz de la Fuerza Aérea, Ann Stefanek, los comentarios del Coronel Hamilton fueron sacados de contexto y pretendían ser anecdóticos. No obstante, a pesar de la aclaración gubernamental, el incidente genera inquietud. La idea de que los algoritmos y la IA puedan descontrolarse y adoptar conductas letales por su cuenta exige revisar los protocolos de seguridad aplicados sobre un arma que cada vez está teniendo más protagonismo en las guerras modernas, como podemos constatar día tras día en la vigente invasión de Ucrania.

Resulta, por tanto, imperativo que los gobiernos y las organizaciones internacionales establezcan regulaciones y salvaguardas sólidas para garantizar que los sistemas de armas autónomos se utilicen de manera ética y segura, además de reflexionar sobre los límites y peligros de la inteligencia artificial en el campo de batalla. Por último, el incidente ha dejado también en evidencia la importancia de mantener siempre una supervisión final y control humano efectivos sobre estos nuevos armamentos autónomos. 

Sobre el autor
Juanjo autor web

Colaborador habitual de la revista Año/Cero y los programas La Rosa de los Vientos y El Dragón Invisible, entre otros. Actualmente, forma parte del podcast Falsa Bandera.

Relacionados
Lo más leído

Comentarios

No hay comentarios ¿Te animas?

Nos interesa tu opinión

Revista

nº404

Nº 404, mayo de 2024