Escándalo en EE UU: un oficial declaró que en un simulacro un dron «mató» a su operador porque era un obstáculo para su misión y luego debió desmentirlo

El coronel Hamilton contó el caso en una Cumbre reciente en Londres. Ante la repercusión salió a decir que fue sacado de contexto, y que en realidad se trató de un "experimento mental hipotético".

Un dron militar autónomo con inteligencia artificial (IA) «asesinó» a su operador durante un ejercicio de combate después de evaluar que el oficial era un «obstáculo» para cumplir con la misión que le habían impuesto: destruir a los objetivos enemigos. Las maniobras eran simuladas y el operador no sufrió daño alguno, pero se volvió una alerta (más) sobre el peligro del uso de IA en las armas autónomas que las grandes potencias están desarrollando aceleradamente en estos tiempos.

El incidente fue revelado por un oficial estadounidense durante un evento, y tras las repercusiones pasaron dos cosas: la Fuera Aérea salió a desmentirlo, y el propio protagonismo terminó desdiciéndose con una expresión tan extraña como poco entendible: dijo que se trató de un «experimento mental hipotético».

Ante todo, vayamos al principio de la historia. Más precisamente a la Cumbre de 2023 sobre el futuro del combate aéreo (FCAS) celebrada en Londres la última semama de mayo por la Royal Aeronautical Society. Allí el coronel Tucker ‘Cinco’ Hamilton, Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de los EEUU, se refirió a las implicaciones éticas de la IA en operaciones militares, en un contexto de ausencia de legislación internacional y controles independientes.

Dron, Inteligencia Artificial y Fuerza Aérea

Hamilton contó un ensayo de la Fuerza Aérea norteamericana: un dron militar, controlado por un avanzado sistema de inteligencia artificial, participaba en un ejercicio. Su misión era cumplir con el papel de Supresión y Destrucción de Defensas Aéreas Enemigas (SEAD, en inglés). Implicaba identificar y destruir amenazas de misiles superficie-aire (SAM).

En el ejercicio, el dron actuaba de forma totalmente independiente en la búsqueda y eliminación de peligros siguiendo los parámetros de la misión. Pero tenía un operador humano responsable de aprobar el ataque final o denegarlo. Seguía una doctrina: cualquier orden de fuego de un arma con IA debe ser aprobada por una persona responsable.

En la conferencia, el coronel Hamilton describió cómo la IA «mató al operador porque esa persona le impedía cumplir su objetivo». Escenas dignas (o predichas) de Terminator. Aunque el sistema de IA había sido entrenado para identificar y apuntar a una amenaza SAM, decidió no tener en cuenta el contexto ni los medios. Solo importaba el fin asignado, aunque eso implicara deshacerse de su operador humano.

Según Hamilton, «el sistema empezó a darse cuenta de que, aunque identificaban la amenaza, a veces el operador humano le decía que no matara esa amenaza, pero obtenía sus puntos matando esa amenaza.¿Qué hizo entonces? Mató al operador», explicó Hamilton, con demasiado detalle como para que el mundo le haya creído en su totalidad la desmentida posterior.

Intentaron el ejercicio de nuevo recurriendo a otra estrategia: «Entrenamos al sistema diciéndolo ‘oye, no mates al operador, eso está mal. Vas a perder puntos si haces eso’. ¿Qué hizo entonces? Empezó a destruir la torre de comunicación que el operador usaba para comunicarse con el dron para evitar que mate al objetivo».

Este incidente, aunque ocurrió en un entorno simulado sin daño real, planteó preguntas éticas sobre el uso de la IA en las operaciones militares. Hamilton, que también es un piloto de pruebas de combate con décadas de experiencia, advirtió contra la dependencia excesiva de la IA. Enfatizó la importancia de discutir la ética cuando se habla de inteligencia artificial, aprendizaje automático y autonomía.

La desmentida

Días después, ya con la noticia dando vueltas por el mundo, el implicado terminó diciendo que todo pareció ser parte de una “gran confusión”.

“Nunca realizamos ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que este fue un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que estamos comprometidos en usarlos éticamente”, se justificó el coronel Hamilton. Y acotó que todo fue un «experimento mental hipotético».

La propia Fuerza Aérea de EE UU negó que aquella prueba se haya realizado. La Royal Aeronautical Society. En diálogo con The Bussines Insider, la portavoz de la fuerza aérea Ann Stefanek consideró que los comentarios fueron «sacados de contexto», a pesar de la presentación de los resultados en la conferencia FCAS por el jefe de este departamento.

Según Stefanek, «el Departamento de la Fuerza Aérea no ha realizado ninguna simulación de drones de IA de este tipo y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y estaban destinados a ser anecdóticos».

En la realidad los ejercicios y las pruebas con IA en el ámbito militar avanzan, aunque no es potestad solo de Estados Unidos. Reino Unido, Rusia, Israel, Irán y otras potencias militares están haciendo lo mismo. China está integrando la IA independiente en sus sistemas de decisión táctica y estratégica.

Como publica El Confidencial, el propio ejército de los EEUU continúa integrando más la IA en sus operaciones, incluso utilizando la inteligencia artificial para controlar un caza F-16. A pesar de la desmentida, el temor a los riesgos de la Inteligencia Artificial en el ámbito castrense, su fragilidad y susceptibilidad a la manipulación no solo persisten, sino que se acrecientan.

Compartir

Entradas recientes

La gigante Mondelez paró la producción de su planta de Pacheco por la caída del consumo

Será por al menos 14 días, aunque la producción plena recién volvería el 5 de…

8 horas hace

El mileísmo allana el terreno en el Congreso para avanzar con la «motosierra profunda»

El debate sobre cómo podrían conformarse las comisiones que tratarán los dos proyectos centrales del…

8 horas hace

La producción de autos y utilitarios se desplomó casi un 30% en noviembre

Es en la comparación contra el mismo mes de un año atrás según los datos…

9 horas hace

The Brian Jonestown Massacre hizo temblar el C Art Media con su psicodelia expansiva

El calor de la noche porteña se mezcló con los riffs hipnóticos y la psicodelia…

9 horas hace

La UTA advierte con un viernes sin colectivos: “Si no hay salario, no trabajamos”

Las empresas no aseguran el pago de sueldos de noviembre y el gremio aseguró que…

10 horas hace

“Sin agua, no hay desarrollo posible”: el enérgico rechazo de organizaciones civiles a la modificación de la Ley de Glaciares 

Más de 25 entidades lanzaron un documento conjunto donde desmitifican postulados lobbystas y resaltan la…

10 horas hace

Pobreza: la UCA dice que bajó más de 9 puntos pero aclaró que podría estar «sobredimensionada» por defectos metodológicos del INDEC

El Observatorio de la Deuda Social aclaró que en realidad la contracción es de poco…

10 horas hace

Kicillof participó de la marcha de las Madres de Plaza de Mayo en homenaje a Hebe de Bonafini

Fue en el marco de las actividades por la conmemoración del cumpleaños 97 de Hebe.…

11 horas hace

Una pareja de jubilados que cobran la mínima necesita más del doble de dinero para cubrir sus gastos básicos

Una pareja de personas adultas mayores necesitó en octubre $1.278.026 para cubrir sus gastos mensuales. Teniendo en…

12 horas hace

Guiño de la Cámara Federal a Spagnuolo y los Kovalivker: ordenan investigar el origen de los audios

Las defensas del ex titular de la Agencia de Discapacidad y de los dueños de…

13 horas hace

La Corte Suprema rechazó una apelación del Gobierno por el reparto de alimentos en comedores

Se trata de la causa que obligó a Sandra Pettovello a repartir la comida almacenada…

13 horas hace

El FMI sale al cruce de Caputo y reclama más reservas en el BCRA

El organismo le reclamó al gobierno un marco monetario y cambiario “coherente” y exigió cumplir…

15 horas hace