menu MENÚ
MALDITO BULO

¿Qué sabemos sobre que un dron de las Fuerzas Aéreas de los EE.UU. controlado por inteligencia artificial haya “matado” a su operador?

Publicado
Actualizado
Claves
  • Se difunde que un dron operado por inteligencia artificial habría decidido que su operador era un obstáculo para su misión y lo habría “matado”
  • Estos contenidos se comparten a partir de las declaraciones de un coronel que en realidad hablaba sobre una “simulación”, no sobre un suceso real
  • El propio militar ha reconocido que “se expresó mal” y que era un “ejemplo hipotético”*, y las Fuerzas Aéreas de Estados Unidos también niegan haber realizado esta prueba
 
Comparte
Etiquetas

“Un dron con inteligencia artificial de los EE.UU. ha matado a su operador por considerarlo un obstáculo”. Se comparten en redes sociales y en webs unas declaraciones de un coronel de las Fuerzas Aéreas estadounidenses, en las que se afirma que está diciendo que el ejército habría perdido el control de la máquina y habría “matado” a una persona.

Estas declaraciones salen de una convención de seguridad aérea en las que un coronel estaba presuntamente hablando de una “simulación”, y en la que no menciona que haya ocurrido en la realidad En una corrección posterior del 2 de junio, el militar ha asegurado que “se expresó mal”, que se trataba de un “ejemplo hipotético”, y que nunca se ha llevado a cabo este tipo de experimento.* Las Fuerzas Aéreas de Estados Unidos también han negado que se realizara ninguna simulación de este tipo e inciden en que se han descontextualizado las palabras del militar, que eran anecdóticas. Desde Maldita.es os contamos lo que sabemos.

El coronel habla de una “simulación”

Se han difundido unas declaraciones del coronel Tucker ‘Cinco’ Hamilton, director de Pruebas y Operaciones de IA de la Fuerza Aérea de EE.UU., que habría pronunciado durante una conferencia sobre combate aéreo el 24 de mayo, en las que se asegura que una inteligencia artificial de los EE.UU. ha “matado” a su operador. También lo han compartido portales que después han matizado la información.

Según recoge Royal Aeronautical Society, organizadora del evento, Hamilton habría asegurado que durante una “prueba simulada” un dron controlado por inteligencia artificial fue programado para destruir emplazamientos de misiles, y que era un humano el que tenía que dar la orden final de ataque.

Durante la conferencia, Hamilton habría asegurado que el dron, que recibía refuerzos positivos por destruir estos objetivos, habría decidido que las órdenes de no atacar interferían con su misión, por lo que habría atacado al operador en la simulación.

Posteriormente, las Fuerzas Aéreas habrían programado al dron para no atacar al operador, por lo que la máquina habría decidido destruir la torre de comunicaciones para dejar de recibir indicaciones de no atacar a los objetivos. El militar no menciona que esta prueba se haya realizado en la realidad y siempre habla de una “simulación”.

Publicación de la Royal Aeronautical Society

Una actualización posterior de esta misma publicación del 2 de junio recoge las palabras de Hamilton, en las que admite que “se expresó mal”: asegura que estaba hablando de un “ejemplo hipotético” y niega que las Fuerzas Aéreas de Estados Unidos hayan probado ninguna IA armada de esta forma, ya sea en una prueba real o a través de una simulación.

“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que se trata de un resultado plausible", ha asegurado el militar, que incide en que "a pesar de tratarse de un ejemplo hipotético, esto ilustra los desafíos del mundo real que plantea la capacidad potenciada por IA y es la razón por la que las Fuerzas Aéreas están comprometidas con el desarrollo ético de la IA".*

Publicación actualizada de la Royal Aeronautical Society*

Las Fuerzas Armadas niegan que se haya hecho una “simulación de este tipo”

Tras la difusión de estos contenidos, las Fuerzas Armadas estadounidenses han asegurado en una respuesta dirigida a Business Insider que el departamento “no ha llevado a cabo ninguna simulación de este tipo con drones de inteligencia artificial y sigue comprometido con el uso ético y responsable de esta tecnología”. “Parece que los comentarios del coronel se sacaron de contexto y pretendían ser anecdóticos”, ha incidido ante una publicación de Businness Insider.

En resumen, sobre los contenidos que aseguran que un dron con IA ha matado a un humano, parten de unas declaraciones de un coronel que hablaba de una “simulación”, y no que hubiera ocurrido en la realidadEn una nota aclaratoria el militar ha asegurado que “se expresó mal”, que era un “ejemplo hipotético” y que no se ha probado ninguna IA armada de esta manera. Por su parte, las Fuerzas Armadas han asegurado que “no han llevado a cabo ninguna simulación de este tipo” y aseguran que se han descontextualizado unas palabras anecdóticas.

*Este artículo se ha actualizado el 5 de junio de 2023 para incluir nuevas declaraciones del coronel Tucker ‘Cinco’ Hamilton.


Primera fecha de publicación de este artículo: 02/06/2023

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.