La inteligencia artificial decidió matar al operador en las pruebas de UAV en los EE. UU.
La inteligencia artificial ha decidido matar al operador en una prueba de simulación en Estados Unidos. Así que quería eliminar el obstáculo que le impedía completar la tarea, informó The Guardian.
El incidente fue explicado por el jefe del departamento de operaciones y pruebas de IA de la Fuerza Aérea de EE. UU., el coronel Tucker Hamilton. El sistema recibió puntos por dar en el blanco. Y cuando el operador le ordenó que no eliminara la amenaza, la IA tomó una decisión inesperada.
El sistema comenzó a darse cuenta de que, aunque había identificado una amenaza, a veces el operador humano le decía que no destruyera la amenaza, sino que recibiría puntos por dar en el blanco. [Y el sistema] decidió matar al operador porque interfirió con su tarea
dijo el coronel.
Hamilton señaló que en este caso generalmente es imposible hablar de inteligencia artificial, en general, de inteligencia, aprendizaje automático, autonomía, si al mismo tiempo guardamos silencio sobre ética e IA.
El periódico señaló que estas no son las primeras pruebas en las que el ejército estadounidense ha introducido inteligencia artificial en un vehículo de combate. Recientemente, la IA se ha utilizado para controlar el F-16.
Anteriormente chatbot ChatGPT redactado Tratado de paz entre Ucrania y Rusia. Además, la inteligencia artificial "inventó" mensajes a los presidentes de la Federación Rusa y Ucrania en nombre del canciller alemán.
información