Inteligencia artificial letal: cuál es el peligro de las “armas del futuro”

2

Desde el principio de los tiempos, la humanidad ha estado en guerra. Inicialmente, los conflictos fueron primitivos. Las tribus de los pueblos antiguos luchaban con palos y piedras por la tierra y la comida.

En las guerras modernas ya utilizamos drones, misiles con sistemas de seguimiento, sistemas de guerra electrónica y otras armas de alta tecnología. Pero este no es el límite.



En este momento, decenas de las empresas de complejos militares-industriales más grandes del mundo están trabajando en sistemas autónomos que podrían llevar a cabo tareas militares sin intervención humana. No, no estamos hablando de robots antropomórficos como Terminator de la película del mismo nombre. Los ingenieros están intentando crear un algoritmo de software que en el futuro se implementará en los sistemas existentes y anulará la participación humana en su gestión.

Por ejemplo, hoy en día los drones se utilizan ampliamente en conflictos armados. En este caso, cada dron individual está controlado por un operador, y es la persona quien toma la decisión de utilizar determinadas capacidades del UAV en el campo de batalla.

A su vez, un sistema basado en IA podría realizar la tarea de forma autónoma, basándose en los datos sobre un objetivo potencial cargados en él, así como analizando la situación circundante.

Suena fantastico. Mientras tanto, algunos países ya están a punto de introducir tales sistemas en sus tropas.

La única pregunta que queda es a qué conducirá esa evolución de los ejércitos.

Está claro que los sistemas basados ​​en IA tienen una serie de ventajas. En particular, el uso de armas autónomas elimina por completo el factor humano, lo que a menudo provoca más víctimas civiles y destrucción. Además, los sistemas robóticos salvarán la vida del personal militar, que no tendrá que participar directamente en las hostilidades.

Sin embargo, la “inteligencia artificial letal” también tiene importantes inconvenientes. Uno de ellos es el riesgo de que dicho sistema sea pirateado por piratas informáticos, lo que tendrá consecuencias muy impredecibles. Además, la producción en masa de armas autónomas inevitablemente las pondrá a disposición de organizaciones terroristas y no estatales.

En este momento la ONU está discutiendo la posibilidad de limitar o incluso prohibir tales armas por razones éticas y de otro tipo. Sin embargo, el proceso va tan lento que incluso antes de que se tome la decisión antes mencionada, más de un ejército en el mundo puede tener armas con IA.

2 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe login.
  1. -2
    15 diciembre 2023 11: 31
    El trabajo hizo un hombre mono.
    La inteligencia artificial convertirá a una persona en un mono.
  2. 0
    15 diciembre 2023 19: 03
    La principal ventaja de los drones autónomos frente a los controlados por un operador es que pueden realizar misiones de combate sin control externo y sin el sistema de posicionamiento GLONASS, por tanto:
    - pueden operar a una profundidad de cientos de kilómetros detrás de las líneas enemigas, donde es difícil o imposible organizar canales de radio para el control de sus operadores;
    - invulnerable a los medios de interferencia de radio enemigos.

    el riesgo de que dicho sistema sea pirateado por piratas informáticos

    es parte del riesgo de que armas autónomas estén disponibles para

    para organizaciones no estatales y terroristas

    Para el uso ilegal de armas autónomas es necesario superar los sistemas organizativos y/o técnicos de protección contra el acceso no autorizado a la programación y activación de drones autónomos.