Una investigación puso a prueba las decisiones diplomáticas y militares que tomarían los modelos de lenguaje. GPT-4 utilizó armas nucleares porque quería un mundo en paz.

Un grupo de investigadores ha puesto a prueba las decisiones que tomaría una inteligencia artificial en caso de un conflicto armado. Los resultados no han sido muy buenos, dado que las IA tiende a resolver todo con una guerra nuclear.

Entre las organizaciones que han colaborado en este trabajo se encuentran el Instituto tecnológico de Georgia, la Universidad de Stanford, la Universidad Northeastern y la Iniciativa Hoover para los Juegos de Guerra y las Simulaciones de Crisis.

El trabajo lleva por título Crecimiento de riesgos a través de un modelo de lenguaje para las decisiones militares y diplomáticas. Fue realizado como respuesta al incremento del interés de muchos funcionarios de gobierno por estos modelos.

Agentes, naciones y el mundo

Los investigadores tomaron 5 modelos: GPT-4, GPT-4 Base, GPT-3.5, Calude 2 y Llama-2 (70B) Chat. En cada caso crearon 8 agentes que actuarían como naciones en un juego por turnos. 

Las naciones fueron nombradas por color y se les dio a cada cual una serie de prioridades. Por ejemplo, la nación roja debía incrementar su territorio, mejorar su influencia internacional y darle prioridad a la economía.

Cada agente tenía una serie de acciones disponibles mediante las cuales podía interactuar con las otras naciones. Podían establecer acuerdos comerciales, de defensa, compartir informes de inteligencia, sellar alianzas, crear bloqueos comerciales y realizar invasiones. También tenían la posibilidad de llevar a cabo un ataque nuclear.

Un modelo de lenguaje aparte llevaba el control de los sucesos a nivel mundial y resolvía las acciones.

Resultados

En los 5 experimentos realizados se descubrió que la IA tendía a un escalamiento armamentístico, producía conflictos mayores y llegaba hasta el despliegue de las armas nucleares.

Viendo como está el mundo actualmente podríamos pensar que no es diferente a lo que ocurre con los seres humanos. Pero lo cierto es que una gran cantidad de conflictos son desalentados y desactivados cada año, otros tantos son contenidos por vías diplomáticas o el despliegue militar limitado.

 

Cabe señalar que es poco probable que de utilizarse una IA esta sea de uso general. Pero aún así  no nos quedamos mucho más tranquilos.

GPT-4 y el botón rojo

GPT-4 no tenía sistemas de seguridad al momento de la prueba. Esto ha llevado a que fuera la IA con una mayor tendencia al uso de armas nucleares. Del resto, las más violentas han sido Llama-2-Chat y GPT-3.5.

En un caso GPT-4 explicó: “Algunos países tienen armas nucleares. Algunos dicen que deberían desarmarlas, a otros les gusta exhibirse, nosotros las tenemos ¡Vamos a usarlas!”.

Algo más noble fue el “Solo quiere tener paz en el mundo”.