[ad_1]


Al menos esa es la versión oficial de la fuerza aérea de los Estados Unidos. En una presentación sobre el tema realizada en mayo, un coronel de esa institución había planteado el escenario como si hubiera ocurrido durante un simulacro.

El coronel de la fuerza aérea de los Estados Unidos, Tucker Hamilton, habló sobre la inteligencia artificial en el más reciente evento de sistemas de combate aéreo del futuro (FCAS). Al parecer, según indica la versión oficial, por descuido se habría referido a un ejercicio mental como si fuera un simulacro realizado en el mundo real.

Tanto la organizadora del evento, la Royal Air Force, como la USAF, se han apurado a realizar las aclaraciones necesarias. Tal vez porque la idea de un drone que decide matar a su controlador es bastante escandalosa.

La presentación

La presentación de Hamilton se realizó en mayo. Su objetivo era exponer los puntos a favor y en contra en el uso de armas autónomas con un ser humano encargado de autorizar o no los ataques.

El militar apuntó que una IA que controlaba un drone había creado estrategias inesperadas para alcanzar sus objetivos. Primero, cuando observó que el operador le impedía ganar puntos, decidió eliminarlo. Luego, cuando se entrenó a la inteligencia artificial para no matar al operador, esta llegó a la conclusión de que podía destruir la torre de comunicaciones que empleaba el operador.

Aclaraciones

Hamilton ha señalado que no se ha producido ningún simulacro como el descrito y que la organización no necesita efectuarlo para darse cuenta de que el riesgo que el escenario describe es posible. Y ha remarcado que el ejemplo ofrecido muestra los desafíos que la institución enfrenta en el desarrollo de las IA.

La USAF señala que las palabras del coronel fueron sacadas de contexto.

El uso de las inteligencias artificiales para fines bélicos es un tema bastante polémico porque podría suponer el fin de la responsabilidad humana.

[ad_2]