20 de julio de 2017
El Grupo Kalashnikov ha anunciado recientemente el desarrollo de un módulo de combate totalmente automatizado con capacidad para tomar decisiones e identificar objetivos (Crédito: Grupo Kalashnikov )VER GALERÍA - 15 IMÁGENES
A principios de este mes, el fabricante de armas ruso Kalashnikov Group hizo un anuncio discreto con consecuencias aterradoras. La compañía reveló que había desarrollado una gama de robots de combate que son totalmente automatizados y utilizan la inteligencia artificial para identificar objetivos y tomar decisiones independientes. La revelación reavivó el debate húmedo y polémico sobre el armamento autónomo y preguntó, ¿en qué punto entregamos el control de las armas letales a la inteligencia artificial?
En 2015, más de mil investigadores de robótica e inteligencia artificial, entre ellos Elon Musk y Stephen Hawking, firmaron una carta abierta urgiendo a las Naciones Unidas a imponer una prohibición sobre el desarrollo y el despliegue de la IA armada. Sin embargo, las ruedas de la burocracia se mueven lentamente y la ONU no respondió hasta diciembre de 2016. La ONU ha convocado formalmente a un grupo de expertos gubernamentales como un paso hacia la implementación de una prohibición global formal, pero realistamente esto podría estar a varios años .
El Kalashnikov totalmente automatizado
Mientras que las Naciones Unidas están formando actualmente un grupo para discutir la posibilidad de introducir una posible prohibición del armamento controlado por AI, Rusia ya está a punto de demostrar robots de combate autónomos. Pocos días después de que el presidente ruso, Vladimir Putin, visitara al fabricante de armas Kalashnikov Group, infame por inventar el AK-47, conocido como la máquina de matar más eficaz en la historia de la humanidad , llegó el siguiente anuncio:
"En un futuro inminente, el Grupo desvelará una gama de productos basados en redes neuronales", dijo Sofiya Ivanova, Directora de Comunicaciones del Grupo. "Se planea demostrar un módulo de combate totalmente automatizado con esta tecnología en el foro del Ejército 2017", agregó, en una breve declaración a la agencia estatal de noticias TASS.
La brevedad de los comentarios hace que sea poco claro en cuanto a lo que se ha producido específicamente o cómo se desplegarán, pero el lenguaje es claro. La compañía ha desarrollado un sistema "totalmente automatizado" basado en "redes neuronales". Este "módulo de combate" armado puede aparentemente identificar objetivos y tomar decisiones por sí mismo. Y lo veremos pronto.
El "Enigma Terminator"
La cuestión de si debemos eliminar la supervisión humana de cualquier operación militar automatizada ha sido muy debatida durante algún tiempo. En los EE.UU. no hay consenso oficial sobre el dilema. Conocido informalmente dentro de los pasillos del Pentágono como " el enigma de Terminator ", la pregunta que se hace es si sofocar el desarrollo de este tipo de armas realmente permitiría que otros países de mentalidad menos ética salten adelante. ¿O es un mayor peligro para permitir en última instancia a las máquinas la capacidad de tomar decisiones de vida o muerte?
Actualmente la postura oficial de Estados Unidos sobre armas autónomas es que la aprobación humana debe estar en el bucle de cualquier compromiso que implique una fuerza letal. Los sistemas autónomos sólo pueden ser desplegados para "no letal fuerza, no cinética, tales como algunas formas de ataque electrónico".
En un ensayo convincente co-escrito por el coronel retirado del Ejército de Estados Unidos Joseph Brecher, el argumento en contra de la prohibición de armamento autónoma se presenta crudamente. Se describe un escenario en el que dos combatientes se enfrentan. Uno sostiene un arsenal de robots de combate totalmente autónomos, mientras que el otro tiene armamento similar con capacidades solamente semi-autónomos que mantienen a un ser humano en el bucle.
En este escenario, el combatiente con la capacidad semiautónoma presenta dos desventajas significativas. La velocidad, por supuesto, es una preocupación obvia. Un sistema autónomo será inherentemente capaz de actuar más rápido y derrotar a un sistema que necesita hacer una pausa para que un ser humano apruebe sus acciones letales.
La segunda desventaja de un sistema humano-llevado es su vulnerabilidad a la piratería informática. Un sistema semi-autónomo, ya sea en tierra o en el aire, requiere un enlace de comunicaciones que podría ser comprometido en última instancia. Convertir a los robots de combate de una nación en sí mismo sería el acto final de la ciberguerra futura, y cuanto más independiente sea un sistema, más cerrado y seguro puede ser para este tipo de compromisos externos.
La conclusión a la que se enfrenta esta línea de pensamiento es que restringir el desarrollo de sistemas de armas letales y autónomos fortalecería realmente la fuerza militar de aquellos países menos escrupulosos que buscan esas tecnologías.
¿Podría AI eliminar el error humano?
Dejando de lado la espantosa imagen mental de soldados autónomos robot por un momento, algunos investigadores están argumentando que una aplicación más completa de la inteligencia artificial en los procesos militares en realidad podría mejorar la precisión y reducir las muertes civiles accidentales.
El error humano o la orientación indiscriminada a menudo resulta en esas historias horribles de noticias que muestran a civiles ensangrentados por bombas que golpean los centros urbanos por error. ¿Qué sucede si los sistemas de armas artificialmente inteligentes no sólo pueden encontrar su propio camino hacia un objetivo específico, sino identificar con precisión a la persona y detener el despliegue de armas antes de la matanza autónoma en un momento que considere apropiado y más seguro para los no combatientes?
En un informe apoyado por el Future of Life Institute , financiado por Elon Musk, el científico de investigación Heather Roff examina el estado actual de los sistemas de armas autónomos y considera dónde se podría dirigir la evolución futura. Roff escribe que hay dos tecnologías actuales barriendo el desarrollo de nuevas armas.
"Las dos tecnologías emergentes más recientes son la Discriminación de la Imagen Objetiva y el Vagabundo (es decir, el auto-compromiso)", escribe Roff . "El primero ha sido ayudado por mejoras en la visión por computador y el procesamiento de imágenes y está siendo incorporado en la mayoría de las nuevas tecnologías de misiles.Este último está surgiendo en ciertas plataformas de separación, así como algunos UAV pequeños.Ellos representan una nueva frontera de autonomía, No tiene un objetivo específico sino un conjunto de blancos potenciales y espera en la zona de compromiso hasta que se detecte un objetivo apropiado, esta tecnología está en un número bajo de sistemas desplegados, pero es un componente pesado de los sistemas en desarrollo ".
Por supuesto, estos sistemas todavía requieren actualmente un "ser humano en el bucle" para desencadenar cualquier acción letal, pero ¿en qué momento el ser humano detiene efectivamente la eficiencia del sistema?
Estas son preguntas que nadie tiene buenas respuestas.
Con el Grupo Kalashnikov respaldado por Rusia anunciando el desarrollo de un sistema de combate totalmente automatizado, y las Naciones Unidas contorneando la cuestión de la prohibición global del armamento autónomo, pronto tendremos que calcular esas respuestas.
El "Enigma Terminator" puede haber sido un divertido experimento de pensamiento durante los últimos años, pero la ciencia ficción se está convirtiendo rápidamente en un hecho científico. ¿Estamos dispuestos a dar a las máquinas la autoridad para tomar decisiones de vida o muerte?
http://newatlas.com/kalashnikov-ai-weapon-terminator-conundrum/50576/?li_source=LI&li_medium=default-widget
No hay comentarios:
Publicar un comentario