lunes, 25 de abril de 2016

El mundo dividido sobre cómo regular a ‘robots asesinos’



POR SEAN WELSH 25/04/2016 

DARPA está desarrollando un buque de guerra antisubmarino independiente, ACTUV. (DARPA)

La semana pasada, diplomáticos de todo el mundo tuvieron la tercera Reunión Informal de Expertos de Naciones Unidas en Ginebra para charlar sistemas de armas letales independientes, (LAWS) por sus siglas en inglés, comúnmente apodados como “robots asesinos”.

Su objetivo fue el de avanzar la decisión de cómo, o si, las LAWS deben ser reguladas por una ley internacional humanitaria.


Una gama de opiniones se expresaron en la reunión, desde Pakistán que está a favor de una prohibición total, hasta el Reino Unido favoreciendo al no del nuevo Reglamento para las LAWS, y varias posiciones en el medio.
A pesar de la gama de opiniones presentadas, hubo algunos puntos en común.

En general se aceptó que las LAWS sean regidas por el derecho internacional humanitario. Por ejemplo, los robots no pueden ignorar los principios de distinción entre civiles y combatientes, o la proporcionalidad en la escala de ataque.

Comandos humanos también tendrían responsabilidad de mando sobre sus robots, tal como lo hacen con hombres y mujeres. Los robots no pueden utilizarse legalmente para perpetrar genocidio, masacres o crímenes de guerra.

Más allá de eso, ampliamente existen cuatro posiciones entre varias naciones.
Posición 1: Se basa en las leyes vigentes

La posición del Reino Unido es que el derecho internacional humanitario actual es suficiente para regular tecnologías emergentes en inteligencia artificial (AI) y robótica.

El argumento es que fue suficiente para regular aviones y submarinos cuando surgieron, y también hará frente a muchos tipos de LAWS. Incluiría aviones no tripulados, Predador drones, con un “gobernador ético”, que es un softwarediseñado para determinar si un disparo está en conformidad con reglas específicas acordadas, o buques anti-submarinos de guerra legales, o buques de guerra antisubmarinos independientes, tales como el autónomo experimental Sea Hunterde la Armada de EE.UU..

El drone Northrop Grumman X-47 Pegasus, está a prueba por la marina de Estados Unidos. (DARPA)
Posición 2: Prohibición de la máquina de aprendizaje

La delegación francesa dijo que la prohibición sería “prematura” y que están abiertos a aceptar la legalidad de las LAWS aun no reguladas con un “humano en el proceso más amplio”. Esto significa que la máquina puede seleccionar blancos y disparar de forma autónoma, pero los seres humanos todavía establecen las reglas de combate.


También aceptaron regular la máquina de aprendizaje con LAWS “no reguladas”(que todavía no existen). Por lo tanto, podrían apoyar una prohibición futura de cualquier autoaprendizaje similar al AI- AlphaGo, que recientemente venció al campeón mundial de Go, con un control directo de misiles no tripulados en el ámbito más amplio. La principal preocupación es cómo AI podría ser impredecible.
Posición 3: Prohibición ‘de lo no regulado’ Con un ‘humano en el ámbito amplio’

Las delegaciones de Holanda y Suiza sugirieron que sistemas “no regulados” con un “humano en el proceso más amplio”, podrían cumplir con una ley humanitaria internacional, exponiendo control humano suficientemente significativo y cumpliendo con las exigencias de la conciencia pública.
El Reino Unido, Francia y Canadá hablaron en contra de una prohibición para tales sistemas.

Los defensores de este tipo de armas robóticas reclaman que podrían ser moralmente superiores a los soldados humanos, ya que serían más precisos, más exactos y menos propensos a malas decisiones causadas por pánico o por venganza.


Los opositores argumentan que podrían errar al blanco en ambientes desordenados u obstruidos y moralmente son inaceptables.

Por ejemplo, la Santa Sede y otras 13 naciones piensan que una intervención humana en tiempo real, con la decisión de tomar una vida es moralmente necesaria, por eso siempre debe haber un ser humano en el caso.


Esta posición requiere de excepciones para armas “defensivas” ya enviadas tales como el Grupo Cerrado en Sistema Armamentisco, y armas aceptadas desde hace tiempo “ no reguladas”, tales como las minas navales, que han existido desde la década de 1860.
Posición 4: Armas prohibidas ‘en el ciclo’

Pakistán y Palestina apoyarán lo suficientemente cualquier medida que prohiba drones tele pilotados. Sin embargo, la mayoría de los países ven esto como más allá del alcance del debate sobre LAWS, ya que los seres humanos toman decisiones para seleccionar y atacar objetivos, a pesar de que muchos coinciden que los aviones no tripulados son un desastre dentro de los derechos humanos.
La definición de líneas en términos de Turing

Formalmente, una AI es una máquina de Turing que mecánicamente aplica reglas para entradas se símbolos que generan salidas o efectos.

La prohibición de las LAWS de aprendizaje automático es una prohibición a las AIs que actualizan su propio conjunto de reglas para tomar decisiones letales. Una prohibición de LAWS para “ámbitos amplios” es la prohibición de AIs con un libro escrito con reglas y decisiones humanas letales. La prohibición así, es una prohibición a robots piloteados por seres humanos usados como armas.

Las opiniones también difieren en cuanto a si el control de las decisiones de cómputo Turing se califican como de significado humano.


La reunión de Ginebra fue una reunión informal de expertos para aclarar las definiciones y alcanzar un consenso sobre lo que (si acaso) podría ser prohibido o regulado en un tratado. Como tal, no hubo votos en la redacción de los tratados.

El resultado más probable es la configuración de un panel de expertos del gobierno para continuar con las discusiones. IA, robótica y las LAWS, siguen en desarrollo. Como están las cosas, el mundo está en Posición 1: Confiar en el actual derecho internacional humanitario.

Un AlphaGo a cargo de misiles cumplió con los principios como el de discriminación y proporcionalidad, eso no sería claramente ilegal, pero da lugar a argumentaciones.

Sean Welsh es un estudiante de doctorado en ética de robots de la Universidad de Canterbury en Nueva Zelanda. Este artículo fue publicado originalmente en The conversación.

http://www.lagranepoca.com/tecnologia

No hay comentarios:

Publicar un comentario