lunes, 23 de marzo de 2015

¿SUEÑA UN ANDROIDE CON SUS VÍCTIMAS?



Como recordábamos en una entrada anterior de este blog ya en el año 1976 Joseph Weizenbaum nos advertía, sobre nuestras máquinas informatizadas y androides, que: “no deberemos dejarles tomar decisiones importantes porque los ordenadores nunca tendrán cualidades humanas, como la compasión, al no haber crecido en el entorno emocional de una familia humana”.

En 2013 Christof Heyns, jurista de Naciones Unidas, presentó un informe sobre la situación y las perspectivas de los robots militares (LAR, del inglés, robots autónomos letales) con el inquietante rótulo de “Report of the Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions” (ver aquí).

Se trataba de analizar el gran cambio que supondrá el hecho de que un LAR empiece a apretar el gatillo. Pues con los drones aún -al final- una persona es la que aprieta el gatillo. Sin embargo para el algoritmo que controle el LAR esa decisión será homologable a la de borrar o enviar un fichero por email.

Veamos algunos ejemplos de las consideraciones que se hacen en el informe Heyns: los LAR no actuarían por venganza, pánico, enfado, despecho, prejuicios o miedo; y estos soldados automatizados reducirían el número de muertos humanos (se supone que propios) en un conflicto, lo que haría muy difícil frenar su proliferación en las fuerzas armadas.

Al mismo tiempo se razona que su estupidez moral (el hecho de no tener juicio humano, sentido común, apreciación del marco general, comprensión de los valores, …) tendría sus ventajas ya que, por ejemplo, los robots no causarían sufrimiento intencional a la población civil mediante la tortura. Suponiendo, claro está, que les sea posible discriminar a la población civil.

El LAR, el guererero androide estaría más allá de la barrera moral del kamikaze o guerreo suicida, del que se auto inmola para causar el mayor daño posible a aquellos que (des)considera como humanos. Porque él ni siquiera ha dejado de ser humano.

Creo que en una guerra -cosa siempre a evitar- se han de tomar decisiones demasiado importantes como para dejarlas ya en manos de enfermos fundamentalistas de toda condición, ya en los circuitos de cualquier tipo de inteligencia artificial.

No hay comentarios:

Publicar un comentario