Cargando contenido

Ahora en vivo

Seleccione la señal de su ciudad

"Robots asesinos", próximo desarrollo de la tecnología, alarma a defensores de DD. HH.

Los robots asesinos, máquinas capaces de matar sin la intervención humana, solo existen de momento en la ciencia ficción pero el desarrollo de la tecnología para construirlos alarma a los defensores de los derechos humanos.

"La tecnología avanza muy rápido en esa dirección. Estados Unidos, Reino Unido, Israel, Rusia, China y Corea del Sur han desarrollado o desplegado precursores de estas armas", dijo Bonnie Docherty, investigadora especialista en armamento de Human Rights Watch.

Docherty es la autora principal de un informe reciente de esa organización y la Universidad de Harvard en el que se pide la prohibición del desarrollo, producción y uso de las armas letales autónomas, conocidas como robots asesinos.

"Aunque los expertos no se ponen de acuerdo en pronosticar cuándo estas armas podían materializarse, sí coinciden en que su desarrollo es factible y probable si no se dan los pasos necesarios para detenerlo", explicó la experta.

La tesis detrás de esta urgencia es que la prohibición debe llegar antes de que los gobiernos hayan invertido tanto en tecnología para desarrollar estas armas como para no querer dar marcha atrás. "Si el desarrollo no se detiene lo antes posible, existe además el riesgo de que versiones preliminares se usen de manera prematura o caigan en manos de grupos armados sin respeto a la ley".

Y agregó que "la comunidad internacional ya consideró importante en el pasado prohibir ciertos tipos de armas de manera preventiva. En 1995 la ONU prohibió las armas que producen ceguera antes de que se comenzaran a usar".

A diferencia de los polémicos drones, los robots asesinos no precisan de la intervención humana: pueden seleccionar y atacar objetivos de manera autónoma. Uno de los aspectos más controvertidos de las armas autónomas es el debate sobre la moralidad de permitir que una máquina tome la decisión de matar a una persona.

Incluso si el militar supiera que uno de los robots asesinos está a punto de matar a un civil, no podría hacer nada para impedirlo. Del mismo modo, en el caso de un corte en las comunicaciones, el militar no sabría qué está haciendo la máquina ni, por consiguiente, podría evitar algún tipo de actuación indebida.

"En la mayoría de los casos, ni el programador ni el fabricante ni el comandante ni el operador podrían tener responsabilidad legal por los actos indebidos de la máquina", concluyó Docherty.