La Oficina de Investigación Naval de EEUU concederá una subvención de 7,5 millones de dólares durante cinco años a investigadores de las universidades de Tufts, Rensselaer Polytechnic Institute, Brown, Yale y Georgetown para que investiguen cómo dotar a los sistemas robóticos autónomos de sentido de la moral, informa Andes, que cita a la revista ‘Defense One’.
«Uno de los argumentos a favor de los robots es que pueden ser mejores que los seres humanos a la hora de elegir qué decisión moral tomar porque pueden tener en cuenta más opciones», dijo el presidente del Grupo de Estudios Éticos en la Universidad Tecnológica de Yale, Wendell Wallach.
El ejército de Estados Unidos prohíbe robots completamente autónomos letales. Y los robots semi-autónomos no pueden seleccionar y atacar objetivos individuales o de grupos específicos que no han sido previamente seleccionados por un operador humano autorizado, incluso en el caso de que el contacto con el operador se corte, explicó Pablo Bello, director del programa de ciencia cognitiva en la Oficina de de Investigación Naval de Defensa.
«Incluso si estos sistemas no están armados, todavía pueden verse obligados a tomar decisiones morales», añadió Bello. Por ejemplo, en un escenario de desastre, un robot puede ser obligado a tomar una decisión acerca de quién debe evacuar o tratar en primer lugar, una situación en la que un robot podría usar un poco de sentido del razonamiento ético o moral.
Pero ¿cómo codificar algo tan abstracto como la lógica moral en un montón de transistores? La gran apertura del problema es por qué el enfoque de marco es importante, dice Wallach . Algunos tipos de moralidad son más básicas , por lo tanto más capaces de código, que otros.
«Uno de los argumentos a favor de dotar de moral a los robots es que pueden ser incluso mejor que los seres humanos en la selección de un curso de acción moral, ya que pueden considerar más cursos de acción «, dijo el científico.
EI experto en robótica Noel Sharkey es un detractor y ha sido muy crítico con aviones no tripulados armados, en general. Sharkey ha argumentado que no se puede confiar en que los sistemas de armas autónomas no se puede confiar respeten el derecho internacional.
Robots asesinos
Diplomáticos instaron el martes a adoptar nuevas leyes internacionales para el uso de «robots asesinos» si esa tecnología se convierte en realidad algún día.
En la primera reunión de Naciones Unidas dedicada al tema, los representantes comenzaron a tratar de definir los límites y las responsabilidades de los llamados sistemas de armas letales autónomas, que podrían ir más allá de los aviones teledirigidos por humanos, conocidos como drones.
El tono de la reunión de cuatro días fue establecido por Michael Moeller, director en funciones de la sede europea de la ONU en Ginebra, quien instó a los delegados a tomar «medidas audaces» para adoptar nuevas leyes preventivas a fin de asegurar que siempre haya una persona dirigiendo cualquier tipo de armamento.
«Con demasiada frecuencia el derecho internacional sólo responde a las atrocidades y el sufrimiento una vez que ha ocurrido», dijo Moeller, un diplomático danés. «Ustedes tienen la oportunidad de tomar medidas preventivas y asegurar que la decisión final de acabar con una vida siga estando firmemente bajo control humano».
Los delegados de muchos de los países dijeron que las leyes existentes no cubren las armas futuras que podrían decidir sus blancos sin intervención humana. «Es indispensable mantener el control de la decisión de matar a otra persona», dijo el embajador alemán Michael Biontino en la reunión.