Organizaciones de defensa de derechos humanos y varios premios Nobel de la Pazinstaron este lunes en Washington a una “prohibición preventiva” mundial de los “robots asesinos”, armas sofisticadas y totalmente autónomas que reaccionan sin intervención humana y que podrían estar operativas en 20 o 30 años, antes “que la ciencia ficción se convierta en realidad”.
La organización de derechos humanos Human Right Watch (HRW) e International Human Rights Clinic y los premios Nobel de la Paz congregados en la Nobel Women’s Initiative, anunciaron ante la prensa en Washington una campaña para instaurar “un tratado internacional que prohíba absolutamente el desarrollo, producción y uso de armas completamente automáticas”, denominados también “robots asesinos”.
Robots similares a los que aparecen en las películas de Hollywood y que podrían disparar sin permiso de los humanos son una posibilidad real y deben de ser prohibidos antes de que los gobiernos comiencen a desplegarlos, afirmó HRW.
El informe “Losing Humanity” (Perdiendo Humanidad), coproducido por la HRW junto a Harvard Law School’s International Human Rights (escuela de derechos humanos internacionales de Harvard), también hace sonar la alarma sobre la ética de esta amenazadora tecnología.
El ejército estadounidense ya lidera el camino en uso de robots militares, especialmente con los aviones no pilotados o drones utilizados para vigilancia o ataques en Pakistán, Afganistán, Yemen u otros lugares. Estos dispositivos son controlados por operadores humanos en bases en tierra y necesitan una autorización para poder matar.
Se cree que los robots automáticos que decidan por ellos mismos cuando disparar podrían desarrollarse en 20 o 30 años o “incluso antes”, afirma el informe de 50 páginas, añadiendo que los sistemas de armas que requieren escasa intervención humana ya existen.
El sistema Raytheon’s Phalanx, utilizados en los barcos de la marina estadounidense, pueden buscar por sí mismo fuego enemigo y destruir proyectiles que apuntan en su dirección. El X47B es un drone de tamaño de un avión que puede despegar y aterrizar en portaaviones sin piloto o incluso repostar en el aire.
Quizá más cerca al tipo de máquina de matar a lo “Terminator” retratado en los filmes de acción de Arnold Schwarzenegger, es un robot centinela de Samsung que ya está siendo usado en Corea del Sur y que cuenta con la capacidad de detectar actividades inusuales, hablar con intrusos y, cuando recibe autorización de un controlador humano, dispararles.
Pasar al piloto automático permitiría a las tropas humanas evadir situaciones peligrosas. El riesgo, sin embargo, es que se dejaría a los robots en una situación que les permitiría tomar decisiones difíciles por si mismos, como distinguir entre civiles y combatientes en zona de guerra.
“Varios gobiernos, incluido el de Estados Unidos, están muy interesados en moverse en esta dirección, muy interesados en eliminar a los soldados del campo de batalla y poner máquinas en su lugar, reduciendo, por tanto, la mortalidad”, afirma Steve Goose, director de la división de armas en HRW.
Mientras que Goose afirma que los “robots asesinos” aún no existen, advirtió de que ya hay precursores y añadió que la mejor manera de prevenir una pesadilla ética es una “prohibición preventiva y exhaustiva en el desarrollo o producción de estos sistemas”.
El problema del control y de la capacidad de toma de decisiones de incluso los robots más sofisticados es que no habría una forma de hacer a nadie responsable por los inevitables errores, afirma Noel Sharkey, profesor de robótica de la Universidad de Sheffield, en Reino Unido.
“Si un robot se equivoca, ¿quién es responsable? Ciertamente no será el robot”, afirmó.
“El robot podría llevar una bala en su computadora y volverse loco. Por lo que no hay forma de determinar realmente quien es responsable y eso es muy importante en las leyes marciales”, concluyó.