paisenvivoecpaisenvivoec
  • Política
  • Economía
  • Internacional
  • Actualidad
  • Deportes
  • Contacto
Leyendo: Premios Nobel de la Paz y activistas de DDHH piden prohibir “robots asesinos”
Compartir
Aa
paisenvivoecpaisenvivoec
Aa
  • Política
  • Economía
  • Internacional
  • Actualidad
  • Deportes
  • Contacto
Have an existing account? Sign In
Síguenos
Actualidad

Premios Nobel de la Paz y activistas de DDHH piden prohibir “robots asesinos”

Última actualización 2012/11/19 at 4:33 PM
Publicado el 19 noviembre, 2012
Compartir
5 Minutos de lectura
Compartir

Organizaciones de defensa de derechos humanos y varios premios Nobel de la Pazinstaron este lunes en Washington a una “prohibición preventiva” mundial de los “robots asesinos”, armas sofisticadas y totalmente autónomas que reaccionan sin intervención humana y que podrían estar operativas en 20 o 30 años, antes “que la ciencia ficción se convierta en realidad”.

La organización de derechos humanos Human Right Watch (HRW) e International Human Rights Clinic y los premios Nobel de la Paz congregados en la Nobel Women’s Initiative, anunciaron ante la prensa en Washington una campaña para instaurar “un tratado internacional que prohíba absolutamente el desarrollo, producción y uso de armas completamente automáticas”, denominados también “robots asesinos”.

Robots similares a los que aparecen en las películas de Hollywood y que podrían disparar sin permiso de los humanos son una posibilidad real y deben de ser prohibidos antes de que los gobiernos comiencen a desplegarlos, afirmó HRW.

El informe “Losing Humanity” (Perdiendo Humanidad), coproducido por la HRW junto a Harvard Law School’s International Human Rights (escuela de derechos humanos internacionales de Harvard), también hace sonar la alarma sobre la ética de esta amenazadora tecnología.

El ejército estadounidense ya lidera el camino en uso de robots militares, especialmente con los aviones no pilotados o drones utilizados para vigilancia o ataques en Pakistán, Afganistán, Yemen u otros lugares. Estos dispositivos son controlados por operadores humanos en bases en tierra y necesitan una autorización para poder matar.

Se cree que los robots automáticos que decidan por ellos mismos cuando disparar podrían desarrollarse en 20 o 30 años o “incluso antes”, afirma el informe de 50 páginas, añadiendo que los sistemas de armas que requieren escasa intervención humana ya existen.

El sistema Raytheon’s Phalanx, utilizados en los barcos de la marina estadounidense, pueden buscar por sí mismo fuego enemigo y destruir proyectiles que apuntan en su dirección. El X47B es un drone de tamaño de un avión que puede despegar y aterrizar en portaaviones sin piloto o incluso repostar en el aire.

Quizá más cerca al tipo de máquina de matar a lo “Terminator” retratado en los filmes de acción de Arnold Schwarzenegger, es un robot centinela de Samsung que ya está siendo usado en Corea del Sur y que cuenta con la capacidad de detectar actividades inusuales, hablar con intrusos y, cuando recibe autorización de un controlador humano, dispararles.

Pasar al piloto automático permitiría a las tropas humanas evadir situaciones peligrosas. El riesgo, sin embargo, es que se dejaría a los robots en una situación que les permitiría tomar decisiones difíciles por si mismos, como distinguir entre civiles y combatientes en zona de guerra.

“Varios gobiernos, incluido el de Estados Unidos, están muy interesados en moverse en esta dirección, muy interesados en eliminar a los soldados del campo de batalla y poner máquinas en su lugar, reduciendo, por tanto, la mortalidad”, afirma Steve Goose, director de la división de armas en HRW.

Mientras que Goose afirma que los “robots asesinos” aún no existen, advirtió de que ya hay precursores y añadió que la mejor manera de prevenir una pesadilla ética es una “prohibición preventiva y exhaustiva en el desarrollo o producción de estos sistemas”.

El problema del control y de la capacidad de toma de decisiones de incluso los robots más sofisticados es que no habría una forma de hacer a nadie responsable por los inevitables errores, afirma Noel Sharkey, profesor de robótica de la Universidad de Sheffield, en Reino Unido.

“Si un robot se equivoca, ¿quién es responsable? Ciertamente no será el robot”, afirmó.

“El robot podría llevar una bala en su computadora y volverse loco. Por lo que no hay forma de determinar realmente quien es responsable y eso es muy importante en las leyes marciales”, concluyó.

También te podría gustar

Olas de calor y lugares que se verán afectados

Informe borrador concluye que Lasso no incurrió en peculado; se recomienda no dar paso a juicio político

Hasta el sábado 6 de mayo se aprobará el informe sobre juicio político a Guillermo Lasso

Alerta por supuesto artefacto explosivo en centro comercial de Guayaquil

Zapata: “Ningún vehículo policial puede estar parado por falta de combustible”

lkAj8N63V 19 noviembre, 2012
Compartir este artículo
Facebook Twitter Email Print
Compartir
Artículo anterior Senadores de Estados Unidos critican gestión de Insulza en la OEA
Siguiente artículo Los tuits se podrán enviar también por email
- Publicidad -
Ad imageAd image

Lo Último

Contratación de personal para trabajar inmediatamente por requerimiento del Ministerio de Transporte
Política
Olas de calor y lugares que se verán afectados
Actualidad Internacional
Firma de acuerdo comercial entre Ecuador y China
Economía
La Asamblea de Ecuador somete a votación el juicio político contra el presidente Guillermo Lasso
Política

Síguenos

paisenvivoecpaisenvivoec
Síguenos

[email protected]

© 2023 País en Vivo. Todos los Derechos Reservados.

  • Política
  • Economía
  • Internacional
  • Actualidad
  • Deportes
  • Contacto

Removed from reading list

Undo
adbanner
AdBlock Detectado
Nuestro sitio trabaja con publicidad para poder funcionar. Por favor agrégalo a lista blanca.
Okay, I'll Whitelist
¡Bienvenido!

Inicia sesión en tu cuenta

Lost your password?