fbpx
Vie, Oct 18, 2019

LA RADIO QUE SE VE, SE SIENTE Y SE ESCUCHA

¿Puede la inteligencia artificial participar en el campo de batalla?

Esa es la pregunta que está trayendo de cabeza al Departamento de Defensa de Estados Unidos, que ha tenido que clarificar recientemente sus normas sobre cómo son los robots armados automatizados que quiere instalar en su equipo.El ejército estadounidense ha destacado que los humanos siempre tendrán la decisión final sobre el disparo para evitar cualquier acción letal por parte de las máquinas a través de un "veto".

Estas afirmaciones se producen luego de que el organismo anunciara que quiere buscar socios para desarrollar armas inteligentes capaces de elegir sus propios objetivos en el campo de batalla.El plan de Estados Unidos es actualizar sus equipos actuales con esa tecnología.

Se trata del proyecto ATLAS (Advanced Targeting and Lethality Automated System) -Sistema Automático Avanzado de Objetivo y Letalidad, en español- que busca proporcionar inteligencia artificial a los carros de combate para "identificar y atacar objetivos al menos el triple de rápido que con el actual proceso manual", según la web del Ejército estadounidense.La idea es que esos vehículos y las máquinas inteligentes proporcionen a los soldados un mayor nivel de precisión. Pero las críticas no se han hecho esperar.

"Robots asesinos"

Algunos analistas se han mostrado preocupados. Algunos de ellos integran una alianza global de grupos no gubernamentales llamada Campaign to Stop Killer Robots (Campaña para Detener a Robots Asesinos) que se formó en 2012 y ha ganado fuerza en los últimos días.

Campaña para prohibir los "robots asesinos"

Noel Sharkey, vocero de ese grupo y profesor de inteligencia artificial y robótica en la Universidad de Sheffield, Reino Unido, le dijo a Army Technology (un sitio de noticias especializado en tecnologías para la defensa) que"no existe un control humano significativo si el arma robótica elige el objetivo y el único papel del humano es 'vetar' esa decisión".Sharkey sostiene que para que sí haya un control humano importante, éste debe poder "elegir posibles objetivos para determinar su legitimidad para cada ataque antes de disparar".

No es el único que tiene sospechas sobre el programa.

"La controversia sobre ATLAS demuestra que persisten las objeciones tecnológicas y éticas respecto a a automatizar los sistemas de armamento", dijo Michael C. Horowitz, politólogo de la Universidad de Pensilvania, EE.UU., en declaraciones a Defense One.

La Directiva 3000.09

"Es muy importante que cualquier revisión del programa ATLAS no solo aclare el grado de autonomía y el nivel de participación humana, sino que también garantice que cualquier incorporación de la inteligencia artificial se produzca de manera que garantice la seguridad y la fiabilidad".No obstante, el Departamento de Defensa dijo que siguió las normas sobre los robots armados que estipula la llamada Directiva 3000.09, una norma estadounidense según la cual cualquier acción letal siempre la decide un humano, quien además debe tener la capacidad de anular las decisiones propuestas por la máquina.

En su sitio web, el Ejército de Estados Unidos dijo que tiene "el deseo de aprovechar los avances recientes en visión computacional e inteligencia artificial/aprendizaje automático para desarrollar una tecnología de adquisición autónoma de objetivos".También explicó que esa tecnología -el programa ATLAS- estará integrada en sus vehículos de combate para ganar velocidad y precisión a la hora de identificar y atacar objetivos.

Por ahora, el Departamento de Defensa está buscando socios comerciales para este proyecto.Según una encuesta elaborada por la Campaña para Detener a Robots Asesinos en enero de 2019 con encuestados de 26 países, al menos tres de cada cinco personas se oponen al desarrollo y uso de armas completamente autónomas.