• |
  • |

Por Carol Giacomo

A principios de la guerra de Afganistán, Comandos del Ejército que perseguían a rebeldes talibanes a lo largo de la frontera con Pakistán vieron a alguien pastoreando cabras con un radio, que probablemente reportaba la posición de éstos al talibán.

En el marco de las reglas de la guerra, los soldados pueden dispararle a alguien que esté informando a fuerzas enemigas sobre su ubicación, pero estos hombres vieron que el pastor era sólo una niña.

Si ella hubiera estado a la vista del tipo de dron o robot autónomo actualmente en desarrollo, en vez de francotiradores entrenados, éste no podría haber distinguido entre blanco y niña, y la habría matado, de acuerdo con Paul Scharre, quien guiaba a los militares ese día.

Scharre relató este episodio en un discurso a principios de este año en el Centro para Cooperación y Seguridad Internacional de la Universidad de Stanford, que exponía los riesgos a medida que la revolución de la inteligencia artificial se extiende más hacia el campo de batalla.

“¿Cómo diseñarían ustedes un robot para que sepa la diferencia entre lo que es legal y lo que es correcto?”, preguntó. “¿Y cómo incluso empezarían a redactar esas reglas con anticipación? ¿Y si no tuvieran a un humano allí, para interpretarlas, para dar todo ese conjunto de valores humanos a esas decisiones?”.

Por ahora, éstas son preguntas hipotéticas. Dos funcionarios de Defensa de alto rango, que hablaron con The Times de manera extraoficial porque mucho de su trabajo sobre inteligencia artificial es clasificado, dicen que Estados Unidos “no está siquiera cerca” de desplegar un arma completamente autónoma.

Sin embargo, hace tres años, fuerzas azerbaiyanas utilizaron lo que pareció ser un dron kamikaze de fabricación israelí llamado Harop para hacer volar un autobús que trasladaba a soldados armenios. El dron puede automáticamente volar a un sitio, hallar un blanco, bajar en picada y detonar, de acuerdo con el fabricante. Por ahora, está diseñado para tener controladores humanos que puedan detenerlo.

No mucho después de eso, en California, la Oficina de Capacidades Estratégicas del Departamento de Defensa probó 103 drones Perdix no armados que, por sí solos, podían congregarse en torno a un blanco. “Son un organismo colectivo, compartiendo un cerebro distribuido para la toma de decisiones y adaptándose entre sí como enjambres en la naturaleza”, señaló el director de la Oficina en ese entonces, William Roper, en un comunicado del Departamento de Defensa.

El Tracked Hybrid Modular Infantry System, de fabricación estonia, parece un minitanque con armas, cámara y la capacidad de rastrear y disparar a un blanco. Es controlado por humanos, pero su fabricante informa que es “autónomo y autoconducido con creciente asistencia de IA”.

A medida que crece la habilidad de los sistemas para actuar de manera autónoma, quienes estudian los peligros de armas así temen que los planificadores militares pudieran estar tentados a eliminar los controles humanos por completo. Se ha propuesto un tratado para prohibir estas armas letales autodirigidas, pero ha recibido apoyo limitado.

La propuesta prohibición compite con la creciente aceptación de esta tecnología, con al menos 30 países poseedores de sistemas de defensa aéreos y de misiles automatizados que pueden identificar amenazas inminentes y atacarlas por sí solos, a menos que un supervisor humano detenga la respuesta.

El Times of Israel ha reportado que un vehículo robótico armado israelí llamado Guardium ha sido usado en la frontera con Gaza.

También se dice que Gran Bretaña, Francia, Rusia, China e Israel están desarrollando drones de combate furtivos, autónomos y experimentales para operar en el espacio aéreo altamente defendido de un enemigo.

La velocidad con la que está avanzando la tecnología plantea temores de una carrera de armas autónomas con China y Rusia, lo que vuelve más urgente que las naciones trabajen juntas para establecer controles para que los humanos nunca entreguen por completo a las máquinas las decisiones de vida y muerte en combate.

Los altos funcionarios de Defensa de EU que hablaron con The Times dicen que los detractores están indebidamente alarmados e insisten en que los militares actuarán de manera responsable.

Están explorando el uso de la inteligencia artificial para permitir que las armas ataquen con más rapidez y precisión, proporcionen más información sobre campos de batalla caóticos y emitan advertencias tempranas de ataques. En vez de elevar el riesgo de bajas civiles, estos avances podrían reducir muertes al eliminar el error humano, dicen los oficiales.

Por ejemplo, EU está explorando el uso de enjambres de pequeños botes autónomos para repeler amenazas a buques más grandes de la Armada. No obstante, los funcionarios de Defensa dicen que los comandantes estadounidenses nunca aceptarían sistemas totalmente autónomos, porque eso significaría entregar a las máquinas la inteligencia y experiencia de oficiales altamente capacitados.

Si bien la inteligencia artificial ha demostrado ser una herramienta poderosa en numerosos campos, tiene serias vulnerabilidades, como hackeos computacionales, filtración de datos y la posibilidad de que los humanos pudieran perder el control del algoritmo.

Campaign to Stop Killer Robots, una coalición internacional de más de 100 ONGs, empezó a trabajar en el 2012 en un tratado que prohíbe estas armas, pero sólo 28 países han apoyado esa propuesta. En marzo, António Guterres, Secretario

General de la ONU, dijo que “las máquinas con el poder y la discreción para cobrar vidas sin la participación de humanos son políticamente inaceptables, moralmente repugnantes y deberían ser prohibidas por las leyes internacionales”.

The New York Times