• |
  • |

Por Claudia Dreifus

Toby Walsh, catedrático en la Universidad de Nueva Gales del Sur, en Sydney, es uno de los principales expertos australianos en inteligencia artificial. Él y otros expertos han dado a conocer un reporte que detalla las promesas y los peligros éticos de acoger la inteligencia artificial (IA).

Walsh ha estado trabajando con la Campaign to Stop Killer Robots (Campaña para Detener a los Robots Asesinos), una coalición de científicos y líderes de los derechos humanos que busca detener el desarrollo de armas robóticas autónomas. The New York Times habló con él en una conferencia y vía telefónica. Ésta es una versión editada de esas conversaciones.

Usted es científico. ¿Cómo se volvió activista en la lucha contra los “robots asesinos”?

Sucedió poco a poco, a partir del 2013. Había estado leyendo mucho sobre armamento robótico. Me di cuenta de que pocos de mis colegas en la IA estaban pensando en los peligros de esta nueva clase de armas. Si es que la gente pensaba en ellas, descartaba a los robots asesinos como algo lejano en el futuro.

Por lo que podía ver, el futuro ya estaba aquí. Drones bombarderos volaban en los cielos de Afganistán. Aunque humanos en tierra controlaban los drones, se está a un pequeño paso técnico de volverlos autónomos. Así que en el 2015, en una conferencia científica, organicé un debate sobre esta nueva clase de armamento. No mucho tiempo después, Max Tegmark, que dirige el Instituto Futuro de la Vida, del Instituto Tecnológico de Massachusetts, me preguntó si podía ayudarle a circular una carta que pedía a la comunidad internacional que aprobara un veto preventivo a todas las armas robóticas autónomas. Yo firmé, y en la siguiente conferencia importante de IA, la circulé. Para el final de esa reunión, teníamos más de 5 mil firmas, incluidas las de personas como Elon Musk, Daniel Dennett y Steve Wozniak.

¿Cuál fue su argumento?

Que no puedes tener a máquinas decidiendo si humanos viven o mueren. Cruzas a nuevo territorio. Las máquinas no tienen nuestra brújula moral, nuestra compasión y nuestras emociones. Las máquinas no son seres morales.

El argumento técnico es que éstas potencialmente son armas de destrucción masiva, y la comunidad internacional ha prohibido hasta la fecha todas las demás armas de destrucción masiva.

¿Por qué prohibir un arma antes de que sea producida?
Es mucho más difícil una vez que caen en las manos equivocadas o se vuelven parte aceptada del kit de herramientas militares.

¿A quién fue dirigida su petición?
A la ONU.

¿Quién se opone al tratado?

Los candidatos obvios son Estados Unidos, Reino Unido, Rusia, Israel, Corea del Sur. China ha pedido una prohibición preventiva al despliegue, pero no al desarrollo de las armas.
Los proponentes de las armas robóticas argumentan que al limitar el número de combatientes humanos, las máquinas podrían hacer que las guerras sean menos mortales.
El problema con ese argumento es que no tenemos ninguna forma de programar para algo tan sutil como el derecho internacional humanitario.

Las guerras robóticas tienen mucho tiempo de ser el tema de películas de ciencia ficción, ¿Tiene una favorita?

No, a la mayoría de los investigadores de IA —y me incluyo— no nos gusta cómo ha abordado Hollywood la tecnología. “2001: Odisea en el Espacio”, de Kubrick, es errada, porque se basa en la idea de que habrá máquinas que tendrán el deseo de autoconservación, y que eso resultará en malevolencia hacia los humanos.
Es erróneo suponer que querrán tomar el control, o incluso protegerse a sí mismas. No tienen consciencia.

Desde el 2013, ha dedicado tanto tiempo a su activismo como a la investigación científica. ¿Se arrepiente de algo?

Tengo una hija de 10 años. Cuando sea grande, no quiero que me diga: “Papá, tuviste una plataforma y autoridad, ¿por que no intentaste detener esto?”.

The New York Times