Gustavo Beliz
  •  |
  •  |
  • Edición Impresa

I DE II PARTES

En 1942, las tres leyes de la robótica elaboradas por Isaac Asimov fueron pensadas para que un ser humano no sufra daños físicos a manos de un robot. La tecnología ha avanzado mucho desde su día, ahora que la inteligencia artificial (IA) es más que una nueva ola de tecnología.

Es un híbrido único de datos, capital y trabajo, capaz de crear una fuerza productiva completamente novedosa e intervenir en varios otros aspectos de la vida. Frente a estos cambios a nuestro mundo, surgen muchos miedos y preocupaciones que podemos consolidar en al menos dos grandes preguntas: En “Algoritmolandia”, ¿será posible coexistir de una manera digna con los robots? y ¿podemos confiar en los algoritmos que harán decisiones sobre nuestras vidas?

Responder a estos desafíos es posible a partir de un humanismo tecnológico que ponga a las personas como núcleo de los esfuerzos. Aunque suene paradójico: si desea poner al ser humano en el centro de las preocupaciones relacionadas con la inteligencia artificial en nuestras vidas, América Latina y el Caribe (ALC) no pueden dejar de diseñar una política de los robots que guíe su desarrollo de una manera competitiva, rigorosa y a la vez, holística. Esto sirve para minimizar las brechas no solamente entre humano y máquina, sino también entre persona y persona.

Aunque parezcan científicos y objetivos, los algoritmos están impregnados de subjetividad. La lógica de los algoritmos es inductiva. Analizan información pasada y sobre ella hacen predicciones, corriendo el riesgo de mantener el “statu quo”. ¿Son las enormes inequidades, los prejuicios y las desigualdades de género un estado que quisiéramos perpetuar? Claramente, no.

Por eso es importante que, desde América Latina y el Caribe, participemos en espacios de diálogo multilaterales que garanticen la gobernanza de una IA inclusiva en la región y en el mundo, y que formulemos estrategias que toman en cuenta los riesgos éticos de inteligencia artificial articulados.

Actualmente existen múltiples manifiestos con más de 12,000 firmas de científicos, emprendedores y expertos mundiales que advierten los riesgos diversos de dejar decisiones libradas a procesos autónomos sin una adecuada supervisión. Estos son algunos ejemplos que buscan sentar las bases éticas para que la IA no acentúe las desigualdades:

El Instituto de Ingeniería Eléctrica y Electrónica (IEEE, por sus siglas en inglés) publicó un manifiesto con principios éticos para evitar que los sistemas autónomos no violen derechos humanos básicos ni produzcan tampoco daños al ambiente.

La llamada Carta de Copenhague, suscripta por prestigiosos científicos, invita a compartir una visión de progreso que trascienda al concepto de innovación recordando que el ser humano debe estar en el corazón de cualquier acción tecnológica. “La tecnología no puede estar por encima nuestro”, subraya el texto.

En el mismo sentido se expresaron los manifiestos éticos difundidos por el Future of Humanity Institute, de la Universidad de Oxford y  Future of Society, que cuenta con el apoyo de Harvard, que señalan los riesgos de aplicaciones militares de IA y abogan por una gobernanza global que brinde un marco ético.

* Director del Instituto para la Integración de América Latina y el Caribe (INTAL) del Banco Interamericano de Desarrollo (BID).