Cristina Pombo y Cynthia Martínez*
  •  |
  •  |
  • Edición Impresa

¿Se imaginan un sistema de vigilancia, tipo Gran Hermano, en donde los ciudadanos pudieran ser monitoreados las 24 horas del día? Aunque pareciera una distopía sacada de un capítulo de la popular serie de Netflix, Black Mirror, hoy existen sistemas de vigilancia digital y de adquisición masiva de datos personales que, de no ser regulada, podrían coartar derechos y libertades fundamentales de los ciudadanos.

En el mundo digitalizado que vivimos, cada individuo produce una cantidad masiva de datos. Tan solo en un minuto se envían 16 millones de mensajes de texto y 156 millones de emails. Nuestros móviles y tarjetas de crédito dejan estelas de cada movimiento y compra durante el día. Hay más información sobre nosotros de lo que nos imaginamos. Pero ¿quién tiene acceso a esta información? ¿Quién decide lo que se puede hacer con ella? Con estas preguntas, empezamos a dimensionar la importancia de la gestión ética de los datos.

¿Por qué es importante implementar la gestión ética de datos en América Latina y el Caribe?

Cada vez más actores, tanto públicos como privados, están tratando de escalar su impacto aprovechando el uso de tecnologías para procesar datos personales. Mesurar qué nos gusta, qué consumimos, con quién nos relacionamos y cómo nos movemos, entre otras cosas, permite predecir comportamientos futuros de forma precisa y ofrecer servicios hechos a la medida del cliente.

Es importante reconocer que la explosión de datos masivos y su posible análisis con la inteligencia artificial ha abierto una oportunidad para que los gobiernos mejoren la provisión de servicios sociales. Sin embargo, existe una creciente necesidad de proteger la seguridad y privacidad de los datos usados y establecer normas que aseguren su procesamiento ético. Un nuevo estudio del BID ofrece marcos de referencia sobre qué significa la gestión ética de datos y por qué importa conocer los riesgos de no hacerlo.

Los tres riesgos claves

El primero es el riesgo relacionado a la privacidad de las personas. Y es que el énfasis en la privacidad no es un asunto menor. El avance hacia contextos de vigilancia digital ciertamente tiene implicaciones en la forma que ejercemos libertades y derechos, pero también en la cohesión social y en valores fundamentales como la confianza ciudadana.

Otro importante riesgo es la discriminación algorítmica, que puede darse cuando la discriminación o los sesgos inconscientes que existen en las mentes de los humanos se instalan y proliferan en los sistemas informáticos, en el uso del aprendizaje automatizado y de la inteligencia artificial. Un ejemplo es cuando los sistemas de reconocimiento facial producen más errores al procesar rostros no caucásicos o cuando la automatización en la contratación de trabajadores presenta sesgos de género.

De igual modo, el riesgo de la opacidad ocurre cuando los sistemas de datos no son comprensibles y transparentes respecto a qué clase de información se recolecta, cómo se gestiona y analiza, y con quién se comparte. En este contexto, el ciudadano no puede tener un dominio pleno de los sistemas que afectan su vida cotidiana o de los servicios a los que tiene acceso.

Las buenas prácticas

Gobiernos, empresas y organizaciones han generado una abundancia de principios y marcos de referencia sobre el uso ético de los datos, principios y derechos digitales, así como estrategias sobre el uso responsable de la inteligencia artificial y uso de algoritmos. Entre muchos recursos, nuestro estudio ofrece un compendio de las buenas prácticas acordadas para facilitar la gestión ética de los datos.

“El Reglamento General de Protección de Datos (RGPD) de la Unión Europea se ha convertido en un estándar global porque establece principios básicos sobre el manejo de datos personales, pero también porque coloca al consentimiento como fundamento de la gestión ética de los datos”, apunta César Buenadicha, asesor de innovación digital del Sector Social del BID.

Las iniciativas no se limitan a Europa. En América Latina hay reformas y programas que también avanzan el tema de protección de datos. Por ejemplo, en México, se cuenta con una lista de control para ayudar a los científicos a garantizar la ética en sus protocolos a través de una guía nacional para la integración y el funcionamiento de los comités de ética en investigación.

Preguntas que guían la aplicación de las buenas prácticas

A pesar de eso, el camino por recorrer para América Latina es largo y los lineamientos existentes no detallan prácticas que puedan ser útiles para otros organismos que lidien con aplicaciones y preguntas concretas. En ese sentido, el estudio La Gestión Ética de los Datos ofrece criterios para formular las preguntas adecuadas hacia una implementación adecuada de políticas de datos, sobre todo en el sector social:
-    ¿Para qué se van a usar los datos y qué beneficios genera para las personas?
-    ¿Quiénes se beneficiarán, quiénes pueden afectarse y qué inequidades pueden surgir?
-     ¿Qué datos están disponibles, cuáles son deseables y qué tipo de sesgos conllevan?
-    ¿Hay datos personales o sensibles?

Los derechos digitales son la nueva realidad y conocer las reglas del juego es responsabilidad de todos.

*Cristina Pombo es asesora del gerente del Sector Social del BID en la estrategia 
de economía digital

*Cynthia Martínez trabajó en el Servicio Exterior Mexicano, como oficial de prensa y asuntos políticos de la Embajada de México en Estados Unidos, y como encargada de cooperación regional de la Embajada de México en El Salvador.

Este artículo se publicó en el lbog 
Abierto al público del BID.