•  |
  •  |

Por Kevin Roose

Durante los últimos meses, ha estallado un intenso debate en el Valle del Silicio sobre si las grandes compañías de tecnología como Amazon, Google y Microsoft deberían unir fuerzas con el Ejército de EU y agencias como el Servicio de Inmigración y Control de Aduanas.

El debate se ha realizado en gran parte a lo largo de líneas éticas. Por un lado están ejecutivos de tecnología y funcionarios del Gobierno, quienes argumentan que en un momento en que tecnologías como inteligencia artificial (IA) y aprendizaje de máquinas se perfilan para transformar asuntos como la guerra con drones o la seguridad fronteriza, los gigantes de la tecnología tienen un deber patriótico de contribuir.

Del otro lado están los empleados en esas compañías que no quieren que sus herramientas sean usadas para guerra con drones, detenciones de inmigrantes y otros proyectos que consideran inmorales.

Este bando adoptó una postura en Microsoft el mes pasado, cuando un grupo de empleados escribió una carta abierta a ejecutivos de alto nivel exigiéndoles abandonar un contrato con el Ejército que adaptaría HoloLens, el casco de realidad aumentada de la compañía, para ser usado por soldados en el campo de batalla. “Nunca nos apuntamos para desarrollar armas y exigimos tener voz en la forma en que se usa nuestro trabajo”, escribieron los empleados.

Pero hay una pregunta más pragmática que ronda este debate, una que pocas personas hacen: ¿podría la decisión de las grandes compañías de tecnología de buscar contratos polémicos en materia de defensa e imposición de la ley ser un error financiero?

Estos contratos podrían ir acompañados de enormes costos ocultos que rebasan cualquier ganancia a corto plazo.

En 1965, el Departamento de Defensa otorgó un contrato de 5 millones de dólares a Dow Chemical, un fabricante de químicos con sede en Michigan, para producir napalm, un químico altamente incendiario usado por tropas estadounidenses durante la Guerra de Vietnam. Hasta este contrato, Dow Chemical era mejor conocido por producir químicos industriales y plásticos para el hogar como la envoltura plástica Saran Wrap.

Pero a medida que los estadounidenses comenzaron a ver imágenes de niños en Vietnam del Sur con espantosas quemaduras por napalm, los activistas antibélicos boicotearon los productos de Dow Chemical, escenificaron protestas en sus eventos de reclutamiento en campus universitarios y hostigaron a sus ejecutivos con acusaciones de lucrar de forma poco ética con la guerra.

Los ejecutivos de Dow Chemical afirmaron que el napalm era una parte pequeña del negocio de la compañía y que era el deber de la compañía brindar materiales necesarios para el Ejército. Pero su capacidad de reclutamiento se vio afectada y su departamento de mercadotecnia se vio obligado a emprender una larga y costosa campaña para volver a ganarse la confianza del público.

Dow Chemical dejó de producir napalm para el Ejército en 1969, apenas cuatro años después de que empezó. Pero el daño a su reputación persiguió a la compañía durante décadas. En total, es muy probable que el contrato de 5 millones del napalm le costó miles de millones de dólares a Dow. Y podría haberse evitado si ejecutivos de la compañía hubieran escuchado los primeros indicios de oposición, realizado algún análisis de riesgo y cambiado de rumbo.

Las compañías de tecnología de hoy enfrentan la misma decisión que enfrentó Dow Chemical en 1965: aceptar contratos polémicos del Gobierno y arriesgarse a una perjudicial reacción negativa, o dejar esos tratos a los contratistas de defensa convencionales y proteger sus reputaciones. De hecho, rechazar contratos polémicos con el Gobierno podría ser un argumento de ventas.

Affectiva, una empresa de arranque cuyo software usa IA para dar seguimiento a emociones humanas, tuvo varias ofertas iniciales de agencias del Gobierno, entre ellas la CIA, que querían usar el producto para mejorar sus capacidades de vigilancia. Aun cuando la compañía necesitaba el dinero, rechazó los tratos. Affectiva ha recaudado desde entonces más de 50 millones de dólares con otras fuentes y convertido al uso ético de la IA en una parte esencial de su marca.

“Queríamos ser dignos de confianza”, dijo Rana el Kaliouby, cofundadora de Affectiva. “Usamos el valor esencial de la integridad y respetar la privacidad de la gente como forma de eliminar casos de uso”.

 The New York Times