• |
  • |

Por Cade Metz y Mike Isaac

MENLO PARK, California — Mike Schroepfer, el director tecnológico de Facebook, tenía lágrimas en los ojos.

En marzo, un atacante había asesinado a 51 personas en dos mezquitas en Christchurch, Nueva Zelanda, y lo había transmitido en vivo en Facebook. Le tomó a la compañía casi una hora eliminar el video de su sitio. Para entonces, el material sangriento se había difundido por las redes sociales.

Schroepfer enmudeció mientras se hallaba en una sala de juntas donde se hablaba del tiroteo. Sus ojos comenzaron a ponerse llorosos.

“Ya estamos trabajando en esto”, dijo, luego de un minuto. “No quedará resuelto mañana. Pero no quiero volver a tener esta conversación dentro de seis meses. Podemos hacer un mucho mejor trabajo para detectar esto”.

La interrogante es si eso es realmente cierto o si Facebook se está engañando a sí mismo.

Durante los últimos tres años, la red social ha estado bajo escrutinio por la proliferación de contenido falso, engañoso e inapropiado que la gente publica en su sitio. En respuesta, Mark Zuckerberg, el director general de Facebook, ha invocado una tecnología que él dice que ayudará a eliminar los posts problemáticos: la inteligencia artificial (IA).

Schroepfer es la persona en Facebook que encabeza los esfuerzos para desarrollar las herramientas automatizadas para revisar y eliminar millones de esas publicaciones. Pero, en tres entrevistas recientes, reconoció que la tarea es inútil e interminable.

Eso se debe a que cada vez que Schroepfer y sus más de 150 especialistas en ingeniería crean soluciones de IA que detectan y eliminan material nocivo, aparecen publicaciones nuevas y cuestionables que los sistemas de IA jamás han visto antes —y que no son eliminadas. La misión es aún más difícil porque “la actividad negativa” a menudo depende de los ojos con que se mire, y los humanos, ni se diga las máquinas, no pueden ponerse de acuerdo respecto a en qué consiste.

En una entrevista, Schroepfer reconoció que la IA por sí sola no podía curar los males de Facebook.

Schroepfer, de 44 años, está en una posición en la que nunca quiso estar. Durante años, su trabajo fue ayudar a la red social a desarrollar un laboratorio de IA de primera línea, donde las mentes más brillantes pudieran abordar desafíos tecnológicos, como el uso de máquinas para identificar el rostro de personas en fotografías.

Sin embargo, en algún punto del camino, su papel evolucionó hasta convertirse en el de cazador de amenazas y contenido tóxico.

En dos de las entrevistas, comenzó con un mensaje optimista de que la IA podría ser la solución, antes de ponerse emotivo. En cierto momento, dijo que ir al trabajo a veces se había vuelto una lucha. Se le quebró la voz al hablar de la magnitud de los problemas que Facebook enfrenta y el papel que él juega para cambiarlos.

“Jamás bajarán a cero”, dijo sobre los posts problemáticos.

En el 2013, Schroepfer empezó a contratar investigadores especializados en sistemas de IA llamados “redes neurales”, estructuras matemáticas que pueden aprender tareas por sí solas al analizar datos. Él y Zuckerberg vieron la tecnología como algo que la compañía necesitaba para dar el salto.

La IA podía ayudar a la red social a reconocer rostros en fotos y videos posteados en su sitio, dijo Schroepfer, y podía ayudarle a dirigir publicidad y traducir mejor entre idiomas. “Íbamos a crear un nuevo tipo de laboratorio de investigación”, explicó.

Schroepfer también desarrolló una segunda organización, el equipo de Aprendizaje Aplicado de Máquinas, al que se le pidió aplicar las tecnologías del laboratorio de IA de Facebook a usos del mundo real, como reconocimiento facial y herramientas de realidad aumentada.

Sin embargo, parte del trabajo de IA empezó a cambiar. El catalizador fue el ataque terrorista de París en el 2015, en el que rebeldes islámicos asesinaron a 130 personas e hirieron a casi 500 durante ataques coordinados en la Capital francesa y sus alrededores. Después, Zuckerberg le preguntó al equipo de Aprendizaje Aplicado de Máquinas qué podría hacer para combatir el terrorismo en Facebook.

En respuesta, el equipo utilizó tecnología desarrollada en el nuevo laboratorio de IA de Facebook para crear un sistema para identificar propaganda terrorista en la red social. Fue un momento decisivo en el esfuerzo de Facebook para emplear la IA para eliminar posts problemáticos.

En noviembre del 2016, cuando Donald J. Trump fue electo Presidente, Facebook enfrentó una reacción negativa por promover desinformación en su sitio que podría haber influido en los electores y sentado las bases para la victoria de Trump.

Aunque en un principio la compañía desestimó su papel en la desinformación y los comicios, empezó a canalizar recursos técnicos para identificar una amplia gama de contenido no deseado, desde desnudos hasta cuentas falsas. Para mediados del 2017, la detección de contenido tóxico consumía más trabajo en el equipo de Aprendizaje Aplicado de Máquinas que cualquier otra tarea.

Entonces, en marzo del 2018, The New York Times y otros medios reportaron que la consultoría política británica Cambridge Analytica había extraído la información de millones de usuarios de Facebook sin su consentimiento para desarrollar perfiles de electores para la campaña de Trump.

En abril del 2018, un comité parlamentario británico interrogó a Schroepfer durante cuatro horas sobre el escándalo.

“Me fue muy difícil verlo”, comentó Forest Key, director general de una startup de realidad virtual de Seattle llamada Pixvana, quien conoce a Schroepfer desde que trabajaron juntos a fines de los 90. “Vaya responsabilidad”.

Desde sus inicios en Facebook, Schroepfer fue visto como un solucionador de problemas.

Llegó a la compañía en el 2008 para laborar como su jefe de ingeniería. Facebook atendía a unos 2 millones de personas en ese entonces, y el mandato de Schroepfer era mantener el sitio operando al tiempo que se disparaba el número de usuarios. (Ahora tiene más de 2 mil millones de usuarios). El puesto consistía en administrar a miles de ingenieros y decenas de miles de servidores computacionales por todo el mundo.

“La mayor parte del trabajo era como un autobús en llamas rodando colina abajo con cuatro llantas ponchadas. Te preguntas: ¿cómo haces que siga adelante?”, expresó Schroepfer.
En el 2013, fue ascendido a director tecnológico. Sus órdenes eran enfocarse en nuevas áreas de tecnología que la compañía debería explorar.

En una sala de conferencias de Facebook una tarde reciente, Schroepfer abrió dos imágenes en su computadora. Una era de un brócoli y la otra de unos brotes de mariguana amontonados. Algunos en la sala no estaban seguros de cuál era cuál.

Schroepfer había mostrado las imágenes para demostrar un punto. Los sistemas de IA de Facebook podían detectar con precisión patrones en miles de imágenes para ser capaces de reconocer la planta de mariguana. Una vez que la IA detectaba las imágenes, la compañía podía eliminarlas.

El ejercicio no fue sólo una señal de avance, sino también de los límites con los que se estaba topando Facebook. El equipo de Schroepfer ha desarrollado sistemas de IA que la compañía ahora emplea para identificar y eliminar imágenes de mariguana, desnudos y contenido relacionado con terroristas. Pero los sistemas no están detectando todas esas imágenes, ya que siempre hay contenido inesperado.

Identificar imágenes prohibidas es una de las tareas más fáciles para la IA. Es más difícil crear sistemas para identificar artículos noticiosos falsos o discursos de odio. Las noticias falsas pueden modificarse fácilmente para que parezcan reales. Y el discurso de odio es problemático porque es muy difícil que las máquinas reconozcan matices lingüísticos, que en su mayoría difieren de un idioma a otro.

Delip Rao, director de investigación en AI Foundation, una organización sin fines de lucro que explora cómo la inteligencia artificial puede combatir la desinformación, describió el reto como “una carrera armamentista”. La IA se desarrolla a partir de lo que ha llegado antes. Pero las conductas cambian. Los atacantes crean nuevas técnicas. Se convierte en un juego del gato y el ratón.

Schroepfer dijo que Facebook ahora borraba automáticamente 96 por ciento de todos los desnudos de la red social. El discurso de odio era más difícil, admitió —la compañía detecta el 51 por ciento. (Después, Facebook declaró que la cifra había aumentado a 65 por ciento).

No obstante, Facebook, que puede detectar y eliminar automáticamente streaming en vivo de videos problemáticos, no identificó el video de Nueva Zelanda en marzo, explicó Schroepfer, porque en realidad no se parecía a nada que se hubiera subido antes a la red social.

Al diseñar sistemas que identifican violencia gráfica, Facebook trabaja a partir de imágenes existentes: imágenes de gente pateando gatos, autos arrollando a peatones, una persona atacando a otra con un bat de beisbol. Pero, “ninguna de esas imágenes se parecía mucho a este video”, aseguró.

Es por eso que no fue detectado de manera inmediata, explicó, y agregó que había visto el video varias veces para entender cómo Facebook podría identificar el siguiente.
“Desearía poder borrarlo de mi mente”, aseveró.

The New York Times