• |
  • |

Por Max Fisher

MENLO PARK, California — En una sala de conferencias con paredes de vidrio en su sede en California, Facebook se enfrenta al odio y la desinformación en todo el mundo, comentario por comentario posteado.

Ha atraído críticas por socavar la democracia y provocar el derramamiento de sangre. Pero para Facebook, es también un problema de negocios.

La compañía, con ganancias de unos 5 mil millones de dólares por trimestre, tiene que mostrar que toma en serio la eliminación de contenido peligroso.

También debe atraer a más usuarios de más países y tratar de conservarlos en el sitio por más tiempo.

¿Cómo puede Facebook monitorear miles de millones de comentarios al día en más de 100 idiomas, todo sin trastocar la expansión que es fundamental para su negocio?

Su solución: una red de trabajadores que usan diapositivas de PowerPoint detallando qué está prohibido. Cada dos martes por la mañana, varias docenas de empleados de Facebook se reúnen para decidir qué se debería permitir que expresen los 2 mil millones de usuarios del sitio.

Las directrices son enviadas a unos 15 mil moderadores alrededor del mundo.

Las reglas secretas son extensas, y convierten a la compañía en un árbitro mucho más poderoso de la expresión global de lo que la misma empresa ha reconocido o admitido públicamente, ha encontrado The New York Times.

The Times recibió más de mil 400 páginas de los manuales de reglas de manos de un empleado que dijo que temía que la compañía ejercía demasiado poder, con insuficiente supervisión, y que también cometía demasiados errores.

Los archivos revelaban numerosas lagunas, sesgos y errores. Los empleados han permitido que el lenguaje extremista florezca en algunos países, mientras que censuran la expresión convencional en otros.

En una ocasión, a los moderadores se les dijo que quitaran peticiones de recaudación de fondos para las víctimas de un volcán en Indonesia porque un copatrocinador de la campaña estaba en la lista de grupos prohibidos de Facebook.

En Myanmar, un error de papeleo permitió que un grupo extremista, acusado de fomentar el genocidio, permaneciera en la plataforma durante meses.

En India, se les dijo erróneamente a los moderadores que marcaran los comentarios críticos de la religión para su posible eliminación.

Los empleados que establecen las directrices tratan de reducir asuntos complejos a simples reglas de sí o no. Luego la empresa subcontrata gran parte de la revisión comentario-por-comentario a firmas externas que reclutan a trabajadores en su mayoría no calificados, muchos contratados de call centers.

Esos moderadores, que a veces dependen de Google Translate, tienen sólo unos segundos para aplicar innumerables reglas a cientos de comentarios o posts cada día.

¿Cuándo está prohibida una referencia a la “jihad”, por ejemplo? ¿Cuándo es un emoji de “risa con lágrimas” una señal de advertencia?

Los moderadores expresan frustración con reglas que, afirman, no tienen sentido y a veces requieren que dejen en el sitio posts que temen pudieran llevar a la violencia. “Sientes que mataste a alguien por no actuar”, dijo uno.

Monica Bickert, directora de administración de políticas globales de Facebook, señaló que la meta es prevenir el daño, y que, en gran medida, la compañía ha sido exitosa. Pero la perfección, apuntó, no es posible.

“Tenemos miles de millones de comentarios todos los días, estamos identificando cada vez más violaciones potenciales usando nuestros sistemas técnicos”, expresó. “A esa escala, incluso si eres 99 por ciento preciso, vas a cometer muchos errores”.

Las directrices de Facebook consisten en docenas de presentaciones desorganizadas de PowerPoint y hojas de cálculo de Excel.

Las pautas para identificar el discurso de odio llenan 200 páginas. Los moderadores deben conocer listas como las seis “comparaciones deshumanizantes designadas”, como las que comparan a los judíos con las ratas.

Influye en políticas públicas

Cada vez más, las decisiones sobre qué comentarios se deberían prohibir equivalen a regular el discurso político. En Estados Unidos, Facebook vetó a los Proud Boys, un grupo pro Trump de ultraderecha.

“El papel de Facebook se ha vuelto tan hegemónico, tan monopolista, que se ha convertido en una fuerza en sí”, dijo Jasmin Mujanovic, experto en los Balcanes. “Ninguna entidad específica, especialmente una empresa con fines de lucro como Facebook, debería tener ese tipo de poder para influir en las políticas y el debate públicos”.

En India, Chinmayi Arun, una erudita legal, identificó errores en las directrices de Facebook. Una diapositiva señala que la ley india prohíbe los llamados a una Cachemira independiente, lo que algunos expertos legales disputan.

La diapositiva instruye a los moderadores a “estar pendiente de” la frase “Liberen a Cachemira” —aunque el lema, común entre los activistas, es legal.

‘Las cosas estallan rápido’

Sin Gobiernos u organismos internacionales que establezcan normas, Facebook experimenta solo. “Gran parte de esto sería mucho más fácil si hubiera terceros autorizados que tuvieran la respuesta”, dijo Brian Fishman, experto en antiterrorismo que trabaja con Facebook.

“A veces estas cosas estallan muy rápido, y tenemos que pensar cuál va a ser nuestra reacción, y no tenemos tiempo para la ONU”. Pero los resultados pueden ser disparejos.

Considere las directrices para los Balcanes, donde el creciente nacionalismo amenaza con desatar de nuevo la violencia.

El archivo sobre esa región, no actualizado desde el 2016, incluye errores extraños. Ratko Mladic, criminal de guerra bosnio aún celebrado por extremistas, es descrito como un fugitivo. En realidad, fue arrestado en el 2011.

Las diapositivas aparentemente están escritas para angloparlantes que dependen de Google Translate, lo cual sugiere que Facebook sigue con una escasez de moderadores que hablen idiomas locales y tengan una mejor idea de qué es el discurso incendiario.

Y Google Translate puede ser poco fiable: en una diapositiva, se refiere a Mladic como “Rodney Young”. Las directrices, indicó Mujanovic, parecen peligrosamente caducas.

Dicen poco sobre los grupos ultranacionalistas que avivan la violencia política.

La lista de odio

El documento más políticamente importante de Facebook podría ser una hoja de cálculo de Excel que nombra a todos los grupos e individuos a los que la compañía ha vetado por fomentar el odio.

Los moderadores tienen instrucciones de quitar todo comentario que elogie, apoye o represente a cualquier figura de la lista. Anton Shekhovtsov, experto en grupos de ultraderecha, dijo sentirse “confundido sobre la metodología”.

La compañía prohíbe una variedad de grupos estadounidenses y británicos, comentó, pero pocos en países donde la extrema derecha puede ser más violenta, sobre todo Rusia y Ucrania.

Los países donde Facebook enfrenta presión gubernamental parecen ser mejor cubiertos que donde no la hay. La red social bloquea a docenas de grupos de ultraderecha en Alemania, pero sólo uno en el vecino Austria.

Los vetos son una especie de atajo, comentó Sana Jaffrey, que estudia la política indonesia en la Universidad de Chicago. Pedir que los moderadores busquen un nombre prohibido es más fácil que pedir que juzguen cuándo las opiniones políticas son peligrosas.

Pero eso significa que en gran parte de Asia y Medio Oriente, Facebook prohíbe grupos religiosos de línea dura que representan a grandes segmentos de la sociedad. Sus decisiones a menudo favorecen a los Gobiernos, que pueden multar o regular a Facebook.

Visión desde Menlo Park

Las políticas de Facebook son ejecutadas en gran parte por moderadores en oficinas en lugares distantes como Marruecos y Filipinas.

Facebook indica que da tiempo de sobra a los moderadores para revisar los comentarios y que no tienen cuotas. Los moderadores aseguran que enfrentan presión para revisar unos mil posts de contenido por día.

Tienen de 8 a 10 segundos para cada comentario, más para los videos. Los moderadores describen sentirse abrumados.

Para algunos, su sueldo está ligado a la velocidad y la precisión. Muchos duran sólo unos cuantos meses agotadores.

Los moderadores tienen pocas maneras, o incentivos, para alertar a Facebook sobre nuevas amenazas o huecos en las reglas.

Un moderador describió una regla para aprobar cualquier comentario si nadie sabe leer el idioma. Esto podría haber contribuido a la violencia en Sri Lanka y Myanmar, donde se permitían rutinariamente los comentarios que alentaban la limpieza étnica. Un obstáculo para frenar el discurso incendiario en Facebook podría ser el mismo Facebook.

La plataforma depende de un algoritmo que tiende a promover el contenido más provocativo. En la sede de la compañía, las preguntas más básicas siguen sin respuesta: ¿qué tipos de contenido llevan directamente a la violencia? ¿Cuándo exacerba la plataforma las tensiones sociales?

Rosa Birch, que dirige un equipo de crisis interno, dijo que ella y sus colegas tienen años planteando estas preguntas. Están progresando, afirmó, pero tal vez nunca tendrán las respuestas definitivas.

Sheera Frenkel, Paul Mozur y Amanda Taub contribuyeron con reportes a este artículo.

The New York Times