17 medios de comunicación estadounidenses revisaron los documentos que entregó la ex empleada France Haugen al Congreso este mes.
Kayleigh Bistrain
La cultura interna de Facebook nuevamente está bajo escrutinio por los Facebook Papers.
France Haugen, una exempleada que filtró investigaciones internas de la compañía al diario The Wall Street Journal y luego compareció ante el Senado de Estados Unidos, entregó más de 10 mil páginas de documentos de la empresa a la Comisión de Valores y Bolsa y al Congreso.
Los documentos fueron revisados por un consorcio de 17 medios de comunicación estadounidenses.
En conjunto ofrecen una visión pormenorizada de la cultura interna de Facebook, como su enfoque para combatir la desinformación y la moderación del discurso de odio.
Uno de los puntos centrales de los Facebook Papers es que confirman que la red social no es neutral ante los discursos de odio y desinformación, pues ha decidido deliberadamente no implementar mecanismos en su algoritmo para que éste los elimine.
Hace siete meses, cuando Mark Zuckerberg, CEO de la compañía, testificó ante el Congreso estadounidense, anunció una inversión de miles de millones de dólares para mantener lo que llamó “contenido dañino” fuera de su plataforma.
Pero los documentos muestran que las propuestas de los empleados para disminuir la propagación de este tipo contenido a menudo fueron bloqueadas o anuladas.
Ganancias en detrimento de la seguridad
Una investigación de 2019 citada por Bloomberg dice que los ingenieros contaban con evidencia de que los elementos centrales de la red social, como la viralidad, recomendaciones y optimización de contenido, eran fundamentales para que los discursos de odio y desinformación se propagaran en la plataforma. Por lo que concluyeron que “la mecánica de la red social no es neutral”.
En su comparecencia a principios de mes, Haugen aseguró que Facebook sabe cómo poner un alto a este contenido pero antepone sus ganancias a la seguridad de los usuarios. Este lunes, la compañía reportó ganancias por 9.2 millones de dólares en el tercer trimestre del año, un incremento del 35 por ciento respecto al mismo periodo del año pasado.
Los Facebook Papers también revelan cómo la compañía clasifica a los países para determinar el grado de intervención en la moderación de contenido. El nivel máximo implicaba monitorear el contenido, traducir las normas de la red social a lenguas locales e incluso alertar a funcionarios locales de cualquier problema.
Conforme se reducen los niveles, también disminuyen las medidas hasta solo revisar el material cuando los funcionarios locales lo solicitan.
En países como Etiopía, en guerra civil, Facebook declaró que ofrece los servicios de máxima prioridad. Pero los reportes detallaron que en esa nación no tuvieron la capacidad para hacer frente a la avalancha de contenidos incendiarios. Lo mismo ocurrió en el ataque al Capitolio, en Estados Unidos, el 6 de enero.
Nick Clegg, vicepresidente de Asuntos Globales de Facebook, rechazó los señalamientos contra el gigante tecnológico al asegurar que la premisa de que no ponen en primer lugar a los usuarios y que realizan investigaciones que sistemáticamente ignoran es falsa.
“Sí, somos una empresa y obtenemos beneficios, pero la idea de que lo hacemos a expensas de la seguridad o el bienestar de las personas malinterpreta lo que hacemos y dónde están nuestros propios intereses comerciales”.
Te recomendamos:
El lado oscuro de Facebook: Las investigaciones del Wall Street Journal