Moderadores denuncian presiones de las grandes tecnológicas y refuerzan temores sobre seguridad de la red en elecciones

Compartilhe

A pocos meses de las elecciones municipales, la primera contienda electoral brasileña tras la popularización de las herramientas de inteligencia artificial, los profesionales que moderan contenidos en portugués para las principales plataformas denuncian presiones para aumentar la productividad y el empeoramiento de sus condiciones de trabajo.

La situación viene a confirmar la advertencia de autoridades y expertos en derecho digital: reducir costos aumenta el riesgo de desinformación en octubre.

Los moderadores son la primera línea de la seguridad en las plataformas, en contacto directo con la desinformación y el discurso de odio en las redes, que suelen estallar durante campañas electorales. En una rutina agotadora, estos profesionales se encargan de evaluar y clasificar vídeos, imágenes y publicaciones según las normas de la empresa para la que trabajan, para que puedan ser retirados o mantenidos en línea.

Moderadores que trabajan para Meta, YouTube, TikTok y Kwai relataron a Aos Fatos el aumento de la presión diaria, la creciente cantidad de contenidos a analizar y la imposición de objetivos de productividad más difíciles de alcanzar. Basándose en estos informes, Aos Fatos inicia hoy una serie de reportajes sobre la precariedad laboral en las grandes tecnológicas y su impacto en un año electoral.

Los informes sugieren que la ola global de despidos en las empresas puede haber reducido el tamaño de los equipos que trabajan en la seguridad de las redes brasileñas, aunque la falta de transparencia por parte de las empresas — que no están obligadas a revelar el número de empleados encargados de la moderación — impide un diagnóstico más preciso.

Aos Fatos habló con ocho moderadores de contenidos en activo y cuatro antiguos empleados de las plataformas en los últimos meses. Los testimonios se tomaron bajo condición de anonimato, ya que las empresas imponen cláusulas de confidencialidad en sus contratos de trabajo;

  • La mayoría de estos trabajadores son subcontratados;
  • Todos los entrevistados trabajan para el mercado de lengua portuguesa y, aunque son brasileños, más de la mitad están en el extranjero.

Incluso los moderadores que afirman que sus empresas están contratando en lugar de despedir, informan de un aumento significativo en el volumen de contenidos que tienen que procesar cada día, un indicio de que los puestos vacantes no están compensando los puestos cerrados o son insuficientes para seguir el ritmo del aumento de la demanda.

  • Los moderadores que trabajan para YouTube, TikTok y Meta afirman que se les pide que sean cada vez más productivos.
  • En todos los casos, los trabajadores afirman que el número de contenidos que tienen que analizar al día se ha duplicado, como mínimo.
  • El número de tareas de cada moderador varía en función de su complejidad.
  • Los análisis de contenidos individuales suelen llevar menos tiempo que las evaluaciones más complejas de perfiles, por ejemplo.

“Mi proyecto contaba con 120 personas, pero hoy somos unas 50 y no sabemos el motivo de la reducción. De hecho, la empresa tiene la costumbre de cambiarlo todo de repente y no explicar nada, alegando siempre que es decisión del cliente. En el caso de los despidos, sólo nos dijeron que se reducirían los proyectos”, dice un empleado en Lisboa de Cognizant, una de las empresas subcontratadas que presta servicios en la capital portuguesa para YouTube, la plataforma de vídeo de Google.

El analista dice que en las elecciones de 2022 se contrataron equipos temporales de brasileños para los equipos centrados en las elecciones, pero que en marzo de este año aún no había señales de que se fuera a repetir la medida.

“Están reduciendo sus equipos sabiendo que este año hay elecciones en Estados Unidos, elecciones en Brasil y elecciones en Portugal. Este tema es muy importante, influye completamente en nuestras vidas, y la verdad es que no veo que se le preste atención”, afirma.

Los despidos masivos en las empresas tecnológicas comenzaron en 2022 y no hay indicios de que la tendencia se invierta. Con menos empleados, las grandes tecnológicas registran mayores beneficios, pero la prensa internacional ha advertido del impacto de esta medida en la seguridad de las plataformas.

“La moderación de contenidos no se ha resuelto en Brasil y estamos en un escenario peor que en las elecciones de 2020 y 2022”, afirma Yasmin Curzi, profesora e investigadora del Centro de Tecnología y Sociedad de la FGV.

Para la especialista en derecho digital, las empresas están acelerando la sustitución de humanos por moderación con detección automatizada de contenido, que se hace con inteligencia artificial y no tiene capacidad de captar los matices del discurso, especialmente en audio y vídeo. Además, señala, estas tecnologías fueron construidas en Estados Unidos, ignorando las particularidades de otros contextos culturales e idiomas.

Un miembro del Ministerio Público Federal, que habló con nosotros bajo condición de anonimato, expresó su preocupación por el escenario electoral de este año. Para él, el hecho de que el gobierno no haya aprobado el Proyecto de Ley de Fake News (Proyecto de Ley 2.630/2020) puede haber hecho que las empresas se preocupen menos por garantizar la seguridad de la red.

El fiscal recuerda que las elecciones municipales suelen ser un laboratorio de nuevos experimentos de difusión de desinformación, que sirven de aprendizaje para posteriores contiendas. Este año, por ejemplo, es probable que ganen terreno los deep fakes electorales.

Además de la reducción de equipos, el moderador que trabaja para Cognizant en Lisboa dice que la carga de trabajo ha aumentado, con la imposición de objetivos de calidad difíciles de alcanzar y amenazas de despido por justa causa para quienes no los cumplan.

“Cuando empecé, tenía que analizar 45 cuentas en cinco horas, y esto fue aumentando hasta que llegó un momento en que había 60 cuentas. Es humanamente imposible. Tienes que analizar una cuenta en cinco minutos sabiendo que a veces tiene 300 vídeos y tienes que ver al menos 40 vídeos para tomar una decisión”, se queja.

El trabajo se somete a un análisis de calidad y, si el porcentaje de acierto en la toma de decisiones cae por debajo del objetivo del 90%, los moderadores pasan por un programa de recuperación e incluso pueden perder su trabajo. "Creemos que están creando una forma de despedirnos sin pagar nuestros derechos o presionándonos psicológicamente para que dimitamos".

Contactado por Aos Fatos, YouTube afirma que sus “equipos centrados en las elecciones han estado trabajando las 24 horas del día para garantizar que tengamos las políticas y sistemas adecuados para apoyar las elecciones en todo el mundo en 2024”. Según la empresa, el número de vídeos eliminados se triplicó en el primer trimestre de 2024 (770.000), en comparación con el mismo período de 2022 (211.580). La plataforma también dice que el equipo de Confianza y Seguridad de YouTube se vio menos afectado que otros equipos por los despidos de Google en enero de 2022, que actualmente está contratando para más de 50 puestos y que continúa exigiendo a sus socios que “proporcionen la salud mental y el bienestar necesarios” para sus empleados .

Ilustração mostra a silhueta de uma cabeça em preto com uma mancha abstrata branca na frente. Ao fundo aparecem figuras geométricas em tons de rosa, preto e verde abacate.

Trastornos psicológicos

Un moderador subcontratado de Meta que trabaja en Bogotá relata que también ha visto aumentar la presión y la carga de trabajo en el último año. “Cada vez nos exigen más trabajo. Al principio hacíamos 100 al día y ahora estamos en los 400”, dice.

Reclutado por LinkedIn justo al inicio de la moderación portuguesa de Meta en Colombia, en 2022, el brasileño asegura que sintió que “la cosa había cambiado al año” de su llegada al país y relata haber sido testigo de cómo compañeros desarrollaban trastornos psicológicos. “No veo la hora de salir de aquí. Es una cultura de trabajo tóxica”.

La historia es secundada por otro trabajador tercerizado de Meta en Bogotá, quien dice que el número de perfiles que su actual línea de moderación tiene que analizar por día se ha duplicado, pasando de alrededor de 50 a 100. “No queremos que llegue al punto en que realmente afecte la calidad”, dice el brasileño. Según él, el aumento de la carga de trabajo no se traduce en más ingresos para los moderadores, ya que no se les paga por producción.

La moderación de Meta en Colombia es responsabilidad de la multinacional Teleperformance. Empleados de la empresa entrevistados por Aos Fatos estiman que unos 500 brasileños trabajan en Bogotá en la seguridad de Facebook, Instagram y WhatsApp, así como un número similar de hispanohablantes nativos que dominan el portugués.

Uno de los trabajadores con que hablamos dice que se esperaba una nueva remesa de unos 100 brasileños en Bogotá en el primer semestre del año para reforzar la operación, pero su informe es pesimista. “Siempre hacen falta moderadores, y creo que se hace a propósito”.

La filial colombiana de Teleperformance ya fue objeto de denuncias por las condiciones laborales a las que estaban sometidos los moderadores de otra plataforma, TikTok.

Aos Fatos no identificó a ningún brasileño moderando para la plataforma china en Bogotá. En São Paulo y Lisboa, sin embargo, los proveedores de servicios de TikTok también acumulan quejas.

“El volumen de trabajo ha aumentado mucho”, se queja un moderador que vive en Brasil y que ha visto cómo la demanda se ha más que duplicado en un año. “Antes moderaba unos 500 vídeos y hoy son 1.200”.

Según el empleado de la plataforma -uno de los pocos que no está subcontratado-, su caso no es puntual y, debido al aumento de la presión, muchos de sus compañeros “están sufriendo problemas psicológicos por exponerse demasiado a vídeos bizarros durante el día”. Aunque la empresa ofrece asesoramiento psicológico, el moderador considera que no es suficiente.

En los últimos meses, TikTok ha publicado anuncios en LinkedIn para moderadores de contenidos. En marzo, sin embargo, la empresa despidió a más de 50 empleados de su equipo de calidad. Con sueldos más altos que los moderadores, estos analistas se encargaban de auditar la moderación e identificar tendencias que necesiten atención por parte de los equipos: una nuevo trend que infrinja una norma, por ejemplo.

“Antes, analizábamos qué políticas de seguridad necesitaban mejoras. Por ejemplo, ¿qué palabras se están utilizando en este momento que caracterizan el discurso de odio? O, de cara a las elecciones de 2022, ¿qué tendencias y ataques no están cubiertos por nuestras políticas, para poder actualizarlas? Hoy este análisis ya no funciona”, describe uno de los despedidos.

Según el ex empleado de la empresa, otro sector afectado por los recientes cambios en los equipos fue el análisis de comentarios, que considera es “donde reside gran parte del discurso de odio”.

También en los proyectos de TikTok gestionados por Teleperformance en Portugal, los testimonios indican que en los últimos meses se han cerrado algunos frentes de moderación, como la línea especializada en depresión. Allí siguen circulando rumores de que otros proyectos correrán la misma suerte.

“No sabemos nada, últimamente ni siquiera los supervisores saben nada”, dice una empleada que trabaja en Lisboa y que, desde mediados del año pasado, escucha rumores de que el proyecto en el que trabaja también puede ser, como se dice en la jerga corporativa, “descontinuado”.

Este año, Teleperformance, en Lisboa, ha sido escenario de protestas de los empleados por mejores condiciones de trabajo. La ola de descontento en la capital portuguesa también provocó una huelga en la unidad local de Accenture, que alberga varias de las líneas de moderación de Meta.

En un comunicado enviado a Aos Fatos, TikTok afirmó que, en marzo, reestructuró “un equipo específico” dentro de la organización y que esto “nos permitió mejorar aún más los procesos de garantía de calidad”. La compañía afirma que “ningún moderador de contenido se vio afectado” y que continúa contratando a nivel mundial para su equipo de seguridad. La plataforma también afirma que pretende invertir, “sólo este año, más de 2 mil millones de dólares en esfuerzos de Confianza y Seguridad” y que utiliza “un enfoque basado en evidencia para desarrollar programas y recursos que contribuyan al bienestar psicológico de los moderadores”. Meta no respondió.

Equipos en China

La moderación de Kwai en Brasil es ahora responsabilidad de dos consultoras especializadas en el mercado chino: IEST Group y Neusoft, con sede en São Paulo. “Había tres o cuatro empresas, entre ellas la mía, pero algunas fueron eliminadas porque no prestaban el servicio que querían”, explica un empleado de la plataforma china.

Según el empleado, el cambio se produjo por las exigencias de Kwai en cuanto a la calidad del servicio prestado. Sin embargo, desde entonces, la moderación de las vidas y los comentarios de los usuarios se ha transferido a equipos en China – no fue posible obtener información sobre el número de empleados o su fluidez en portugués.

Los proveedores de servicios de Kwai no se han quejado de un aumento de la carga de trabajo en el último año, sino todo lo contrario: afirman que el número de vídeos ha disminuido. Sin embargo, la mayor queja se refiere a las directrices de la empresa sobre lo que debe y no debe publicarse. Según otro de los moderadores de la plataforma, a los equipos se les dice, por ejemplo, que dejen pasar piezas de desinformación que simulan contenidos periodísticos, con el argumento de que otros equipos las analizarán.

“Dicen que tienen un equipo de seguridad, pero es de China. Empezaron a llegar más y más vídeos de este tipo y nos pareció que el equipo de seguridad no hacía nada al respecto, ninguno se bloquea”, critica. “¿Cómo los va a ver el equipo de seguridad si pasamos estos vídeos como “permitidos”? No se entiende quién es este equipo”.

El joven denuncia una creciente tensión con la proliferación de “contenidos tendenciosos o problemáticos”. “En 2022 estábamos seguros de que éramos moderadores y cuidábamos la seguridad. Hoy no nos veo ocupándonos de la seguridad, la preocupación es el engagement”.

Kwai es objeto de una investigación abierta en enero por el Ministerio Público Federal (MPF), a raíz de un informe de Piauí que reveló, a partir de documentos y entrevistas con empleados y ex empleados, que la plataforma china había pagado por la producción de desinformación, perfiles clonados y otros contenidos deshonestos para impulsar su operación.

Uno de los ejes de la investigación del MPF sobre Kwai es la promoción de contenidos que explotan la sexualización de menores, lo que ya ha sido mostrado en reportajes de Aos Fatos y Núcleo.

Kwai le aseguró a Aos Fatos que escanea constantemente para identificar y eliminar contenido falso y que, en la segunda mitad de 2023, eliminó 4.252.536 vídeos y prohibió 577.461 cuentas en todo el mundo por violar sus políticas. Según la empresa, la moderación de contenido potencialmente desinformativo pasa por tres procesos distintos de moderación humana, que finaliza con la verificación por parte de agencias de verificación de datos, incluida Aos Fatos, con quien Kwai tiene una asociación.

La plataforma también afirma que, este año, con el foco puesto en las elecciones municipales, aumentó su equipo de moderación en un 15% y prohibió la publicidad y los boosts de cualquier contenido relacionado con el proceso electoral.

Arte no formato de uma faixa que divide o texto, elaborada com formas abstratas nas cores branco, preto, rosa e verde abacate.

Corte Electoral

En abril, el Proyecto de Ley de Fake News —que propone la regulación de las plataformas- volvía casi al punto de partida después de que el presidente de la Cámara de Diputados, Arthur Lira (PP-AL), anunciara el retiro del ponente del proyecto y la creación de un grupo de trabajo para rediscutir la propuesta, que llevaba un año paralizada en la Cámara.

En un intento de llenar el vacío legal resultante de las dificultades del Congreso para aprobar el proyecto de ley, el TSE (Tribunal Superior Electoral) aprobó en febrero una serie de resoluciones que se aplicarán en las elecciones de octubre.

Las normas estipulan, entre otras medidas, reglas para el uso de IAs en campañas políticas — incluyendo la previsión de que sean procesados los candidatos que utilicen deep fakes contra sus oponentes.

Un artículo también presiona a las plataformas, diciendo que pueden ser consideradas responsables asociadas, si no retiran, por ejemplo, posts con incitación al odio o ataques al Estado democrático de derecho -como los que instigaron la invasión de la sede de los tres poderes el 8 de enero de 2023.

Sin la aprobación del Proyecto de Ley de Fake News, sin embargo, la norma del TSE choca con el Marco Brasileño de Derechos Civiles en Internet (Ley nº 12.965/2014), que establece que las plataformas sólo son responsables por el contenido de terceros si no cumplen con una orden judicial para retirarlo.

“Mientras no veamos a los moderadores de contenido como una pieza fundamental, no tiene sentido que haya una resolución del TSE. Habrá casos individuales que lleguen a los tribunales, pero el problema estructural seguirá existiendo”, afirma Yasmin Curzi.

La investigadora de FGV cree que las plataformas deberían firmar acuerdos con el TSE, prometer mejoras y publicitar campañas para animar a la gente a votar, “pero los compromisos de moderación de contenidos seguirán significando el “coste de contratar personal”, que es lo único que quieren reducir ahora”.

“Las plataformas no van a hacer nada que implique costos. Es el Estado el que tiene que investigarlo y obligarles a adaptarse, como hace con cualquier otra empresa”, concluye.

El camino de la investigación

En una entrevista realizada para otro número, el reportaje escuchó de un representante del Ministerio Público preocupaciones sobre las elecciones de este año, las cuales fueron repetidas por expertos. Los encuestados también se quejaron de la falta de datos para poder evaluar la situación.

Para colmar el vacío, el informe identificó, a través de las redes sociales, a empleados que trabajan para las principales plataformas y envió decenas de solicitudes de entrevistas, la mayoría de las cuales fueron rechazadas debido a la confidencialidad de los contratos. Para proteger a quienes aceptaron hablar, se omitieron los nombres.

Finalmente, el informe buscó cada una de las plataformas, brindando un informe detallado de todas las afirmaciones y críticas que aparecían en el texto, para que las empresas tomaran posición.


Este reportaje forma parte de una serie de investigación de Aos Fatos sobre la moderación en portugués en las principales redes sociales. En alianza con Clip (Centro Latinoamericano de Investigación Periodística), este informe también fue publicado en español. Aquí está la versión en portugués

Compartilhe

Leia também

Ações clandestinas da ‘Abin paralela’ realçam violências reais

Ações clandestinas da ‘Abin paralela’ realçam violências reais

falsoIdosa foi presa por tráfico, não por participar dos atos golpistas do 8 de Janeiro

Idosa foi presa por tráfico, não por participar dos atos golpistas do 8 de Janeiro

falsoLula devolveu 423 presentes recebidos durante mandatos anteriores

Lula devolveu 423 presentes recebidos durante mandatos anteriores