Hace unas semanas, un bufete de abogados amenazó con demandar al gigante estadounidense de las redes sociales Meta y a su principal subcontratista de moderación de contenido en África, Sama, por supuestas condiciones laborales inseguras e injustas en el centro de este último en Kenia.
El bufete de abogados, Nzili y Sumbi Advocates alegaron que Sama había violado varios derechos, incluidos los de salud y privacidad, de su personal keniano e internacional. Se exigió que Meta y Sama se adhieran a las leyes laborales, de privacidad y de salud de Kenia, incluido que brinde a sus moderadores un seguro de salud mental adecuado y una mejor compensación.
En las réplicas vistas por TechCrunch, Meta se ha distanciado de las afirmaciones. Sama, que presuntamente despidió a su exempleado Daniel Motaung por liderar una huelga en 2019 por malas condiciones laborales y salariales, también ha negado haber actuado mal.
“El empleo de su cliente fue despedido debido a acciones inaceptables tomadas contra compañeros de trabajo que pusieron en peligro su seguridad. El proceso que condujo a la terminación de su cliente fue justo, claro y bien documentado; no hay absolutamente ninguna base para la acusación de que su cliente fue despedido injustamente del empleo. Del mismo modo, no hay base para la acusación de que su cliente tiene derecho a una compensación”, decía una carta enviada a la abogada de Motaung, Mercy Mutemi, por los abogados de Sama, Bowmans.
El bufete de abogados que representa a Motaung ahora ha amenazado con continuar con los planes de presentar una demanda.
Los problemas para Sama comenzaron cuando una historia de Time detalló cómo la compañía reclutó a sus moderadores con el falso pretexto de que estaban aceptando trabajos en un centro de llamadas. Los moderadores de contenido, contratados de todo el continente, según la historia, solo se enteraron de la naturaleza de sus trabajos después de firmar contratos de trabajo y mudarse a su centro en la capital de Kenia, Nairobi.
Los moderadores revisan las publicaciones de las redes sociales en todas sus plataformas, incluido Facebook, para eliminar a quienes perpetran y perpetúan el odio, la desinformación y la violencia. Entre los muchos requisitos que se espera que cumplan los empleados, se encuentra el de no revelar la naturaleza de sus trabajos a terceros. El salario de los moderadores de contenido en África, agrega el artículo, es el más bajo del mundo. Sama, que se presenta a sí misma como una empresa ética de inteligencia artificial, ha aumentado sus salarios desde la exposición.
El abogado de Motaung alegó que Sama no le otorgó a su cliente ni a sus colegas el apoyo psicosocial y las medidas de salud mental adecuados, incluidos “descansos no planificados según sea necesario, particularmente después de la exposición a contenido gráfico”. Se afirma que la productividad de los empleados de Sama también se rastreó utilizando el software de Meta, para medir el tiempo de pantalla y el movimiento de los empleados durante las horas de trabajo. Sama les concedió “treinta minutos al día con un consejero de bienestar”.
Meta dijo que no estaba al tanto del acuerdo que su subcontratista tenía con Moutang.
“Por lo tanto, no hubo una relación empleador/empleado entre Meta y el Demandante (Motaung), sobre la cual se pueda fundamentar una causa de acción. Por lo tanto, no se puede entablar ninguna acción contra Meta por ningún derecho y/o obligación supuestamente debido al Demandante con respecto a su empleo con Sama, ya que Meta no es y nunca ha sido su empleador”, dijo Anjaarwalla & Khanna LLP, la ley firma representante del Meta.
En nuestro informe anterior, un portavoz de Meta le dijo a TechCrunch que regularmente realizan auditorías a sus socios y alientan a los revisores a presentar quejas cuando surgen problemas. Agregaron: “Asumimos nuestra responsabilidad con las personas que revisan el contenido de Meta con seriedad y exigimos a nuestros socios que brinden pagos, beneficios y soporte líderes en la industria”.