In den sozialen Netzwerken zeigen viele Creator die schönen Seiten ihres Lebens. Sie präsentieren eine heile Welt voller glücklicher Momente. Dass auf Social-Media-Plattformen oft auch sehr grausame Inhalte wie Tierquälerei, Missbrauch oder Mord hochgeladen werden, bekommen viele Nutzerinnen und Nutzer dabei gar nicht mit. Das verhindern Content-Moderatorinnen und -Moderatoren. Ihr Job ist es, genau solche schädlichen Bilder und Videos von den Plattformen zu löschen. In Kenia beschäftigt Meta Hunderte von ihnen über Sub-Unternehmen. Wie aus einem Medienbericht hervorgeht, wollten die Moderierenden aus Kenia eine Gewerkschaft gründen, um ihre Rechte zu stärken und psychologische Betreuung zu bekommen. Der US-Konzern schien allerdings etwas dagegen zu haben und entließ sie, bevor es dazu kommen konnte.

Meta wehrt sich – ohne Erfolg

Als gegen dieses Vorgehen Klage eingereicht wurde, entgegnete Meta, dass die Arbeitskräfte aus Kenia nicht für ein US-amerikanisches Unternehmen tätig wären, da sie bei Meta nicht angestellt seien und der Konzern in dem Land nicht ansässig ist. Vor einigen Tagen entschied ein kenianisches Berufungsgericht allerdings, dass Meta als Betreiber von Facebook sehr wohl für die Content-Verwaltenden zuständig ist. Somit steht dem Verfahren gegen den Konzern nichts mehr im Wege. Daniel Motaung aus Südafrika sowie 185 weitere Moderatorinnen und Moderatoren fordern aufgrund ihrer Rauswürfe Schadensersatz. Umgerechnet etwa 15.600 Euro pro Person für unfaire Arbeitspraktiken und das Doppelte für die Verletzung ihrer Rechte. Eine vom Gericht vorgeschlagene außergerichtliche Einigung mit dem Konzern kam nicht zustande.

Erkrankungen aufgrund belastender Bilder

Die Klägerinnen und Kläger heben hervor, dass die Moderation von Facebook-Beiträgen eine erschöpfende und für die mentale Gesundheit toxische Tätigkeit sei. So wurden sie während ihrer Arbeit immer wieder mit Videos und Bildern von Vergewaltigungen, Folter und Enthauptungen konfrontiert. Das blieb nicht ohne Konsequenzen: Dem Medienbericht zufolge führte das Ansehen dieser grafisch expliziten Inhalte zu posttraumatischen Belastungsstörungen bei einer erheblichen Anzahl von Moderierenden. Demnach können Betroffene in Extremfällen nicht mehr arbeiten. Obwohl Meta angeblich von diesen Zuständen wusste, gewährte der Konzern keine psychologische Hilfe und verpflichtete die Mitarbeiterinnen und Mitarbeiter zum Schweigen. Ein weiterer schwerer Vorwurf der Klagenden: Sie wären in die Irre geleitet und ausgenutzt worden. So hätten sie sich auf Jobs wie “Quality Analyst” beworben und nicht direkt als Content-Moderator.

Categories: Uncategorized

Call Now Button