Am 23. Januar 2024 starteten Human Rights Watch, Social Media Exchange (SMEX), INSM Foundation for Digital Rights, Helem und Damj Association die Kampagne „Secure Our Socials“, mit der sie den Meta-Konzern (Facebook, Instagram) zu mehr Transparenz und verantwortungsvollem Handeln auffordern. Konkret geht es darum, Lesben, Schwule, Bisexuelle und Transgender-Personen (LGBT) in der Region des Nahen Ostens und Nordafrikas (MENA-Region) vor digitalem Targeting durch staatliche Akteure und Privatpersonen auf den Plattformen von Meta zu schützen.
Im Februar 2023 veröffentlichte Human Rights Watch einen Bericht über das digitale Targeting von LGBT-Personen in Ägypten, Irak, Jordanien, Libanon und Tunesien und dessen Folgen in der realen Welt. Der Bericht beschreibt detailliert, wie Regierungsbeamte in der gesamten MENA-Region LGBT-Personen aufgrund ihrer Online-Aktivitäten in sozialen Medien, auch auf Plattformen von Meta, ins Visier nehmen. Sicherheitskräfte haben LGBT-Personen in sozialen Medien und auf Dating-Plattformen aufgespürt, sie online erpresst, belästigt und gedoxxt, geoutet und sie zudem auf Grundlage von unrechtmäßig erlangten digitalen Fotos, Chats und ähnlichen Informationen strafrechtlich verfolgt. Betroffene von Belästigung im Internet, meist in öffentlichen Posts auf Facebook und Instagram, mussten mit weitreichenden Folgen in der realen Welt rechnen, die ihr Leben oft stark beeinträchtigten.
Die Kampagne „Secure Our Socials“ stützt sich auf den genannten Bericht und dessen Empfehlungen, die unter anderem an Meta gerichtet sind. Sie benennt aktuelle Probleme und fordert die Plattformen von Meta auf, insbesondere Facebook und Instagram, aussagekräftige Daten über Investitionen in die Sicherheit der Nutzer*innen zu veröffentlichen, etwa im Zusammenhang mit der Inhaltsmoderation in der MENA-Region und weltweit.
Am 8. Januar 2024 schickte Human Rights Watch ein offizielles Schreiben an Meta, um die zuständigen Mitarbeitenden über die Kampagne und ihre Ziele zu informieren und Meta um eine Stellungnahme zu bitten. Meta hat am 24. Januar auf das Schreiben geantwortet.
5. Nach welchen Kriterien entfernt Meta im Allgemeinen Inhalte von seinen Plattformen?
6. Inwiefern weist die Inhaltsmoderation von Meta für LGBT-Personen in der MENA-Region Lücken auf?
9. Wie können Regierungen LGBT-Personen online und offline besser schützen?
10. Wie können Sie die Kampagne unterstützen?
Social-Media-Plattformen können ein wichtiges Medium für Kommunikation und Empowerment sein. Gleichzeitig sind LGBT-Personen auf der ganzen Welt unverhältnismäßig stark von Missbrauch im Internet betroffen. Insbesondere in der MENA-Region nutzen LGBT-Personen und Gruppen, die sich für LGBT-Rechte einsetzen, digitale Plattformen für ihr eigenes Empowerment, um Zugang zu Informationen zu erhalten, ihre Bewegung weiter aufzubauen und sich zu vernetzen. Da die Regierungen in der MENA-Region die Arbeit von LGBT-Gruppen verbieten, haben sich entsprechende Aktivist*innen hauptsächlich im Internet organisiert, um Gewalt und Diskriminierung gegen die LGBT-Community offenzulegen. Während digitale Plattformen für die LGBT-Community ein effizientes und zugängliches Werkzeug sind, um an die öffentliche Meinung zu appellieren, Rechtsverletzungen aufzudecken und als ihr Sprachrohr dienen, sind sie gleichzeitig auch zum Werkzeug für staatliche Unterdrückung geworden.
Auf der Grundlage von Untersuchungen der internationalen Menschenrechtsorganisation Article 19, der Electronic Frontier Foundation (EFF), der Association for Progressive Communication (APC) und anderen Organisationen hat Human Rights Watch dokumentiert, wie staatliche Akteure und Privatpersonen LGBT-Personen in der MENA-Region aufgrund ihrer Online-Aktivitäten ins Visier genommen haben, was einen eklatanten Verstoß gegen ihr Recht auf Privatsphäre und andere Menschenrechte darstellt. In der gesamten Region überwachen die Behörden soziale Medien manuell, erstellen gefälschte Profile, um sich als LGBT-Personen auszugeben, und durchsuchen widerrechtlich persönliche Geräte von LGBT-Personen. Darüber hinaus ziehen sie unrechtmäßig erlangte digitale Fotos, Chats und ähnliche Informationen, die von den Mobilgeräten und Social-Media-Konten von LGBT-Personen stammen, als „Beweise“ heran, um sie zu verhaften und strafrechtlich zu verfolgen.
LGBT-Personen und -Aktivist*innen in der MENA-Region wurden im Internet aufgespürt, online erpresst, geoutet und belästigt. Ihnen wurden Mord, Vergewaltigung und andere Formen physischer Gewalt angedroht. Strafverfolgungsbehörden spielen bei diesen Übergriffen eine zentrale Rolle, denn mitunter sind sie es, die die Belästigung im Internet überhaupt initiieren, etwa indem sie Fotos und Kontaktinformationen von LGBT-Personen in den sozialen Medien veröffentlichen und Hass gegen die LGTB-Community schüren.
Für von digitalem Targeting betroffene LGBT-Personen in der MENA-Region hatten die Angriffe auf sie im Internet auch weitreichende Folgen in der realen Welt, mit denen einige jahrelang zu tun hatten. Zu den unmittelbaren Folgen zählen etwa willkürliche Verhaftungen, Folter und andere Misshandlungen in der Haft, einschließlich sexueller Übergriffe.
Digitales Targeting hat außerdem auch dazu geführt, dass LGTB-Personen es nicht mehr wagen, sich frei in der Öffentlichkeit auszudrücken. LGBT-Personen, die ins Visier genommen wurden, reagierten darauf mit Selbstzensur im Internet, auch im Hinblick darauf, welche digitalen Plattformen sie wie nutzen. Diejenigen, die ihre Identität nicht verbergen können oder wollen oder deren Identität ohne ihre Zustimmung aufgedeckt wurde, berichteten von unmittelbaren Konsequenzen, von Belästigung im Netz bis hin zu willkürlicher Verhaftung und Strafverfolgung.
LGBT-Personen in der MENA-Region berichteten, dass sie infolge von Belästigung im Internet ihren Job verloren haben, familiärer Gewalt – einschließlich Konversionspraktiken – ausgesetzt waren, aufgrund von Online-Interaktionen erpresst wurden, dass sie ihre Telefonnummer und ihren Wohnsitz wechseln, ihre Konten in den sozialen Medien löschen und sogar aus ihrem Land fliehen mussten und aufgrund der Verfolgung im Internet unter schweren psychischen Folgen litten.
- Was hat es mit der Kampagne „Secure Our Socials“ auf sich, mit der HRW und seine Partner Meta auffordern, für Änderungen zu sorgen?
Meta ist das größte Social-Media-Unternehmen der Welt. Es steht daher in der Verantwortung, seine Nutzer*innen vor Missbrauch auf seinen Plattformen zu schützen. Facebook und Instagram sind die beiden wichtigsten Plattformen, auf denen LGBT-Personen in der MENA-Region durch staatliche Akteure und Privatpersonen digital ins Visier genommen werden. Eine konsequentere Durchsetzung und Verbesserung der Richtlinien und Praktiken kann das digitale Targeting erschweren und damit die Nutzung der Plattformen für alle Menschen, insbesondere für die LGBT-Community in der MENA-Region, sicherer machen.
Mit der Kampagne „Secure Our Socials“ fordern Human Rights Watch und seine Partner Meta dazu auf, bei der Moderation von Inhalten transparenter und konsequenter vorzugehen und die die gesamte Ausgestaltung ihrer Plattformen stärker an den Menschenrechten von LGBT-Personen auszurichten. Damit baut die Kampagne auf bereits bestehenden Initiativen auf, die Social-Media-Plattformen und Technologieunternehmen dazu zu bewegen sollen, verantwortungsvoller zu handeln und die Menschenrechte ihrer Nutzer zu respektieren, wie die Santa Clara Principles on Transparency and Accountability in Content Moderation, die Kampagne „Year of Democracy“ von Digital Action und „Design from the Margins“ von Afsaneh Rigot. Die Kampagne hat auch wertvolle Unterstützung und Beiträge von verschiedenen zivilgesellschaftlichen Gruppen erhalten.
Als ersten Schritt in Richtung Transparenz fordert die „Secure Our Socials“-Kampagne Meta auf, offenzulegen, welche Summen das Unternehmen jährlich in die Sicherheit der Nutzer*innen investiert. Meta soll außerdem überzeugend erklären, in welchem Verhältnis die Investitionen in Vertrauen und Sicherheit zum Schadensrisiko stehen, und zwar aufgeschlüsselt nach allen Regionen, Sprachen und Dialekten in der MENA-Region. Wir erkundigen uns insbesondere nach der Anzahl, der Vielfalt, dem regionalen Fachwissen, der politischen Unabhängigkeit, den Qualifikationen und den relevanten Sprachkenntnissen (einschließlich Dialekten) der Mitarbeitenden oder Personen, die mit der Moderation von Inhalten aus der MENA-Region beauftragt sind, und fordern die Veröffentlichung dieser Informationen.
Die Moderation von Inhalten übernehmen bei Meta häufig Auftragnehmer und Unterauftragnehmer, und es ist ebenso wichtig, dass Meta diese Vereinbarungen transparent macht.
Die Auslagerung der Moderation von Inhalten sollte nicht auf Kosten der Arbeitsbedingungen gehen. Meta sollte Daten über seine Investitionen in sichere und faire Arbeitsbedingungen für Inhaltsmoderator*innen (unabhängig davon, ob es sich um das eigene Personal oder Dritte handelt) veröffentlichen, einschließlich zur psychosozialen Unterstützung, sowie Daten über die Einhaltung von Nichtdiskriminierungsrichtlinien bei der Inhaltsmoderation, auch in Bezug auf sexuelle Orientierung und Geschlechtsidentität. Transparenz beim Umgang mit und der Ausstattung von Moderator*innen ist der erste Schritt dahin, dass Meta treffsicher Inhalte auf seinen Plattformen identifiziert, die gegen LGBT-Personen gerichtet sind.
Wir fordern Meta außerdem auf, detailliert darzulegen, welche automatisierten Tools bei der Moderation von Inhalten in allen Sprachen und Dialekten außer Englisch (mit einem Schwerpunkt auf Arabisch) zur Anwendung kommen. Dazu zählen sowohl die verwendeten Trainingsdaten und -modelle als auch die Frage, wie jedes Modell im Laufe der Zeit überprüft und aktualisiert wird. Meta sollte auch Informationen darüber veröffentlichen, wann und wie automatisierte Tools zur Bewertung von Inhalten eingesetzt werden und wie häufig und in welcher Form menschliches Urteilvermögen zur Entscheidungsfindung herangezogen wird. Darüber hinaus fordern wir Meta auf, alle Sprachmodelle und automatisierten Inhaltsanalysetools, die auf sämtliche arabische Dialekte und andere Sprachen in der MENA-Region angewandt werden, unabhängig prüfen zu lassen und die Ergebnisse zu veröffentlichen. Dies kann Aufschluss über deren relative Genauigkeit und Angemessenheit im Hinblick darauf geben, ob die Menschenrechte von LGBT-Personen, die einem erhöhten Risiko ausgesetzt sind, respektiert werden. Zu diesem Zweck sollte Meta in Zusammenarbeit mit unabhängigen Menschenrechtsgruppen eingehend und regelmäßig prüfen, ob seine Praktiken Lücken aufweisen, die LGBT-Personen einem Risiko aussetzen.
Wenn sich Meta bei der Bewertung von Inhalten und Beschwerden hauptsächlich auf Automatisierung verlässt, ist es beinahe unmöglich, Inhalte transparent und unvoreingenommen zu moderieren. Meta sollte einen Mechanismus entwickeln, der bei Beschwerden aus der LGBT-Community [in Hochrisikoregionen] ein schnelles Eingreifen durch eine Person mit regionaler, fachlicher und sprachlicher Kompetenz ermöglicht. Die Sicherheitspraktiken von Meta können dahingehend verbessert werden, dass seine Plattformen weniger Raum für Angriffe auf LGBT-Personen in der MENA-Region bieten. Öffentliche Enthüllungen haben gezeigt, dass Meta häufig nicht genügend Ressourcen in seine Sicherheitspraktiken investiert und in der Vergangenheit interne Forderungen nach größeren Investitionen in die Moderation regionaler Inhalte zurückgewiesen hat, selbst in Zeiten, in denen seine Nutzer*innen eindeutig Risiken ausgesetzt sind.
Mittelfristig fordern Human Rights Watch und seine Partner Meta auf, zu prüfen, ob die bestehenden Sicherheitsmaßnahmen angemessen sind, und weiterhin mit zivilgesellschaftlichen Gruppen zusammenzuarbeiten, um Lücken in den bestehenden Praktiken der Inhaltsmoderation und Sicherheit zu ermitteln. In Bezug auf Sicherheitsfunktionen und auf Grundlage einstimmiger Forderungen betroffener Personen empfehlen wir Meta, ein einstufiges Tool zur Sperrung von Nutzerkonten einzuführen, Nutzer*innen die Möglichkeit zu geben, ihre Kontaktlisten auszublenden, und einen Mechanismus einzuführen, mit dem alle Inhalte und Konten von Meta (einschließlich WhatsApp und Threads) auf einem bestimmten Gerät aus der Ferne gelöscht werden können.
Einige der Bedrohungen, denen LGBT-Personen in der MENA-Region ausgesetzt sind, erfordern durchdachte und kreative Lösungen, insbesondere dort, wo Strafverfolgungsbehörden die Plattformen von Meta aktiv für digitales Targeting nutzen. Meta sollte Ressourcen für Forschung und die Zusammenarbeit mit LGBT-Gruppen und anderen Gruppen in der MENA-Region bereitstellen, die sich für digitale Rechte einsetzen. Einen Ansatzpunkt dafür bietet das von der Forscherin und Anwältin für digitale Rechte, Afsaneh Rigot, entwickelte Konzept „Design from the Margins“ (DFM). Nur wenn sich Meta nachhaltig dafür einsetzt, dass die Erfahrungen der am stärksten Betroffenen aktiv in alle Prozesse der Ausgestaltung seiner Plattformen einbezogen werden, kann das Unternehmen die Risiken und Schäden, denen LGBT-Menschen auf seinen Plattformen ausgesetzt sind, wirklich reduzieren.
Nach den Leitprinzipien der Vereinten Nationen für Wirtschaft und Menschenrechte sind Social-Media-Unternehmen, darunter auch Meta, verpflichtet, auf ihren Plattformen die Menschenrechte zu achten, einschließlich des Rechts auf Nichtdiskriminierung, Privatsphäre und Meinungsfreiheit. Sie sind verpflichtet, Menschenrechtsverletzungen vorzubeugen und die Auswirkungen ihrer Dienste auf die Menschenrechte zu ermitteln und Abhilfe zu schaffen, etwa indem sie Zugang zu wirksamen Schutzmechanismen, wie Inhalts- und Kontenaktionen bieten und kommunizieren, wie sie bei Rechteverletzungen Abhilfe schaffen.
Bei der Inhaltsmoderation auf seinen Plattformen ist Meta verpflichtet dafür zu sorgen, dass seine Richtlinien und Praktiken transparent sind und konsequent und auf nichtdiskriminierende Weise angewendet werden. Meta ist auch dafür verantwortlich, Fälle von Menschenrechtsverletzungen, die auf sexueller Orientierung und Geschlechtsidentität beruhen, auf seinen Plattformen einzudämmen und gleichzeitig das Recht auf freie Meinungsäußerung zu respektieren.
Die Prinzipien von Santa Clara über Transparenz und Verantwortlichkeiten bei der Moderation von Inhalten bieten Unternehmen hilfreiche Anhaltspunkte, um ihrer Verantwortung gerecht zu werden. So haben sie etwa sicherzustellen, dass Menschenrechts- und Verfahrenserwägungen in allen Phasen des Prozesses der Inhaltsmoderation berücksichtigt werden. Weitere Prinzipien sind verständliche und präzise Regeln für inhaltsbezogene Entscheidungen und kulturelle Kompetenz der Personen, die Moderations- und Beschwerdeentscheidungen treffen. Die Santa-Clara-Grundsätze verlangen auch ausdrücklich Transparenz über die Verwendung automatisierter Entscheidungsfindungsinstrumente, die sich auf die Verfügbarkeit von Inhalten auswirken, und fordern eine menschliche Überprüfung von automatisierten Entscheidungen.
Der Datenschutz als eines der Menschenrechte schützt auch vor unbefugtem Zugriff auf personenbezogene Daten. Die Plattformen sollten daher auch Maßnahmen ergreifen, um die Konten und Daten der Nutzer*innen vor unbefugtem Zugriff und Datenkompromittierung zu schützen.
Mit ihren Empfehlungen soll die „Secure Our Socials“-Kampagne Meta dabei unterstützen, seiner menschenrechtlichen Verantwortung gerecht zu werden. Bei der Entwicklung und Anwendung von Richtlinien zur Inhaltsmoderation sollte Meta auch die besonderen Erfahrungen von diskriminierten und marginalisierten Menschen berücksichtigen, wie etwa LGBT-Personen in der MENA-Region. Diese Erfahrungen sollten entscheidenden Einfluss auf die Produktgestaltung haben, unter anderem durch die Priorisierung von Sicherheitsfunktionen.
Im Hinblick auf die menschenrechtliche Sorgfaltspflicht empfehlen Human Rights Watch und seine Partner auch, dass Meta in bestimmten Ländern oder regionalen Kontexten regelmäßig überprüft, welche Auswirkungen seine Praktiken auf die Menschenrechte haben, und genügend Zeit und Ressourcen für die Einbeziehung der Rechteinhaber*innen aufwendet.
Die Gemeinschaftsstandards von Meta zu Mobbing und Belästigung verbieten viele Formen der Belästigung von LGBT-Personen im Internet, insbesondere auf Facebook und Instagram. Die Plattformen sind verpflichtet, Mobbing und Belästigung einzuschränken und Meta verweist explizit darauf, dass die Plattform „Inhalte entfernen wird, die darauf abzielen, Privatpersonen zu erniedrigen oder bloßzustellen“, einschließlich „Behauptungen über die sexuelle Aktivität einer Person“. Außerdem haben die Plattformen Privatpersonen vor Behauptungen über ihre sexuelle Orientierung und Geschlechtsidentität zu schützen. Dazu gehört auch das Outing von LGBT-Personen. Die Gemeinschaftsstandards von Meta verbieten auch einige Formen des Doxxing, wie die Veröffentlichung der privaten Telefonnummern und Adressen von Personen, insbesondere wenn sie zu böswilligen Zwecken eingesetzt werden.
Die Inhaltsmoderation von Meta ist mangelhaft. So wird sie beispielsweise in bestimmten Kontexten übermäßig und in anderen unzureichend angewandt. Der Konzern tut sich daher oft schwer damit, die oben genannten Verbote in einer transparenten, verantwortlichen und konsistenten Weise anzuwenden. In der Folge verbleiben missbräuchliche Inhalte gelegentlich auf den Plattformen von Meta, selbst wenn sie negative Folgen für LGBT-Personen in der realen Welt haben und gegen die Richtlinien von Meta verstoßen. Auf der anderen Seite zensiert, entfernt oder beschränkt Meta in unverhältnismäßiger Weise nicht rechtswidrige Inhalte und bringt so politisch Andersdenkende oder Stimmen zum Schweigen, die Menschenrechtsverletzungen auf Facebook und Instagram dokumentieren und anprangern. So veröffentlichte Human Rights Watch im Dezember 2023 einen Bericht, der die Zensur von pro-palästinensischen Inhalten auf Instagram und Facebook durch Meta dokumentiert.
Metas Ansatz zur Inhaltsmoderation auf seinen Plattformen kombiniert proaktive Maßnahmen mit solchen, die sich aus Beschwerden herleiten. Beide Formen stützen sich maßgeblich auf Automatisierung. Automatisierte Tools dienen häufig als Rechtfertigung dafür, dass keine zusätzlichen Investitionen in die Inhaltsmoderation erforderlich seien. In der Folge verstoßen die Ergebnisse der Inhaltsmoderation häufig gegen die Richtlinien von Meta, so dass oft dieselben Personengruppen sowohl von Belästigung als auch von Zensur betroffen sind.
Die Beschwerdeverfahren von Meta sehen vor, dass Einzelpersonen und Organisationen Inhalte auf Facebook und Instagram melden können, die ihrer Meinung nach gegen die Gemeinschaftsstandards oder -richtlinien verstoßen, und dass sie die Löschung oder Einschränkung des jeweiligen Inhalts beantragen können. Daraufhin trifft Meta eine Entscheidung, und die Person, die die Beschwerde eingereicht hat oder die, deren Inhalt entfernt wurde, kann in der Regel eine Überprüfung der Entscheidung beantragen. Bleibt Meta ein zweites Mal bei seiner Entscheidung, können Nutzer*innen noch beim Meta Oversight Board Einspruch gegen die Entscheidung der Plattform einlegen. Allerdings nimmt das Board nur eine begrenzte Anzahl von Fällen an.
Meta stützt sich bei der Erkennung und Entfernung von Inhalten, die die jeweilige Plattform als missbräuchlich einstuft, sowie bei wiederholten rechtsverletzenden Inhalten auf automatisierte Prozesse. Das trifft auch auf die Verarbeitung von Beschwerden sowie von Einsprüchen zu.
Meta veröffentlicht keine Daten über Fehlerquoten bei der Automatisierung oder Statistiken darüber, inwieweit die Automatisierung bei der Bearbeitung von Beschwerden und Einsprüchen eine Rolle spielt. Die mangelnde Transparenz von Meta hindert unabhängige Menschenrechtsorganisationen und andere Forscher*innen daran, dessen Plattformen zur Rechenschaft zu ziehen, und führt dazu, dass ungerechtfertigte Sperrungen von Inhalten sowie lückenhafte Moderationsprozesse für missbräuchliche Inhalte, insbesondere in nicht-englischen Sprachen, unentdeckt bleiben.
In seinem Bericht zu digitalem Targeting von 2023 befragte Human Rights Watch LGBT-Personen in der MENA-Region, die sich bei Facebook und Instagram über Belästigung und beleidigende Inhalte beschwert hatten. In all diesen Fällen weigerten sich die Plattformen, die Inhalte zu entfernen, mit der Begründung, sie würden nicht gegen die Gemeinschaftsstandards oder Richtlinien verstoßen. Mit den Inhalten, die Human Rights Watch überprüft hat, wurden LGBT-Personen unter anderem geoutet und gedoxxt, was schwere Folgen in ihrem realen Leben hatte. Manche erhielten sogar Todesdrohungen. Die automatisierten Tools von Meta haben diese missbräuchlichen Inhalte zum einen nicht entdeckt und zum anderen – selbst nach einer Beschwerde – nicht effektiv entfernen können. Die Plattformen boten LGBT-Personen, die solche Inhalte meldeten, demzufolge keinerlei Abhilfe, die – wenn sie frühzeitig erfolgt wäre – den Schaden in der realen Welt hätte begrenzen können.
In einem anderen Bericht von 2023 hat Human Rights Watch auch die übermäßige Entfernung zulässiger pro-palästinensischer Inhalte auf Instagram und Facebook dokumentiert. Automatisierungsprozesse verhindern oft, dass solche Inhalte überhaupt auf der Plattform erscheinen. Dieser Prozess hat zur Zensur friedlicher Meinungsäußerung in einer kritischen Zeit beigetragen.
Bei der Inhaltsmoderation richtet sich Meta auch nach staatlichen Vorgaben zur Entfernung von Inhalten auf Facebook und Instagram. Während einige dieser Vorgaben Inhalte verbieten, die gegen nationale Gesetze verstoßen, fehlt bei anderen Aufforderungen zur Entfernung von Inhalten die rechtliche Grundlage. Stattdessen werden angebliche Verstöße gegen die Richtlinien von Meta als Begründung genannt. Informelle staatliche Anfragen können erheblichen Druck auf Unternehmen ausüben und dazu führen, dass politisch Andersdenkende zum Schweigen gebracht werden.
Die unzureichenden Investitionen von Meta in menschliche Inhaltsmoderation und sein übermäßiges Vertrauen in die Automatisierung beeinträchtigen die Möglichkeiten des Unternehmens, gegen missbräuchliche Inhalte auf seinen Plattformen vorzugehen. Inhalte, die gegen LGBT-Personen gerichtet sind, werden nicht immer zügig entfernt, selbst wenn sie gegen die Richtlinien von Meta verstoßen, wohingegen Inhalte, die die Rechte von LGBT-Personen stärken, unzulässig zensiert werden können. Dies verstärkt die schwerwiegenden Einschränkungen, denen LGBT-Personen in der MENA-Region ohnehin schon ausgesetzt sind, noch zusätzlich.
Wie die „Secure Our Socials“-Kampagne im Einzelnen darlegt, erfordert eine wirksame Inhaltsmoderation ein Verständnis für den regionalen, sprachlichen und inhaltlichen Kontext.
Auch menschliche Inhaltsmoderator*innen bei Meta können wichtige Zusammenhänge missverstehen. So hat Instagram beispielsweise einen Beitrag mit einer Reihe von arabischen Begriffen entfernt, die mehrere Moderator*innen als „Hassrede“ gegen LGBT-Personen bezeichnet haben. Sie erkannten nicht, dass der Inhalt selbstreferenziell und bestärkend kommuniziert war, um auf Missstände hinzuweisen. Ein wichtiger Grund dafür waren fehlende Schulungen für Mitarbeitende von Meta und das Versäumnis des Unternehmens, seine englischsprachigen Schulungshandbücher in arabische Dialekte übersetzen zu lassen.
Im Jahr 2021 erstellten LGBT-Aktivist*innen aus siebzehn Ländern der MENA-Region gemeinsam das Arabic Queer Hate Speech Lexicon (Arabisches Lexikon für Hassrede gegen queere Personen), das als Hassrede geltende Begriffe und Äußerungen aufführt und kontextualisiert. Das Lexikon listet die Hassrede in mehreren arabischen Dialekten auf, ist sowohl auf Arabisch als auch auf Englisch verfasst und ist ein „lebendes Dokument“, das regelmäßig von Aktivist*innen aktualisiert werden soll. Meta könnte dieses Lexikon als Leitfaden für seine interne Liste von Hassrede nutzen, um LGBT-feindliche Hassrede in arabischer Sprache besser zu erkennen und nachteiligen Auswirkungen auf die Menschenrechte vorzubeugen. Dabei sollte das Unternehmen die LGBT-Community und Aktivist*innen, die sich für digitale Rechte in der MENA-Region einsetzen, aktiv einbeziehen, um sicherzustellen, dass die Begriffe in den richtigen Kontext gesetzt werden.
Meta verlässt sich in hohem Maße auf Automatisierung, um proaktiv Inhalte zu identifizieren, die gegen seine Richtlinien verstoßen, sowie um über gemeldete missbräuchliche Inhalte zu entscheiden. Automatisierte Tools zur Bewertung von Inhalten sind häufig nicht in der Lage, entscheidende Kontextfaktoren zu erfassen, die für das Verständnis von Inhalten notwendig sind. Somit ist Meta kaum in der Lage, Inhalte richtig einzuschätzen. Beispielsweise lehnten die automatisierten Systeme von Meta ohne menschliches Zutun zehn von zwölf Beschwerden und zwei von drei Einsprüchen gegen einen kürzlich veröffentlichten Beitrag ab, in dem Transgender-Personen zum Selbstmord aufgefordert werden, obwohl die Richtlinie von Meta gegen Mobbing und Belästigung „Aufrufe zur Selbstverletzung oder zum Selbstmord einer bestimmten Person oder Personengruppe“ verbietet.
Automatisierte Systeme haben vor allem bei der Moderation von Inhalten Schwierigkeiten, die nicht auf Englisch verfasst sind. Das gilt ganz besonders für arabische Dialekte. Ein grundlegendes Problem ist, dass ein und dasselbe arabische Wort oder ein und derselbe arabische Satz je nach Region, Kontext oder Dialekt etwas völlig anderes bedeuten kann. Sprachmodelle, die zur automatisierten Inhaltsmoderation eingesetzt werden, verlassen sich jedoch häufig auf gebräuchlichere oder formale Varianten, um Arabisch zu „lernen“. Deshalb können sie Inhalte in arabischen Dialekten nur schwer verstehen oder einordnen. Meta hat sich jüngst verpflichtet, Automatisierungstools zu entwickeln, die auf spezifische Dialekte anwendbar sind. Doch bis diese vorliegen, verlässt sich das Unternehmen weiterhin vorrangig auf bestehende Automatisierungstools. Des Weiteren hat Meta keine Kriterien festgelegt, um die Genauigkeit dieser Tools vor ihrer Einführung zu prüfen.
Die Richtlinien von Meta verbieten die Nutzung ihrer Plattformen Facebook und Instagram zum Zwecke der Überwachung, darunter auch zum Zweck der Strafverfolgung oder zum Schutz der nationalen Sicherheit. Die Erstellung gefälschter Profile durch Strafverfolgungsbehörden, um gegen Nutzer*innen zu ermitteln, ist ebenfalls verboten. Regierungsbeamt*innen in der MENA-Region dürfen daher LGBT-Personen nicht auf den Plattformen von Meta ins Visier nehmen. Gemeldete Konten, die andere einschüchtern, können deaktiviert oder gelöscht werden, und Meta hat rechtliche Schritte gegen den systematischen Missbrauch seiner Plattform, auch zum Zweck der polizeilichen Überwachung, eingeleitet.
Meta hat sein Verbot der Verwendung von Fake-Accounts allerdings in einer Weise umgesetzt, die die Menschenrechtsfolgen für stark marginalisierte Menschen angemessen berücksichtigt. Tatsächlich wurde dieses Verbot sogar zum Nachteil von LGBT-Personen durchgesetzt, schließlich ist auch die Meldung von Facebook-Profilen wegen der Verwendung von Pseudonymen eine Form der Belästigung im Internet. Im Gegensatz zu Facebook ist die Verwendung von Pseudonymen auf Instagram nicht verboten. Die von Facebook auferlegte und aggressiv durchgesetzte Pflicht zur Angabe von Klarnamen hat in der Vergangenheit auch zur Löschung von Facebook-Konten von Mitgliedern der LGBT-Community geführt, die Pseudonyme verwenden, um sich vor Diskriminierung, Belästigung oder Schlimmerem zu schützen. Nachforschungen zu der Person, die hinter dem Pseudonym eines Kontos steht, können die Privatsphäre von LGBT-Personen ebenfalls unverhältnismäßig stark beeinträchtigen.
Die Probleme, die Human Rights Watch und seine Partner mit dieser Kampagne angehen wollen, treten nicht nur auf den Plattformen von Meta auf. So verwenden Strafverfolgungsbehörden und Privatpersonen auch gefälschte Konten auf Dating-Apps wie Grindr und WhosHere, um LGBT-Personen aufzuspüren.
Vor der Veröffentlichung des Berichts im Februar hat Human Rights Watch ein Schreiben an Grindr geschickt. Das Unternehmen ist ausführlich schriftlich auf unsere Bedenken eingegangen und hat versprochen die Lücken zu schließen. Auf ein anderes Schreiben an Meta vom Februar haben wir dahingegen keine schriftliche Antwort erhalten.
Belästigung im Internet, Doxxing und Outing sind auch auf anderen Social-Media-Plattformen wie X (ehemals Twitter) weit verbreitet. Der Ansatz von X in Bezug auf die Sicherheit auf seiner Plattform ist in den letzten Jahren in die Kritik geraten, da das für Sicherheit und Integrität zuständige Personal mehrfach stark gekürzt wurde.
Meta ist nach wie vor das größte Social-Media-Unternehmen der Welt, und seine Plattformen haben eine große Reichweite. Außerdem bieten Metas Plattformen die verschiedensten Dienste an, von öffentlichen Posts bis hin zu privaten Chats. Wenn Meta seine Praktiken verbessert, kann das einen großen Effekt haben und eine Grundlage dafür bieten, dass sich auch andere Plattformen mit dem digitalen Targeting von LGBT-Personen in der MENA-Region beschäftigen.
Die gezielte Verfolgung von LGBT-Personen im Internet wird durch ihren prekären Rechtsstatus im realen Leben noch gefördert. Viele Länder, auch in der MENA-Region, verbieten gleichgeschlechtliche Beziehungen oder kriminalisieren Formen des Ausdrucks der Geschlechtlichkeit. Die Kriminalisierung gleichgeschlechtlicher sexueller Handlungen oder, wo diese nicht kriminalisiert werden, die Anwendung von Strafen wegen der „Verletzung der öffentlichen Moral“ oder „sexueller Ausschweifung“ gegen LGBT-Personen bereitet den Nährboden für digitales Targeting, verbietet es LGBT-Personen ihre Geschlechtsidentität online und offline auszudrücken und dient als Grundlage für die Verfolgung von LGBT-Personen.
In den letzten Jahren haben viele Regierungen der MENA-Region, darunter Ägypten, Jordanien und Tunesien, Gesetze zur Cyberkriminalität eingeführt, die sich gegen Andersdenkende richten und das Recht auf freie Meinungsäußerung und Privatsphäre unterlaufen. Die Regierungen haben diese neuen Gesetze gezielt eingesetzt, um LGBT-Personen ins Visier zu nehmen und zu verhaften und den Zugang zu Dating-Apps für Homosexuelle zu blockieren. Da es keine Gesetze gibt, die LGBT-Personen online und offline vor Diskriminierung schützen, können sowohl Sicherheitskräfte als auch Privatpersonen sie ungestraft im Internet angreifen.
Die Staaten in der MENA-Region haben es zudem versäumt, private Akteure für das digitale Targeting von LGBT-Personen zur Rechenschaft zu ziehen. LGBT-Personen zeigen Verbrechen gegen sie oft nicht bei den Behörden an, entweder weil ihre Anzeige in früheren Fällen schon einmal abgewiesen oder nichts unternommen wurde, oder weil sie berechtigterweise glauben, dass sie aufgrund ihrer nicht geschlechtsrollenkonformen sexuellen Orientierung, Geschlechtsidentität oder ihres Geschlechtsausdrucks selbst für das Verbrechen verantwortlich gemacht werden würden. Human Rights Watch hat Fälle dokumentiert, in denen LGBT-Personen, die den Behörden einen Fall von Erpressung meldeten, schließlich selbst verhaftet wurden.
Staaten sollten die Rechte von LGBT-Personen respektieren und schützen, anstatt ihre Äußerungen zu kriminalisieren und sie im Internet ins Visier zu nehmen. Die fünf Staaten, um die es in dem Bericht von Human Rights Watch zum digitalen Targeting geht, sollten Gesetze zum Schutz vor Diskriminierung aufgrund der sexuellen Orientierung und der Geschlechtsidentität einführen und umsetzen, die auch für das Internet gelten.
Insbesondere Sicherheitskräfte sollten es unterlassen, LGBT-Personen aufgrund ihrer sexuellen Orientierung, Geschlechtsidentität oder ihres Geschlechtsausdrucks zu belästigen und zu verhaften, und sie stattdessen vor Gewalt schützen. Sie sollten es außerdem unterlassen, private digitale Informationen von LGBT-Personen unrechtmäßig zu sammeln oder sogar selbst zu fälschen, um sie auf dieser Grundlage strafrechtlich verfolgen zu können. Schließlich sollten die Staaten sicherstellen, dass alle Verantwortlichen für digitales Targeting – und nicht die betroffenen LGBT-Personen selbst – für ihre Straftaten zur Rechenschaft gezogen werden.
Verbreiten Sie die Informationen über die Gefahren der Nutzung von Social-Media-Plattformen für LGBT-Personen und die Notwendigkeit zu handeln.
Die #SecureOurSocials-Kampagne fordert Meta auf, dafür zu sorgen, dass seine Plattformen Facebook und Instagram in Bezug auf die Inhaltsmoderation und die Sicherheit der Nutzer*innen mehr Verantwortung und Transparenz zeigen, etwa indem sie aussagekräftige Daten über ihre Investitionen in die Sicherheit der Nutzer*innen, einschließlich der Inhaltsmoderation, veröffentlichen und einige zusätzliche Sicherheitsfunktionen einführen.
Sie können jetzt aktiv werden. Fordern Sie den Präsidenten für globale Angelegenheiten bei Facebook, Nick Clegg, und die Vizepräsidentin für Inhaltsrichtlinien in einer E-Mail auf, sich für die Sicherheit der Nutzer*innen einzusetzen.
Die #SecureOurSocials-Kampagne ist verfügbar unter:
https://www.hrw.org/SecureOurSocials
Der Bericht „‚All This Terror Because of a Photo‘: Digital Targeting and Its Offline Consequences for LGBT People in the Middle East and North Africa“ ist verfügbar unter:
https://www.hrw.org/report/2023/02/21/all-terror-because-photo/digital-targeting-and-its-offline-consequences-lgbt
Tipps, wie Sie sich online besser schützen können, finden Sie unter:
https://www.hrw.org/SecureOurSocials/Awareness_Tips.pdf