- Meta hat signifikante Änderungen in seinen Inhaltsmoderationsstrategien vorgenommen und sich stärker auf “freie Meinungsäußerung” fokussiert. Die Anzahl der entfernten Inhalte auf Facebook und Instagram wurde im Vergleich zum vorherigen Quartal um fast ein Drittel reduziert. Bei Spam-Inhalten gab es einen Rückgang der Löschungen um 50 Prozent, während die Entfernungen bei Inhalten zur Gefährdung von Kindern um 36 Prozent abnahmen. Automatisierte Tools bleiben ein zentraler Bestandteil, jedoch wird verstärkt auf manuelle Überprüfung gesetzt, was zu weniger automatisierten Eingriffen führte. Nutzer erfahren im Schnitt weniger hasserfüllte Inhalte, was die Balance zwischen Sicherheit und Meinungsfreiheit in den Fokus rückt.
Meta hat im Januar bedeutende Änderungen in seinen Inhaltsmoderationsstrategien angekündigt und verfolgt nun einen stärkeren Fokus auf “freie Meinungsäußerung”. Diese Neuausrichtung führte zu einer signifikanten Reduzierung der Anzahl an entfernten Inhalten auf Facebook und Instagram. Laut dem vierteljährlichen Bericht zur Durchsetzung der Gemeinschaftsstandards, der von Meta veröffentlicht wurde, gab es eine bemerkenswerte Abnahme der Löschungen von fast einem Drittel im Vergleich zum vorangegangenen Quartal. Weltweit wurden rund 1,6 Milliarden Inhalte entfernt, verglichen mit fast 2,4 Milliarden im vorherigen Zeitraum. Diese Entwicklung ist insbesondere bemerkenswert, da die Gesamtzahl der Content-Entfernungen in den vergangenen Quartalen stetig gestiegen oder konstant geblieben war.
Veränderungen in der Moderation
Die Reduzierung der entfernten Posts erstreckt sich auf verschiedene Kategorien: Bei der Spam-Bekämpfung verzeichnete Meta einen Rückgang der Löschungen um 50 Prozent, bei Inhalten zur Gefährdung von Kindern um 36 Prozent und bei hetzerischem Verhalten um 29 Prozent. Einzig in der Kategorie für Inhalte, die sich mit Selbstmord und Selbstverletzung befassen, stiegen die Entfernungen an. Die Gründe für den Rückgang sind vielfältig: Neben Änderungen zur Reduktion von Moderationsfehlern spielt auch die Neuausrichtung der Inhalte-Regeln eine Rolle. Meta räumte selbst ein, dass die vorgenommenen Änderungen mit dafür verantwortlich waren, dass die Zahl an fehlerhaften Eingriffen merklich sank und die entsprechenden Inhalte häufiger wiederhergestellt wurden.
Automatisierung und ihre Grenzen
Ein weiterer Aspekt der Anpassungen betrifft die Herangehensweise an automatisierte Tools. Diese hatten zuvor hohe Fehlerraten, was zu Verärgerungen unter den Nutzern führte. Stattdessen setzt Meta nun verstärkt auf manuelle Überprüfung und Anpassungen, wodurch weniger automatisierte Eingriffe erfolgen. Trotz dieser Umstellung bleibt die Automatisierung ein zentraler Bestandteil der Moderationsstrategie: 97,4 Prozent der unter den Hassrede-Richtlinien auf Instagram entfernten Inhalte wurden weiterhin durch automatisierte Systeme identifiziert. Dies stellt nur einen minimalen Rückgang von einem Prozentpunkt im Vergleich zum Ende des Vorjahres dar.
Einfluss auf die Nutzererfahrung
Die Gesamterfahrung der Nutzer bleibt jedoch im Mittelpunkt der Bemühungen. Ein internes Sampling von Meta deutet darauf hin, dass die Nutzer im ersten Quartal durchschnittlich nur ein bis zwei hasserfüllte Inhalte pro 10.000 angesehene Posts ausgesetzt waren, verglichen mit zwei bis drei im letzten Jahr. Die Plattformen von Meta ziehen weiterhin eine beträchtliche Nutzerschaft an—im März nutzten etwa 3,43 Milliarden Menschen mindestens eine der Apps des Unternehmens, zu denen auch WhatsApp und Messenger zählen.
Diese Änderungen und ihre Auswirkungen auf die Nutzererfahrung unterstreichen den stetigen Balanceakt, den Meta zwischen Inhaltssicherheit und Meinungsfreiheit vollzieht. Während einige Kritiker befürchten, dass die Lockerung der Regeln zu einem unverantwortlichen Chaos führen könnte, bleibt Meta dennoch bestrebt, die Integrität seiner Plattformen zu schützen und Entwicklungen im digitalen Raum proaktiv anzupassen.