GesellschaftInternet

Moderation – Zensur im Internet

Einleitung

Gerade die großen sozialen Netzwerke sind heute, teils vom Gesetzgeber und teils aus eigenem Antrieb oder auf Druck der Benutzer, zur Kontrolle der Beiträge ihrer Nutzer gezwungen. Und diese Moderation stellt ein ziemlich komplexes Problem dar. Dieser Artikel erklärt, warum das so ist und woher das Problem kommt.

Der Ursprung des Problems

Da Facebook das größte der sozialen Netzwerke ist, möchte ich die Problematik zunächst einmal am Beispiel dieses Netzwerks erklären. Die Entwicklung ist bei den anderen sozialen Netzwerken sehr ähnlich verlaufen.

Facebook wurde von Mark Zuckerberg im Februar 2004 erstmals, damals noch unter dem Namen „Thefacebook“, für die Studenten der Harvard University freigeschaltet. Die Nutzung war zu diesem Zeitpunkt nur mit einer E-Mail-Adresse der Harvard-Universität möglich. Und das Projekt war erfolgreich, nach nur einem Monat hatte sich bereits die Hälfte der Harvard-Studenten eingeschrieben hatte.

Bis Ende 2004 konnten war Facebook für nahezu alle Universitäten in den USA und Kanada verfügbar, und die Studenten standen Schlange, um sich einzuschreiben. Im Jahr 2005 erhielt Mark Zuckerberg von Investoren mehr als 14 Millionen Dollar zum Ausbau von Facebook und entschied sich gegen das weitere Studium und zum Ausbau von Facebook.

Bis zum September 2006 konnten knapp 30.000 Universitäten und Hochschulen auf Facebook zugreifen, im Dezember desselben Jahres wurde es für jedermann geöffnet. Im April 2008 wurde der Facebook-Chat eingeführt und am Ende des Jahres 2008 hatte Facebook 100.000 Benutzer, die aber immer noch hauptsächlich aus dem studentischen Umfeld kamen. Am Ende des Jahres 2009 war Facebook mit 350.000 Benutzern dann erstmals das größte soziale Netzwerk der Welt.

Und aus dieser Zeit kommen die grundlegenden Mechanismen von Facebook. Die Ingenieure, die damals Plattformen wie Facebook entwarfen, konnten sich nicht vorstellen, dass sie eines Tages genutzt werden würden, um einen Aufstand vorzubereiten, zu Morden oder Terrorismus aufzurufen, Hasskommentare zu posten oder Falschnachrichten zu verbreiten. Diese Ingenieure begriffen das Internet als Werkzeug zum freien Informationsaustausch, eine Moderation der Beiträge war nie gewünscht und wäre ihnen wie ein Verrat an der Idee des Internets vorgekommen. Facebook sollte immer eine Plattform zum freien Informationsaustausch sein, die allen offensteht.

Nur leider war in der Planungsphase völlig übersehen worden, dass sich auf dieser Erde auch eine Menge seltsamer Zeitgenossen tummeln, die das Internet eben auch gerne zur Verbreitung von Hass, Gewalt und Falschmeldungen benutzen möchte. Und deswegen hatte Facebook im Jahr 2013 ein schwerwiegendes Problem und war denkbar schlecht dafür gerüstet.

Aufgrund des starken Drucks von außen und von der Nutzerbasis aufgrund der Hasskommentare und Falschmeldungen musste Facebook Ende 2013 zugeben, dass die durchaus vorhandenen Moderationsbemühungen nicht ausreichend waren. So wurden damals die Richtlinien aktualisiert, die Moderatoren aufgestockt und besser trainiert, die Aufdeckung der Identitäten von Urhebern von „grausamen und unsensiblen“ Inhalten beschlossen und die Kommunikation mit den Benutzern verbessert.

Nur hatte Facebook zu diesem Zeitpunkt bereits mehr als 1 Milliarde Benutzer, die eine solche Masse an täglichen Beiträgen absetzen, dass jede menschliche Kontrolle quasi unmöglich war. Und das war damals das Problem von Facebook und anderen sozialen Netzwerken und ist es bis heute.

Zum besseren Verständnis des Problems hier ein paar Zahlen. Alleine Facebook hat mittlerweile knapp 2,5 Milliarden Nutzer, dazu kommt noch Instagram mit einer weiteren Milliarde. Diese Nutzer posten auf Facebook um die 500 Millionen Beiträge pro Tag (das sind rund 6.000 Beiträge pro Sekunde), auf Instagram werden täglich 95 Millionen Fotos hochgeladen. Und auf Facebook entstehen jeden Tag 500.000 neue Nutzerkonten.

Können Sie sich ernsthaft vorstellen, dass diese ungeheure Datenmenge mit klassischen Mitteln noch irgendwie kontrollierbar sein könnte?

Und dass ist allenfalls die Spitze des Eisbergs, denn wir haben hier noch nicht einmal von den anderen sozialen Netzwerken geredet. Alleine auf Twitter fallen pro Tag noch einmal 500 Millionen Tweets an und auf YouTube werden jede Minute 300 Stunden an Videomaterial hochgeladen. Dazu kommen dann noch die Daten von Flickr (90 Millionen Nutzer), LinkedIn (660 Millionen), Pinterest (265 Millionen), TikTok (500 Millionen), Wechat (1 Milliarde), Weibo (600 Millionen) und Whatsapp (1,6 Milliarden). Und das sind nur die größten der sozialen Netzwerke (Quelle: brandwatch.com und socialpilot.co)

Dabei sind bei allen sozialen Netzwerken durchaus Ansätze für eine Moderation vorhanden. Nur waren diese Verfahren zur Moderation von Inhalten eben niemals dazu gedacht, die Beiträge von Milliarden von Nutzern zu moderieren.

Und deswegen arbeiten alle sozialen Netzwerke mit allerhöchster Priorität an neuen Verfahren zur Moderation. Mit diesen neuen Ansätzen und den möglichen Auswirkungen beschäftigt sich der folgende Teil dieses Artikels.

Methoden zur Content-Moderation

Wie bereits weiter oben erwähnt, sind die klassischen Methoden der Moderation durch Menschen aufgrund der enormen Datenmenge, die in den sozialen Netzwerken täglich anfällt, nicht mehr durchführbar.

Aber diese klassischen Methoden werden in anderen Bereichen durchaus weiter genutzt. Denn neben den in den sozialen Netzwerken anfallenden Daten, gibt es ja auch noch die unzähligen Blogs. Alleine auf den Blogs unter Wordpress (zurzeit mehr als 27 Millionen mit einem Marktanteil von rund 33 %, Quelle : buildwith.com) werden jeden Monat gut 70 Millionen neue Beiträge veröffentlicht. Und die aus diesen Beiträgen resultierenden Kommentare müssen ebenfalls moderiert bzw. überprüft werden. Gleiches gilt für alle anderen Einträgen von Benutzern auf irgendwelchen Websites, beispielsweise für Produktbewertungen.

Und deshalb enthält die folgende Liste sowohl die klassischen Typen der Content-Moderation als auch neue und/oder experimentelle Verfahren.

Keine Moderation

Die allererste Methode besteht darin, schlicht gar nichts zu tun. Klingt seltsam, aber ziemlich viele Website-Betreiber, gerade Betreiber von kleineren Online-Communities tun genau das. Als jemand, der beruflich tagtäglich mit Webseiten zu tun hat, kann ich weder die Beweggründe nachvollziehen noch irgendwelche Argumente finden, die für diese Lösung sprechen würden.

Aber möglicherweise gibt es ja tatsächlich ein paar Communites irgendwo in den Tiefen des Internets, in denen Anarchie zur Leitkultur erklärt wurde. Aber wenn Sie genau hinsehen, werden Sie bemerken, dass selbst die für ihren rüden Umgangston bekannten Foren auf somethingawful.com irgendwo im Hintergrund doch immer noch ein Moderationssystem verwenden.

Ich würde Ihnen jedenfalls dringend empfehlen, doch einen Gedanken an die Moderation Ihrer Community oder Ihrer Kommentare zu verschwenden und auf eines der folgenden Konzepte auszuweichen.

Moderation vor der Veröffentlichung

Diese Art der Moderation wird normalerweise bei kleineren Blogs angewendet, vielfach in Verbindung mit mehr oder weniger automatisierten Spamfiltern.

Bei einer Moderation vor der Veröffentlichung wird jeder auf einer Website eingestellte Inhalt zunächst einmal in eine Warteschlange gestellt. Erst nach der Prüfung durch einen Moderator wird der neue Inhalt freigeschaltet und auf der Website sichtbar.

Der Hauptvorteil dieses Verfahren liegt in der sehr guten Sicherheit. Zumindest in den Händen eines guten Moderators kann kein unerwünschter Inhalt auf die Website gelangen. Das Verfahren lässt sich auf allen Websites ohne allzu viele neue Inhalte anwenden, also auf kleineren Blogs oder Online-Shops und mit Einschränkungen auch für Online-Communities.

Die hohe Sicherheit wird allerdings mit zwei Nachteilen erkauft. Da die Bestätigung eine gewisse Zeit beansprucht (schließlich sind die meisten Moderatoren eben nicht ständig online) und da Benutzer teilweise gerade bei Online-Communities eine sofortige Sichtbarkeit erwarten, könnte dieses Verfahren negative Auswirkungen auf die Nutzer-Zufriedenheit haben. Der andere Nachteil ist der hohe Zeitaufwand für die Kontrolle, wenn die Anzahl der neuen Inhalte ansteigt.

Trotzdem ist dieses Verfahren aufgrund der hohen Sicherheit durchaus empfehlenswert, wenn ein hohes rechtliches Risiko besteht. Das könnte beispielsweise bei öffentlichen Einrichtungen und bei Einrichtungen, die mit Kindern arbeiten, der Fall sein. Bei nicht zeitkritischen Inhalten (beispielsweise Kommentare oder Fotos) kann das Verfahren auch durchaus angewandt werden, ohne die Nutzer-Zufriedenheit negativ zu beeinflussen.

Moderation nach der Veröffentlichung

Bei dynamischen Seiten wie Online-Communities ist dieses Verfahren mit Blick auf die Benutzer-Zufriedenheit die bessere Wahl. Hier werden alle neuen Inhalte direkt auf der Website angezeigt und gleichzeitig in eine Warteschlange für den Moderator eingestellt. Der Moderator kann dann bei der Überprüfung einschreiten und den Inhalt entweder verbessern oder wieder von der Website entfernen.

Der Vorteil dieser Art der Moderation besteht darin, dass Gespräche in einer Online-Community in Echtzeit stattfinden können. Diese Möglichkeit der Unterhaltung in Echtzeit entspricht der Erwartung der Nutzer an eine Online-Community, eine vorhergehende Kontrolle mit entsprechenden Zeitverlust ist schlicht tödlich für ein solches System.

Gleichzeitig sorgt die nachträgliche Moderation trotzdem für ein Mindestmaß an Sicherheit und gibt dem Moderator die Gelegenheit, bei unerwünschten Inhalten einzuschreiten. Andererseits sind ungewollte neue Inhalte zumindest für einen gewissen Zeitraum zwischen Veröffentlichung und Kontrolle auf der Website für jeden sichtbar. Was wiederum negative Einflüsse auf das Markenimage und in manchen Fällen sogar rechtliche Konsequenzen haben kann.

Der Nachteil des ansteigenden Zeitaufwands für die Kontrolle bei einer hohen Anzahl an neuen Inhalten bleibt bestehen, da natürlich auch hier weiterhin jeder neue Inhalt manuell kontrolliert werden muss.

Reaktive Moderation

Bei der reaktiven Moderation werden neue Inhalte direkt auf der Website freigeschaltet und unterliegen im Normalfall keiner Moderation. Der Moderator wird bei diesem Ansatz erst dann aktiv, wenn eines der Mitlieder einen regelwidrigen Inhalt beim Moderator anzeigt.

Diese Art der Moderation ist die klassische Methode der meisten sozialen Netzwerke und wird auch auf vielen Blogs angewandt, im Allgemeinen als alleinige Moderations-Methode.

Hier sind im Prinzip die Nutzer selbst für die Kontrolle der Inhalte verantwortlich. Ohne Meldung eines Inhalts an einen Moderator erfolgt keine Kontrolle der Inhalte. Diese Methode sollte sinnvollerweise mit automatisierten Filtern verwendet werden, die Inhalte einer Kontrolle (beispielsweise auf Spam oder unerwünschte Wörter oder Links) unterwerfen und sie im Bedarfsfall vor der Veröffentlichung in eine Warteschlange zur Kontrolle durch den Moderator einstellen.

Systeme wie Wordpress verfügen im Allgemeinen standardmäßig über einige Filter, die Kommentare im Falle mehrerer Links oder beim Auftauchen bestimmter Wörter automatisch blockieren können.

Der größte Vorteil dieser Methode besteht darin, dass auch bei einem starken Anstieg der neuen Inhalte nicht unbedingt mehr Aufwand für die Moderation betrieben muss. Nachteilig ist hingegen, dass Sie Inhalte auf Ihrer Website haben, die nicht zu Ihrer Unternehmenskultur passen und die Sie als Moderator bei einer Kontrolle möglicherweise nicht genehmigt hätten. Und zwar ohne es zu merken.

Peer-Moderation oder verteilte Moderation

Ein anderes Konzept stellt den Versuch dar, die Moderation einfach den Benutzern zu überlassen. Das Konzept stützt sich auf ein Bewertungssystem, mit dem die Nutzer die neuen Inhalte bewerten und damit darüber abstimmen, ob diese Inhalte den Erwartungen (oder den Nutzungsbedingungen) entsprechen. Durch die von den Nutzern abgegebenen Bewertungen entscheidet das System dann selbständig darüber, ob und an welcher Position die Inhalte auf der Website angezeigt werden.

In der Regel schreitet der eigentliche Moderator der Website dann nur noch in Streitfällen ein. Das Konzept lässt sich auch um ein Belohnungssystem erweitern, dass einzelnen Nutzern Punkte für gelungene Inhalte zuweist und mithilfe dieser Wertungspunkte eine Art von Rangliste für die Nutzer erstellt (mit oder ohne Vergabe von Boni). Bei guter Ausgestaltung kann mit solchen Ansätzen erreicht werden, dass Nutzer in spielerischer Weise zum Erstellen hochwertige Inhalte angeregt werden, um möglichst viele Punkte zu sammeln (Gamification).

Die meisten Unternehmen dürften aus Imagegründe einem System, in dem sich die Nutzer selbst moderieren, eher ablehnend gegenüberstehen. Ein weiterer Nachteil besteht in der Gefahr der Bildung einer Gruppendynamik gegen manche Anwender und im Missbrauch der Rechte durch Nutzer. Bei einer Nutzergruppe mit echtem Interesse an der Aufrechterhaltung eines „sauberen“ Systems kann sich andererseits ein sehr gut funktionierendes, selbstreinigendes System ergeben, dass über lange Zeiträume hinweg ohne Probleme und ohne Moderationsarbeit bestehen kann.

Außerdem lässt sich ein solcher Ansatz, gerade in Kombination mit einem Belohnungssystem, auch sehr gut innerhalb einer Organisation anwenden. Beispielsweise könnten mehrere Mitarbeiter Inhalte erstellen, die dann von den Nutzern bewertet werden, deren Bewertungen dann letztlich Boni für die besser bewerteten Mitarbeiter auslösen. Auch hier wirkt wieder das oben bereits angesprochene System der Gamification, dass bei ansprechender Ausgestaltung durchaus auf spielerische Art einen Motivationsschub bei den Mitarbeitern auslösen kann.

Das Konzept nennt sich Peer-Moderation oder auch Verteilte Moderation. Die bekanntesten Websites, die auf dieses System bauen, sind vermutlich Slashdot und Reddit. Es wird aber auch auf vielen Online-Communities in dieser oder in leicht abgewandelter Form angewandt. Auch in der Gaming-Szene sind solche Ansätze sehr beliebt.

Automatisierte Moderation

Die oben genannten Moderations-Methoden beruhen alle auf einer menschlichen Kontrolle der von den Nutzern erstellten Inhalte. Allerdings sind alle diese Methoden selbst für kleinere Websites mittlerweile durch das massenhafte Auftreten von Spam zu arbeitsintensiv geworden. Selbst kleine Blogs unter Wordpress werden bereits wenige Wochen nach Freischaltung von Bots aufgefunden und ohne Absicherung sehr schnell Opfer von massenhaften Spam-Kommentaren. Bei Online-Shops stellt sich ab einer gewissen Größe neben dem Kommentar-Spam auch das Problem gefälschter Bewertungen, die sozialen Netzwerke haben mit massenhaften Falschmeldungen, Hass-Beiträgen, Diffamierungen, Rassismus und ähnlichem zu kämpfen.

Ohne einen zumindest rudimentären automatischen Filter (wenigsten für Spam-Kommentare) kann heute kaum noch eine Website auskommen. Und deswegen finden Sie in den folgenden Absätzen einen Überblick über die Möglichkeiten zur Automatisierung.

Spam-Filter

Ein Spam-Filter ist wahrscheinlich das Minimum, dass Sie heute auf Ihrer Website haben sollten. Für Anwender von Wordpress würde ich persönlich vom Einsatz des gerne verwendeten Google Captcha abraten. Und zwar sowohl aus Gründen der Performance als auch aufgrund der Probleme beim Datenschutz (alle Gründe finden Sie in diesem Artikel). Auch vom mit Wordpress installierten Akismet sollten sie aus datenschutzrechtlichen Gründen die Finger lassen.

Eine gute Alternative ist das auch auf dieser Website verwendete Plug-In Honeypot for WP Comment, das keinen Einrichtungsaufwand, keine Performance-Auswirkungen hat, keine Daten an irgendwelche Drittserver sendet und auf meinen Websites sehr zuverlässig funktioniert.

Auf anderen Content-Management-Systemen gibt es ähnliche Erweiterungen, teilweise ist die entsprechende Funktionalität möglicherweise sogar schon eingebaut.

In jedem Fall werden Sie es recht schnell bedauern, wenn Sie eine Kommentarfunktion in Ihrem Blog ohne automatisierten Spam-Filter verwenden. Falls das bereits der Fall ist und falls Sie Wordpress verwenden, empfehle ich Ihnen die Lektüre meines Artikels So verhindern Sie Spam-Kommentare in Wordpress.

Wort-Filter

Das nach einem Spam-Filter wohl am häufigsten verwendete Werkzeug dürfte der Wort-Filter sein. Je nach Ausgestaltung des Filters können Sie damit entweder bestimmte Wörter durch andere ersetzen oder Inhalte beim Auftreten in eine Warteschlange zur manuellen Kontrolle durch einen Moderator verschieben oder gleich direkt löschen.

IP-Filter

Ebenfalls recht beliebt sind IP-Filter, die Inhalte zurückweisen oder in eine Wareschlange verschieben, die von bestimmten IP-Adressen aus abgeschickt werden. Da diese Filter aber im Allgemeinen mit Listen von IP-Adressen arbeiten, die oftmals auf Servern außerhalb Europas gespeichert sind, können sich beim Einsatz schon durch die Übertragung der P-Adresse an einen dieser Server datenschutzrechtliche Probleme ergeben.

Moderation durch KI-Werkzeuge

Die Moderation durch Werkzeuge der künstlichen Intelligenz scheint momentan das Lieblingsprojekt von Facebook zu sein, zumindest gebraucht Mark Zuckerberg das Wort verdächtig häufig.

Und in Zahlen ausgedrückt ist das auch recht leicht zu verstehen. Allein im dritten Quartal 2019 hat Facebook mehr als 11 Millionen mal Inhalte gelöscht, die nackte Kinder zeigten oder in die Rubrik sexuelle Ausbeutung von Kindern fielen, rund doppelt so viele wie im ersten Quartal. 7 Millionen Beiträge wurde als Hassbotschaften identifiziert und gelöscht, ungefähr 80% mehr als im ersten Quartal.

Und das hätten selbst die immerhin 15.000 Moderatoren, die Facebook (selbst und über Drittfirmen) beschäftigt, wohl kaum ganz alleine geschafft. Es sind vor allem die rasanten Fortschritte bei den KI-Systemen von Facebook, die das möglich machen.

Denn auch wenn Mark Zuckerberg in seinen Anhörungen vor dem amerikanischen Kongress immer gesagt hat, dass es noch 5 bis 10 Jahre dauern würde, bis die KI-Systeme des Konzerns einsatzbereit wären, ist dem Konzern wohl doch bereits ein qualitativer Sprung gelungen.

Nachdem die Content-Moderator(inn)en von Facebook über Jahre hinweg nur über Beiträge und Kommentare zu entscheiden hatten, die von Nutzern des Netzwerks bemängelt wurden, suchen die Algorithmen von Facebook heute schon selbständig nach unerwünschten Inhalten und leiten sie der Moderation zu.

Systeme der künstlichen Intelligenz (KI-Systeme) haben in den letzten Jahren aufgrund der riesigen zur Verfügung stehenden Datenmengen und der gestiegenen Rechenkapazitäten enorme Fortschritte gemacht. Bei Bildern funktioniert die Automatisierung recht gut, nach Angaben von Facebook wurden etwa 96 Prozent der wegen Nacktheit entfernten Bilder durch „Erkennungstechnologie“ entdeckt. Facebook stellt diese Zahlen für Facebook und Instagram übrigens öffentlich unter dem Namen Community Standards Enforcement Report zur Verfügung.

Die Formulierung der Regeln für die KI-Systeme stellt ein weiteres Problem dar. Denn letztlich lautet die Frage ja gar nicht „Nackt oder nicht nackt?“, sondern eher „Wie nackt ist zu nackt für Facebook in der EU?“. Und sicherlich ist es verboten, Videos zu zeigen, in denen jemand der Kopf abgeschlagen wird. Aber wie sieht das aus, wenn das beispielsweise Tom & Jerry in einem Trickfilm tun.

Auch bei der menschlichen Sprache und der menschlichen Kultur stoßen die Algorithmen momentan noch an ihre Grenzen. Die Algorithmen haben erhebliche Schwierigkeiten mit Dingen wie Scherz und Satire. Eine Beleidigung, die normalerweise die Löschung eines Kommentars nach sich ziehen würde, kann völlig in Ordnung sein, wenn sie in einen Witz eingebettet ist. Aber die Algorithmen werden durch die Interaktion mit einem menschlichen Moderator immer besser, sie lernen dazu. Und werden deswegen vermutlich irgendwann auch Scherz und Satire erkennen können.

Ein anderes Problem wird sich allerdings nicht so schnell durch lernfähige Algorithmen aus der Welt schaffen lassen. Die Unterscheidung dessen, was erlaubt und verboten ist, wird häufig durch den Kontext bestimmt. Einerseits durch den Kontext der Konversation (in manchen Unterhaltungen ist okay, was in anderen eine Beleidigung wäre), andererseits durch den geographischen Kontext (manches, was bei uns okay ist, wäre in anderen Ländern nicht zulässig und umgekehrt). Und die Meinungsfreiheit lässt in den westlichen Demokratien vieles zu, was andernorts verboten wäre.

Dass die KI-Systeme jemals imstande sein werden, zuverlässig zwischen legitimen und illegitimen Inhalten zu unterscheiden, bezweifeln so ziemlich alle Fachleute. Und auch Facebook selbst legt Wert auf die Feststellung, dass am Ende alle relevanten Entscheidungen von Menschen getroffen werden und die Algorithmen nur Vorschläge liefern. Offenbar soll niemand den Eindruck bekommen, dass Maschinen über das hohe Gut der Meinungsfreiheit entscheiden würden.

Diese Menschen nennen sich Content-Moderatoren und um sie geht es im nächsten Abschnitt dieses Artikels.

Content-Moderator – Der Mensch hinter der Maschine

Viele Menschen glauben, dass anstößige Bilder und Inhalte in den sozialen Netzwerken von Algorithmen aufgespürt und gelöscht werden. Aber dem ist nicht so. Unerwünschte Inhalte werden zwar meist tatsächlich von Such-Algorithmen aufgespürt, dann aber in eine Warteschlange zur Kontrolle eingestellt. Und hinter diesen Warteschlangen sitzen Menschen, die diese Inhalte dann tatsächlich kontrollieren. Weltweit dürfte es mindestens 150.000 von ihnen geben, und man nennt sie Content-Moderator.

Diese Content-Moderatoren sitzen größtenteils irgendwo auf den Philippinen, Indien oder einem anderen Outsourcing-Hotspot der Welt. Ihr Job besteht darin, in langen Schichten all das zu sehen und zu kontrollieren, was die Algorithmen oder die Nutzer der großen Internet-Plattformen als verdächtig eingestuft haben.

Ein Content-Moderator klickt sich den ganzen Tag durch tausende Bilder und Videos unterschiedlicher Art, sei es nun Hassrede, Pornographie, Terror oder Gewalt, und muss dann innerhalb von wenigen Sekunden entscheiden, ob der Inhalt bleiben darf oder gelöscht werden muss.

Diese Kontrolle durch Menschen ist notwendig, weil Algorithmen manche Dinge eben nicht entscheiden können. Ist ein Bild mit einem Panzer und einem Bombeneinschlag nun (verbotenes) Propaganda-Material oder (erlaubte) Kriegsberichterstattung mit Nachrichtenwert? Ist ein Bild mit einem nackten Kind nun (verbotenes) kinderpornographisches Material oder ein (erlaubtes) Urlaubsbild vom Strand? Ist ein bestimmter Textbeitrag eine (verbotene) Beleidigung oder doch eher (erlaubte) Satire?

Content-Moderatoren sind so etwas wie die Polizei des Internets. Sie sehen ständig all die Inhalte, die zu schrecklich für die Allgemeinheit sind. Und sie zahlen einen hohen Preis dafür, denn die Tätigkeit verursacht sehr hohe psychologischen Belastungen und Traumata.

Wenn Sie mehr über die Tätigkeit der Content-Moderatoren erfahren möchten, dann finden Sie hier einige Quellen.

  • Auf YouTube finden Sie den Dokumentarfilm The Moderators von Ciaran Cassidy und Adrian Chen, der einen Einblick in die Schulung von Content-Moderatoren in Indien gibt.
  • Ebenfalls auf YouTube finden Sie das Video Google and YouTube moderators speak out, in dem der amerikanische Journalisten Casey Newton Menschen zu Wort kommen lässt, die in den USA als Content Moderator für Google und YouTube gearbeitet haben.
  • Die Süddeutsche Zeitung hat im Januar 2018 unter dem Titel Drei Monate Hölle einen sehr lesenswerten offenen Brief einer ehemaligen Mitarbeiterin des Berliner Unternehmens Arvato (einer Bertelsmann-Tochter), das Moderationsaufgaben für Facebook übernimmt, veröffentlicht, in dem sie über ihre Arbeit und die Folgen spricht.
  • Der sehenswerte Dokumentarfilm The Cleaners von Hans Block und Moritz Riesewieck erzählt die Geschichte einer gigantischen Schattenindustrie in Manila auf sehr eindrucksvolle Weise.

Reaktionen auf unerwünschte Beiträge

Die meisten Websites sanktionieren Benutzer, die ein- oder mehrmalig Inhalte verfassen, die nicht den Richtlinien entsprechen oder gegen gesetzliche Regelungen verstoßen. Je nach Art des Verstoßes sind hier verschiedene Sanktionen möglich, die alle Ihre Vor- und Nachteile aufweisen.

Leider ist eine Sanktionierung bis hin zur Sperrung des Kontos für manche Nutzer nicht zu umgehen. Wenn Sie bereits in verschiedenen Facebook-Gruppen aktiv sind, kennen Sie vermutlich bereits en einen oder anderen Fall aus eigener Anschauung.

Die Verwarnung

Der erste Schritt ist vermutlich eine freundliche Information an den jeweiligen Nutzer, in dem der Moderator ihm oder ihr mitteilt, dass er oder sie mit dem jeweiligen Inhalt ein wenig über das Ziel hinausgeschossen sei. Und dass er oder sie das doch künftig bitte unterlassen möge.

Die zeitweilige Sperre

Durch eine zeitweilige Sperre werden Nutzer für einen bestimmten Zeitpunkt von einer Diskussion ausgeschlossen. Diese Sperre wird dem jeweiligen Nutzer mitgeteilt.

Damit soll dem Nutzer eine gewisse Zeit eingeräumt werden, um sein Fehlverhalten einzusehen und zu überdenken.

Bei einem erneuten Fehlverhalten folgt entweder eine weitere zeitweilige oder die endgültige Sperre.

Der Shadow Ban

Als Shadow Ban (die beste deutsche Entsprechung ist wahrscheinlich Maulkorb) wird eine Technik in sozialen Netzwerken und Foren bezeichnet, die dafür sorgt, dass die Beiträge, die ein bestimmter Account veröffentlicht, keine anderen oder nur sehr begrenzte Nutzer erreicht. Für den Nutzer selbst werden seine Aktivitäten ganz normal angezeigt, er merkt nichts von der Sperre.

Dadurch, dass die Beiträge des Nutzers jetzt nur noch einigen wenigen Freunden überhaupt angezeigt werden, sorgt natürlich dafür, dass der Nutzer kaum noch Kommentare oder Likes auf seine Beiträge erhält.

Dadurch soll dem betroffenen Nutzer suggeriert werden, dass sich kaum jemand für seine Beiträge interessiert. Mit dem Ziel, dass er oder sie zu einem bestimmten Zeitpunkt die Motivation verliert und die Plattform verlässt.

In der Theorie ist das erfolgreicher als die Sperrung des Nutzers, da dies in vielen Fällen nur dazu führt, dass sie der jeweilige Nutzer einen neuen Account anlegt.

Shadow Bans gibt es im Internet schon seit den 80er Jahren, allerdings meist in kleineren Communities und Foren. Seit ein paar Jahren werden sie auch in Verbindung mit größeren Plattformen genannt. Es ist unklar, ob eines oder mehrere der großen Plattformen Shadow Bans benutzt, die Betreiber reden nicht darüber. Denn wenn die Praktik bestätigt würde, würde sie ihre Effektivität verlieren.

Die Sperrung des Kontos

Bei manchen Benutzern versagen alle Sanktionen. In diesen Fällen kann ein Website-Betreiber entweder zum Mittel des Shadow Ban (siehe oben) greifen und dem betreffenden Nutzer damit einen virtuellen Maulkorb anlegen. Oder er kann zum letzten Mittel greifen und das Konto des betreffenden Nutzers sperren. Diese Sperrung kann entweder zeitweilig oder permanent sein.

Eine permanente Sperrung ist allerdings eine etwas problematische Lösung. Denn der Typ von Nutzer, der es bis zu einer solchen Maßnahme kommen lässt, ist wahrscheinlich nicht besonders einsichtig und sucht den Fehler eher beim Website-Betreiber als bei sich selbst.

Deswegen ist die Wahrscheinlichkeit recht hoch, dass sich dieser Typ von Benutzer nach einer Sperrung seines Kontos mit einer anderen E-Mail-Adresse ein neues Benutzerkonto anlegen wird. Und sich vermutlich danach, weil er sich ja sowieso vom Website-Betreiber unverstanden fühlt, eher noch schlechter verhalten wird.

Was der Grund dafür ist, dass manche Website-Betreiber einen Shadow Ban für die bessere Lösung halten.

Rechtliche und gesellschaftliche Betrachtungen

Dieser Teil des Artikels befasst sich mit den möglichen Folgen für die Beitrags-Moderation durch die am 6. Juli 2019 in Kraft getretene EU-Richtlinie zum Urheberrecht. Außerdem geht er auch auf die Folgen ein, die sich daraus in Bezug auf die Meinungsfreiheit im Internet ergeben könnten.

Die Betrachtungen beziehen sich auf den Text der Richtlinie selbst und sind teilweise spekulativ. Endgültige Schlussfolgerungen sind erst nach der Umsetzung der Richtlinie in das nationale Recht der jeweiligen EU-Mitgliedsstaaten möglich, die bis zum 7. Juni 2021 abgeschlossen sein muss.

Die Richtlinie hat auf jeden Fall das Potenzial, die kulturelle Vielfalt im Netz erheblich zu beeinträchtigen. Deswegen ist es wichtig, dass im Rahmen der Umsetzung in nationales Recht einige gravierende Fehler der Richtlinie korrigiert werden. Und deswegen ist gerade jetzt eine breite Diskussion über die möglichen Folgen wichtig.

Das Hostprovider-Privileg

Das sogenannte Hostprovider-Privileg (im englischen auch unter „Notice and Takedown“ bekannt) legt fest, das im Internet jeder für seine eigenen Handlungen verantwortlich ist. Für fremdes Handeln besteht allenfalls eine eingeschränkte Haftung. Deshalb haften zunächst einmal die Nutzer selbst für die von ihnen erstellten Inhalte, die Website-Betreiber sind erst einmal nicht verantwortlich.

Die Verantwortung für eine Veröffentlichung von Inhalten liegt beim jeweiligen Nutzer, der Website-Betreiber kann daher auch keine Urheberrechte verletzen. Der Website-Betreiber ist lediglich für die Entfernung oder Sperrung solcher Inhalte verantwortlich, wenn er auf etwaige Rechtsverletzungen aufmerksam gemacht wird. Der Website-Betreiber muss also die auf seiner Website von den Nutzern veröffentlichten Inhalte nicht aktiv auf Rechtsverletzungen untersuchen, sondern lediglich im Bedarfsfall auf Beschwerden reagieren.

Deswegen ist eine reaktive Moderation (siehe oben) momentan rechtlich völlig ausreichend. Dieses Prinzip gilt in ähnlicher Form und Ausprägung in so ziemlich allen freiheitlichen Staaten, in Europa wurde es 2001 durch die E-Commerce-Richtlinie der EU und in den USA 1998 durch den Digital Millennium Copyright Act eingeführt.

Dieses Hostprovider-Privileg ist einer der Grundpfeiler für die freie Meinungsäußerung im Internet.

Die EU-Richtlinie zum Urheberrecht

Die EU-Richtlinie zum Urheberrecht nimmt in ihrer derzeitigen Form an diesem Punkt eine wichtige Änderung vor. Nach Artikel 17, Absatz 1 der Richtlinie sollen Website-Betreiber nämlich künftig für Urheberrechtsverletzungen ihrer Nutzer unmittelbar haften. Was bedeutet, dass nach dem Wortlaut der Richtlinie künftig der Website-Anbieter für Inhalte verantwortlich ist, die seine Nutzer auf seiner Website veröffentlichen. Und damit schon in dem Moment abgemahnt oder verklagt werden kann, in dem ein Beitrag online geht.

Und das wiederum bedeutet, dass die bisher praktizierte Form der reaktiven Moderation künftig vielleicht nicht mehr möglich sein wird, weil sich daraus für den Website-Betreiber unabsehbare rechtliche Risiken ergeben könnten. Und daher alle Beiträge im Prinzip vor der Veröffentlichung auf etwaige Rechtsverletzungen überprüft werden müssten.

Nun liest sich das schlimmer, als es eigentlich gemeint war. Denn durch Artikel 17 der Richtlinie sollte eigentlich erreicht werden, dass große und marktstarke Anbieter wie YouTube zum Abschuss von Lizenzverträgen mit den jeweiligen Verwertungsgesellschaften gezwungen sind. Nur dass das leider so nicht im Text der Richtlinie steht.

Denn Artikel 17 redet vom „Teilen von Online-Inhalten“, und das kann beinhaltet Fotos und Videos genauso wie Texte. Wenn also einer der Nutzer Ihrer Website einen Text veröffentlichen würde, der durch das Urheberrecht geschützt ist, dann wären Sie als Website-Betreiber nach der Richtlinie für diesen Verstoß haftbar. Die Größe der Website spielt keine Rolle, kleine Websites sind genauso betroffen wie die Internet-Giganten.

Lizenz-Verträge mit Verwertungsgesellschaften

Interessanterweise sind gerade in den Fällen, auf die sich Artikel 17 eigentlich beziehen sollte, solche Lizenzverträge zwischen Plattform und Verwertungsgesellschaft längst üblich. YouTube beispielsweise schließt schon seit langem Lizenzverträge mit Musikunternehmen und Verwertungsgesellschafen ab und bietet mit Content ID auch ein System an, mit dem die Rechteinhaber ihre Inhalte verwalten können.

Erschwerend kommt hinzu, dass es für die Rechte an vielen Online-Inhalten keine zentralen Verwertungsgesellschaften gibt. Das gilt beispielsweise für die meisten Texte, Fotos oder Videos, also für Millionen und Aber-Millionen von Online-Inhalten. In den meisten dieser Fälle dürfte es einem Website-Betreiber schlicht unmöglich sein, vorab Lizenzen für die Veröffentlichung solcher Inhalte einzuholen. Übrigens schon alleine deswegen, weil sich für einen Website-Betreiber logischerweise nicht absehen lässt, welche Online-Inhalte seine Nutzer in der Zukunft auf seiner Website veröffentlichen werden.

Der europäische Gesetzgeber ist bei der Ausformulierung davon ausgegangen, dass es einem Website-Betreiber möglich ist, für jeden möglicherweise von einem Nutzer veröffentlichten Beitrag die entsprechenden Lizenzrechte einzuholen. Diese Annahme mag durchaus auf YouTube und die Musikindustrie zutreffen, in jedem anderen Fall ist sie gefährlich falsch.

Die automatische Moderation

Wie oben erläutert, ist eine flächendeckende und umfassende Lizensierung aller möglicherweise veröffentlichten Online-Inhalte selbst bei aufwendigsten Bemühungen unmöglich. Und da nach der Logik der Richtlinie die Website-Betreiber verhindern sollen, dass nicht lizensierte Inhalte online gestellt werden können, bleiben kaum noch Auswege. Bei kleineren Websites mag eine manuelle Kontrolle der Beiträge mit viel Zeitaufwand gerade noch machbar sein, größeren Plattformen bleibt praktisch nur die automatische Moderation per Upload-Filter.

Und hier liegt die zweite Fehlannahme des Gesetzgebers. Denn die Logik der Richtlinie geht davon aus, dass die Rechteinhaber grundsätzlich ein Interesse daran haben, dass Urheberrechts-Verletzungen unterbunden werden. Und diese Prämisse widerspricht häufig sowohl den Interessen der Nutzer als auch denen der Rechteinhaber selbst.

Denn dazu ist das Urheberrecht viel zu weitgehend. Denn grundsätzlich würden schon kleinste Übernahmen aus fremdem Material in eigene Veröffentlichungen die Einholung einer Lizenz bedingen.

Vielfältige Online-Inhalte

Tatsächlich ist es nämlich so, dass sich im Netz massenweise Online-Inhalte finden, die rein urheberrechtlich betrachtet so gar nicht hätten veröffentlicht werden dürfen. Gegen deren Veröffentlichung die Rechteinhaber aber auch gar nichts einzuwenden haben.

Beispiele dafür wären Fan-Inhalte, Remixes, Hommagen, Karaoke-Videos oder auch Nutzervideos, auf denen geschütztes Material zu sehen ist. Eigentlich verbietet das Urheberrecht so etwas, es stellt aber gleichzeitig eine wertvolle Werbung für die Rechteinhaber dar und wird deswegen kaum jemals als Verletzung des Urheberrechts verfolgt.

Gerade bei großen Fan-Communities ist auch eine massenhafte Nachnutzung von geschützten Inhalten für den Rechteinhaber durchaus wünschenswert (und wird sogar gefördert), weil sich daraus eben auch erhebliche Werbeeffekte ergeben. Würden für jede dieser Nutzungen zunächst einmal Rechte abgeklärt und Lizenzen eingeholt werden, würden die meisten davon nicht im Internet existieren.

Denn das derzeit geltende Prinzip sorgt dafür, dass solche eigentlich urheberrechtswidrigen Inhalte nicht gelöscht oder blockiert werden, solange der Rechteinhaber sie nicht beanstandet. Und diese von den Rechteinhabern als Werbung verstandenen und deswegen gerne gesehenen Nachnutzungen werden logischerweise nie beanstandet, sondern eher gefördert.

Gefahr zu strenger Kontrollen

Bei einer strengen Umsetzung von Artikel 17 der Urheberrechts-Richtlinie in nationales Recht könnte sich das grundlegend ändern. Denn Website-Betreiber können (und dürfen) von sich aus nicht beurteilen, ob rechtswidrige Inhalte erwünscht, geduldet werden können oder sogar nützlich sind. Wenn Abmahnungen und Klagen drohen, werden sie ihr Haftungsrisiko minimieren müssen und zweifelhafte Beiträge eher nicht veröffentlichen. Sie können nicht darauf hoffen, dass Urheberrechts-Verletzungen vom Rechteinhaber geduldet werden.

Eine Umsetzung von Artikel 17 in der aktuellen Form würde daher sehr schnell für eine weitaus strengere Kontrolle von Online-Inhalten sorgen. Und diese Kontrolle würde zumindest bei den großen Online-Plattformen automatisiert geschehen müssen, weil eine manuelle Kontrolle aufgrund der enormen Datenmengen gar nicht möglich wäre. Das wiederum würde die freie Meinungsäußerung im Internet der Kontrolle von Algorithmen unterwerfen.

Der Website-Betreiber als Richter

Eine solche Umsetzung würde daneben einige Rechtsgrundsätze infrage stellen. Im deutschen Zivilrecht gilt ebenso wie in anderen europäischen Ländern der Grundsatz, dass Rechtsverletzungen nur dann verfolgt werden, wenn der in seinen Rechten Verletzte dagegen vorgeht. Dieser Grundsatz existierte schon im römischen Recht, die Römer nannten ihn „Nullo actore nullus iudex“, der deutsche Volksmund sagt „Wo kein Kläger, da kein Richter“.

Bei einer strengen Umsetzung des Artikels 17 könnte dieser Grundsatz teilweise ausgehebelt werden, da hier ein Website-Betreiber als Richter über die Frage entscheiden muss, ob ein bestimmter Inhalt veröffentlicht werden kann oder darf. Und zwar unabhängig davon, ob der Rechteinhaber überhaupt ein Interesse an einer Nicht-Veröffentlichung hat oder nicht. Hinzu kommt, dass der Richter in den meisten Fällen dann wohl keine menschliche Person wäre, sondern ein Algorithmus.

Noch ein zweiter fundamentaler Rechtsgrundsatz ist hier betroffen. Denn eigentlich ist im Falle eines rechtlichen Konflikts einzig und allein ein ordentliches Gericht zuständig. Aber in diesem Fall wird ein Website-Betreiber zum Richter gemacht, der weder neutral noch für diese Rolle ausgebildet oder legitimiert ist. Und der in den meisten Fällen seine Entscheidung auch noch einem mehr oder minder fortschrittlichen, in jedem Falle aber durch die Nutzer kaum kontrollierbaren Algorithmus überlassen dürfte.

Eine solche Umsetzung würde zumindest in Teilen Orwellsche Verhältnisse bedeuten. Und das kann eigentlich keiner ernsthaft wollen.

Die ideale Umsetzung

Glücklicherweise haben die nationalen Gesetzgeber erheblichen Einfluss auf die endgültige Ausgestaltung. Gerade der Artikel 17 sollte eigentlich nur einige Sonderfälle gelten. Und das war den Autoren der Richtlinie wohl auch bewusst, denn sie enthält einige Klauseln, mit deren Hilfe die Auswirkungen bei der Umsetzung in nationales Recht deutlich eingeschränkt werden können.

Zunächst einmal ist die Frage, auf welche Website-Anbieter der Artikel 17 eigentlich angewendet werden soll, von großer Bedeutung. Er sollte nur auf große, marktbeherrschende Anbieter angewendet werden und nicht-kommerzielle Anwender sollten von der Regelung ausgeschlossen werden. Und das muss klar aus der endgültigen Bestimmung hervorgehen.

Außerdem sollte die Ausgestaltung der in Absatz 1 verlangten Lizensierungsbemühungen der Website-Betreiber klar definiert werden. Damit sehr klar ist, ab wann die Betreiber, wie in Absatz 4 vorgesehen, von der Primärhaftung für die veröffentlichten Inhalte entbunden werden. Denn sobald der Website-Betreiber einmal alle geforderten Anstrengungen unternommen hat, gilt für ihn im Prinzip wieder das alte Hostprovider-Prinzip (siehe oben).

Einige Länder der EU scheinen übrigens durchaus erhebliche Probleme mit der Richtlinie zu haben. Finnland, Italien, Luxemburg, die Niederlande, Polen und Schweden haben dem Text der Richtlinie nicht zugestimmt, Estland hat sich der Stimme enthalten und Deutschland hat eine Stellungnahme beim EU-Rat eingereicht, in der speziell auf die Ausgestaltung von Artikel 17 eingegangen wird. Die Stellungnahme der 7 genannten Länder finden Sie bei Interesse hier.

Zusammenfassung

Zumindest der Artikel 17 der EU-Richtlinie zum Urheberrecht schießt in der verabschiedeten Formulierung weit über sein eigentliches Ziel hinaus. Für sein vorgegebenes Ziel, nämlich einer Einigung zwischen Plattformen wie YouTube und der Musikindustrie, wird er eigentlich gar nicht benötigt. Und für alle anderen Fälle, die er aufgrund der viel zu weit gefassten Formulierung ebenfalls abdecken würde, ist er ohne erhebliche Einschränkungen der Meinungsfreiheit im Internet nicht umsetzbar.

Die Umsetzung in nationales Recht bietet aufgrund diverser Klauseln die Möglichkeit, den Anwendungsbereich dieses Artikels so klein wie möglich zu halten. Und dass muss auch tatsächlich passieren, damit die freie Meinungsäußerung im Internet nicht in Gefahr gerät.

Denn gerade in der Politik gibt es viele Gruppen und Personen, die gerne noch erheblich schärfere Regeln durchsetzen wollen und für die die neue EU-Richtlinie zum Urheberrecht offenbar erst der Anfang ist.

Und das könnte ein deutlich größeres Problem hervorrufen. Denn bei schärferen Regelungen, insbesondere bei der angedachten Umkehrung der Haftungsregeln, würden viele Website-Betreiber zur Umstellung ihrer Systeme auf eine komplett automatisierte Kontrolle (die vielzitierten Upload-Filter) gezwungen sein.

Dann würden auf einmal Algorithmen anstelle von Content-Moderatoren darüber entscheiden, was wir sehen und posten dürfen und was nicht. Und wenn das jemals passieren sollte, werden wir uns möglicherweise recht schnell nach der guten alten Zeit mit der menschlichen Kontrolle und den menschlichen Fehlern zurücksehnen.

Nick Út, Napalm-Mädchen, 1972

Denn Satire und Humor wären dann nur noch möglich, wenn auch der Algorithmus den Witz begreift. Und so einiges andere auch. Vermutlich können Sie sich noch an das ikonische Foto von Nick Út aus dem Vietnamkrieg erinnern, dass Sie auf der rechten Seite sehen. Von den Facebook-Algorithmen wurde es entfernt, weil das Mädchen auf dem Foto nackt ist und vom Algorithmus in die Kategorie „Nacktheit von Kindern im Kontext des Holocaust“ eingeordnet wurde.

Und ich weiß ja nun nicht, wie Sie das sehen. Aber ich würde mein Recht zur freien Meinungsäußerung nur sehr ungerne einem solchen Algorithmus unterwerfen müssen.

Ist Content-Moderation Zensur?

Vielfach wird der Vorwurf erhoben, dass die Mechanismen zur Content-Moderation eine Form der Zensur darstellen. Und in gewisser Hinsicht sind diese Vorwürfe auch nicht ganz unrichtig.

Zwar wird einerseits kaum jemand bestreiten, dass es Inhalte gibt (Gewalt, Rassismus, Hass, Pornographie usw.), die auf einem sozialen Netzwerk nichts verloren haben. Andererseits ist es aber natürlich auch so, dass bei der Kontrolle der Inhalte durch die Content-Moderatoren ein enormer Zeitdruck besteht und schon dadurch Fehlentscheidungen kaum auszuschließen sind. Aber hier handelt es sich um menschliche Fehlentscheidungen, die in keinem Arbeitsumfeld ausgeschlossen werden können.

Etwas schwieriger wird es bei der Tatsache, dass die Entscheidung über die erlaubten bzw. verbotenen Inhalte alleine bei der jeweiligen Plattform liegt. Wenn also beispielsweise Facebook morgen entscheiden sollte, dass Inhalte aus einer bestimmten politischen Richtung nicht mehr erlaubt sind, dann könnte man das durchaus als gezielte Zensur werten. Aber solange dieser Vorgang transparent stattfindet und Facebook klar darüber aufklärt, was verboten ist und was nicht, wäre das durchaus erlaubt. Jeder Betreiber einer Website Plattform hat ganz klar das Recht festzulegen, was auf seiner Website akzeptabel ist und was nicht. Eine Einschränkung könnte sich allenfalls aus rechtlichen Vorschriften ergeben, beispielsweise durch das Diskriminierungsverbot. Die derzeit geltenden Regeln von Facebook finden Sie übrigens hier, Sie nennen sich Gemeinschaftsstandards und sind durchaus klar und verständlich.

Und natürlich sollte auch jeder Betreiber einer Website, egal ob Unternehmen oder Privatperson, für seine Website entscheiden können, welche Art von Inhalten auf dieser Website veröffentlicht werden darf. Dieses Recht wird kaum jemand infrage stellen, obwohl es sich auch hier genaugenommen um eine Form der Zensur handelt.

Fazit

Wie Sie sehen, ist die Moderation von Websites ein recht komplexes Thema. Das liegt daran, dass die Moderation von Beiträgen immer auch etwas mit gesellschaftlichen Themen wie der Meinungsfreiheit und mit rechtlichen Themen wie dem Urheberrecht zusammenhängt.

Dieser Artikel sollte die Zusammenhänge zwischen diesen Bereichen aufzeigen und Ihnen Informationen an die Hand geben, welche Moderations-Methode für Sie als Website-Betreiber die richtige sein könnte. Und er solle auch die Probleme beleuchten, die die Betreiber sehr große Websites wie Facebook mit der Moderation haben und warum sie automatische Verfahren dafür entwickeln.

Ich hoffe, dass dieser Artikel sein Ziel erreicht hat und dass Sie die Zusammenhänge und Probleme jetzt etwas besser nachvollziehen können. Wenn Sie Anmerkungen zu den hier angesprochenen Themen haben oder anderer Meinung sind, dann würde ich mich über Ihren Kommentar freuen.

Claus Nehring

Der Autor ist freiberuflicher Autor, Texter und Web-Entwickler mit Sitz in Luxemburg. Er ist diplomierter Informatiker und Statistiker und verfügt über jahrelange Erfahrung in der Visualisierung und Modellierung großer Datenmengen. Er publiziert Artikel zu Themen rund um Gesellschaft, Internet und verschiedene Wissenschaftsgebiete in seinem eigenen Blog und in verschiedenen Foren.

Related Articles

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.


Durch das Abschicken des Kommentars werden die eingegebenen Daten in der Datenbank dieser Website gespeichert. Ausserdem speichern wir aus Sicherheitsgründen Ihre IP-Adresse für einen Zeitraum von 60 Tagen. Weitere Informationen zur Datenverarbeitung finden Sie in der Datenschutz-Erklärung.

Back to top button
Close