Besonders für kleinere Anbieter wie Hobby-Foren, Blogs oder Nischen-Communities stellt die Moderation eine große Herausforderung dar. Es gilt, sowohl die eigenen Community-Regeln durchzusetzen als auch gesetzliche Vorgaben einzuhalten.
Ich unterscheide also zwischen:
1. Hausregeln
Es könnte schwer Fallen ein Regelset aufzustellen, dass dann automatisch moderiert wird. Wortfilter, Linkfilter und so weiter sind klar aber wenn ich zum Beispiel keine Diskussionen über Politik oder Religion möchte, wird es schwierig sein zu justieren ab wann meine persönliche Grenze zu diesem Thema überschritten ist und moderiert wird. Allerdings habe ich das Problem auch bei manueller Moderation und Entscheidungen wirken manchmal willkürlich oder zumindest nicht nachvollziehbar. Wenn ich auf automatische Moderation setzte, kann hier allerdings auch nicht viel passieren - außer das ich den Unmut meiner Nutzer auf mich ziehe.
2. Gesetzte
Hier gibt es Regelsets und es gibt eine Reihe von Urteilen um die Systeme zu trainieren - vermutlich besser als die meisten Moderatoren. Ob das funktioniert ist nicht die Frage sondern wie gut das System sein muss, um möglichst wenige false-positiv Meldungen zu produzieren. Das Ergebnis muss nicht 0 sein, da es bei manueller Moderation auch nicht 0 ist.
Aber auch hier würde ich noch mal unterscheiden. Sind es:
a) "Schmierereien" in Form von linguistischem Sprechdurchfall, der aber ggf. bereits Gesetzte streifen könnte, dann sollte dieser Inhalt einfach gelöscht, ausgeblendet oder verschoben werden. Wir brauchen nicht Bagatellen die unser Rechtssystem noch mehr verstopfen.
b) Ernsthafte Entgleisungen, wie Morddrohungen, Aufruf zu Gewalt oder Straftaten insgesamt, hier könnte tatsächlich ein Snapshot der Informationen angefertigt werden, eine automatisierte Meldung erfolgen.
Stand heute sehe ich folgende Probleme:
- Wie lange dauert es, bis ein System zuverlässig komplexe sprachliche Nuancen versteht und Sarkasmus nicht fehlinterpretiert?
- Menschen sind gut darin automatisierte Systeme ins straucheln zu bringen. Entweder in dem man Codewörter und neue Formulierungen verwendet um den eigentlichen Sinn zu verschleiern. Zum Beispiel: Wenn aus Gewaltandrohung plötzlich "Kontaktfreudig" oder "Erlebnisorientiert" wird oder ein "Mit dem sollte jemand zum Fischen rausfahren". Außerdem sind Menschen talentiert darin solche Systeme irgend wann zu exploiten. Also das System so zu missbrauchen um unliebsame Personen in Schwierigkeiten zu bringen.
- Wenn ich immer befürchten muss, dass jeder Satz durchleuchtet und auf strafrechtlich relevante Inhalte untersucht wird, könnte man schnell in einer Atmosphere landen, die keiner will. So eine Grenze ist schneller überschritten als man denkt und die Angst davor könnte bei manchen Menschen dafür sorgen, dass sie ihre Meinung nicht mehr äußern, auch wenn sie völlig ok ist.
Es geht also viel weniger darum ob es sinnvoll möglich ist sondern eher darum ab wann. Wie gesagt: das System muss nicht perfekt sein, es muss nur besser sein als die, die es aktuell umsetzen. In manchen Plattformen würde ich mir eine automatisierte Moderation schon heute wünschen, als die voreingenommenen Moderatoren die da aktuell sitzen.