Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
KI gegen Hass: Start-up will strafrechtlich relevante Kommentare automatisch filtern
Ein Berliner Start-up will Künstliche Intelligenz nutzen, um den Kampf gegen Hasskommentare im Netz effektiver zu gestaltet. Die KI-gestützte Software soll dazu Inhalte in sozialen Netzwerken und anderen Online-Plattformen analysieren und hasserfüllte sowie diskriminierende Äußerungen automatisch erkennen. Sobald entsprechende Inhalte identifiziert werden, sollen diese automatisch gemeldet und zur Überprüfung weitergeleitet werden. ... weiterlesen
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob die Bilanz von 1000 monatlichen Strafanträgen beachtlich ist oder nicht, möchte ich dann doch lieber einem Richter / Anwalt / Moderator aus Fleisch und Blut überlassen.
Zur Kontrolle von Äußerungen Dritter ist KI denkbar ungeeignet.
Besonders KI mit einem Businesscase im Hintergrund traue ich eine neutrale Analyse nicht zu.
Das gezielte verwässern zwischen "strafrechtlich relevant" und "unerwünschte Meinung aka Hass-Rede" ist besorgniserregend! Vor allem vor dem Hintergrund, das am Ende keiner mehr weiß, wer die KI wie trainiert hat! Wie soll da noch Meinungspluralität stattfinden, wenn bestimmte Meinungen nirgends mehr auftauchen, weil zensiert?
Die ganzen Entwicklungen sind äußerst bedenklich!
Edit: Und was bleibt von den 1000 automatischen Anzeigen am Ende hängen? Außer ein am Ende aufgeblähtes System wahrscheinlich nichts....
Das wird nur dazu führen daß sowas gar nicht mehr seitens der Justiz verfolgt wird oder dann automatisch durchgewunken wird ohne das sich irgendwer die Meldungen anguckt. Daher sollte die Justiz hier schnell tätig werden und dem Laden den weiter Betrieb untersagen, sowie entsprechende Zwangszahlung pro Tag bei Zuwiderhandlung festlegen.
Überhaupt den Artikel gelesen?: "Dabei soll besonders auf den Schutz der Meinungsfreiheit geachtet werden, um sicherzustellen, dass die Software nicht legitime Meinungen fälschlicherweise blockiert."
Es geht doch eben nicht mehr um Meinungsäußerungen, sondern um strafrechtliche relevante Inhalte, und die lassen sich mittels KI sehr gut rausfiltern. Eigentlich reicht schon eine Suche nach Schlüsselwörtern...
Daher sollte die Justiz hier schnell tätig werden und dem Laden den weiter Betrieb untersagen, sowie entsprechende Zwangszahlung pro Tag bei Zuwiderhandlung festlegen.
Damals als Foren noch von privaten Admins betrieben wurden, da wurde noch viel strenger moderiert. Die Admins mussten befürchten, dass man die im Zweifelsfall für ihr Forum verantwortlich sind. Daher wollten die den Laden sauber halten.
Das hatte natürlich zur Folge, dass Leute die sich nicht an die Netiquette halten wollten temporäre sperren bekamen. Irgendwann ggf auch dauerhaft. Und das war gut so.
Hier im Forum läufts ja eigentlich ganz gut. Bei X und Facebook und Co ist die Welt aber eben eine andere.
Heute meint jeder sich alles erlauben zu können. Es hat ja keine Konsequenzen.
Insofern finde ich das was das StartUp da vorhat gut. Bei vielen Kommentaren dürfte die Sachlage eindeutig sein.
Bei unklareren Sachen kann die Person die die Strafanzeigen bearbeitet immer noch anders entscheiden.
Das Recht des einen hört da auf, wo das Recht des anderen anfängt. Das gilt auch für die Meinungsfreiheit.
Überhaupt den Artikel gelesen?: "Dabei soll besonders auf den Schutz der Meinungsfreiheit geachtet werden, um sicherzustellen, dass die Software nicht legitime Meinungen fälschlicherweise blockiert."
Es geht doch eben nicht mehr um Meinungsäußerungen, sondern um strafrechtliche relevante Inhalte, und die lassen sich mittels KI sehr gut rausfiltern. Eigentlich reicht schon eine Suche nach Schlüsselwörtern...
Ja, hab ich! Wer definiert "legitime" Meinung? Der, der sie nicht mehr äußern kann? Oder der Zensor? Das ist doch der Grundsatz dieses Übels! Es wird irgendwo im dunklen Kämmerlein gemauschelt!
"Hass", der da adressiert wird ist nunmal kein Strafttatbetand, sondern ein Gefühl! Wenn es in Richtung Straftaten §§185ff StGB ginge, bräuchte man nicht dieses Vokabular "Hassrede".
Ferner gilt bei den §§185ff StGB, dass der betroffene sich adressiert, etc. fühlen muss! Wenn also eine KI eine Beleidigung gegen mich zur Anzeige bringt, durch die ich mich nicht beleidigt fühle....
Ich meine, dass Vorurteile, Fake-News, Hass und Hetze keinen Platz in unserer Gesellschaft und in der Kommunikation haben sollte. Viele werden seelisch verletzt oder auch zum Teil schwer krank dadurch, z.B. Aggression, Angstphobien, Depressionen, Selbstmorde, Radikalisierung, soziale Abgrenzung, angelernte Nicht-Hinterfragen-Dummheit, Trittbrettfahrer, kein Vertrauen zu anderen Menschen .... Die angebliche digitale KI-Unterstützung filtert strafrechtliche Kommentare und müssen von Rechtsvertreter vor Weitergabe gesichtet werden, um eine Strafverfolgung zu rechtfertigen. Aber diese Vorgehensweise ist eine hasserfüllte Reaktion zur Hetzjagd und Denunziation. Wenn das Schule macht, braucht man sich nicht wundern, wenn Gegenreaktionen kommen. Wo ist die Grenze? Übrigens, darf man unsere Bundeswehr nicht kritisieren, sonst ....
Warum wundert es mich nicht, dass sowas aus Berlin kommt?
Und nur weil das Ding die Behörden mit 1000 Strafanträgen zuscheisst, heißt das nicht, dass 1000 Strafverfahren eingeleitet werden und 1000 Verurteilungen stattfinden. Eher so maximal 3. Siehe Anzeigenhauptmeister.
Einfach unnötig und absoluter Klotz am Bein der Ermittlungsbehörden.
Wer kann was nicht mehr äußern? Zensur, und dies meint per Definition die vorangestellte Prüfung von Inhalten durch den Staat vor dessen Veröffentlichung, gibt es in Deutschland nicht. Nachträgliches Löschen fällt nicht unter den Zensur-Begriff, das ist juristisch eindeutig. Allerdings muss sich auch jeder für seine Äußerungen in Haftung nehmen lassen.
Korrekt, das sanktioniert ja auch keiner. Wenn daraus allerdings Straftaten erwachsen schon und da kann allein das Gefühl schon einen Unterschied machen: So wird ein Totschlag aus Hass aufgrund niedriger Beweggründe automatisch zum Mord.
1. In Nordkorea erfolgt das ohne KI sondern per denunzieren!
2. In Nordkorea verschwinden dann die betreffenden Personen einfach! (Also physikalisch, nicht nur medial. )
Besonders für kleinere Anbieter wie Hobby-Foren, Blogs oder Nischen-Communities stellt die Moderation eine große Herausforderung dar. Es gilt, sowohl die eigenen Community-Regeln durchzusetzen als auch gesetzliche Vorgaben einzuhalten.
Ich unterscheide also zwischen:
1. Hausregeln
Es könnte schwer Fallen ein Regelset aufzustellen, dass dann automatisch moderiert wird. Wortfilter, Linkfilter und so weiter sind klar aber wenn ich zum Beispiel keine Diskussionen über Politik oder Religion möchte, wird es schwierig sein zu justieren ab wann meine persönliche Grenze zu diesem Thema überschritten ist und moderiert wird. Allerdings habe ich das Problem auch bei manueller Moderation und Entscheidungen wirken manchmal willkürlich oder zumindest nicht nachvollziehbar. Wenn ich auf automatische Moderation setzte, kann hier allerdings auch nicht viel passieren - außer das ich den Unmut meiner Nutzer auf mich ziehe.
2. Gesetzte
Hier gibt es Regelsets und es gibt eine Reihe von Urteilen um die Systeme zu trainieren - vermutlich besser als die meisten Moderatoren. Ob das funktioniert ist nicht die Frage sondern wie gut das System sein muss, um möglichst wenige false-positiv Meldungen zu produzieren. Das Ergebnis muss nicht 0 sein, da es bei manueller Moderation auch nicht 0 ist.
Aber auch hier würde ich noch mal unterscheiden. Sind es:
a) "Schmierereien" in Form von linguistischem Sprechdurchfall, der aber ggf. bereits Gesetzte streifen könnte, dann sollte dieser Inhalt einfach gelöscht, ausgeblendet oder verschoben werden. Wir brauchen nicht Bagatellen die unser Rechtssystem noch mehr verstopfen.
b) Ernsthafte Entgleisungen, wie Morddrohungen, Aufruf zu Gewalt oder Straftaten insgesamt, hier könnte tatsächlich ein Snapshot der Informationen angefertigt werden, eine automatisierte Meldung erfolgen.
Stand heute sehe ich folgende Probleme:
Wie lange dauert es, bis ein System zuverlässig komplexe sprachliche Nuancen versteht und Sarkasmus nicht fehlinterpretiert?
Menschen sind gut darin automatisierte Systeme ins straucheln zu bringen. Entweder in dem man Codewörter und neue Formulierungen verwendet um den eigentlichen Sinn zu verschleiern. Zum Beispiel: Wenn aus Gewaltandrohung plötzlich "Kontaktfreudig" oder "Erlebnisorientiert" wird oder ein "Mit dem sollte jemand zum Fischen rausfahren". Außerdem sind Menschen talentiert darin solche Systeme irgend wann zu exploiten. Also das System so zu missbrauchen um unliebsame Personen in Schwierigkeiten zu bringen.
Wenn ich immer befürchten muss, dass jeder Satz durchleuchtet und auf strafrechtlich relevante Inhalte untersucht wird, könnte man schnell in einer Atmosphere landen, die keiner will. So eine Grenze ist schneller überschritten als man denkt und die Angst davor könnte bei manchen Menschen dafür sorgen, dass sie ihre Meinung nicht mehr äußern, auch wenn sie völlig ok ist.
Es geht also viel weniger darum ob es sinnvoll möglich ist sondern eher darum ab wann. Wie gesagt: das System muss nicht perfekt sein, es muss nur besser sein als die, die es aktuell umsetzen. In manchen Plattformen würde ich mir eine automatisierte Moderation schon heute wünschen, als die voreingenommenen Moderatoren die da aktuell sitzen.
Die "Vorgänger" von Zensursoftware waren dagegen wohl nur ein laues Lüftchen. So wie die Forensoftware hier, die bestimmte Begriffe durch Sternchen ersetzt, womit es wohl Beleidigungen "verhindern" soll, es aber beispielsweise auch unmöglich wird, die vergangenheitsform von "beträgt" zu schreiben. Auch mit kleinem Buchstaben am Beginn.
Das Problem wird wie immer sein, wer diese "KI" mit welchen Schlüsselwörtern programmiert. Angesichts der aktuellen Situation im Lande wäre ich nicht überrascht, wenn Wörter wie "Schwurbler, Querdenker, Covidiot (Saskia Esken) Nazi, Antisemit" etc. problemlos durchgehen, obwohl sie in gefühlt 50% aller Anwendungen veritable Beleidigungen darstellen, während das Wort "Kinderbuchautor" auf den Index käme.
Das gezielte verwässern zwischen "strafrechtlich relevant" und "unerwünschte Meinung aka Hass-Rede" ist besorgniserregend! Vor allem vor dem Hintergrund, das am Ende keiner mehr weiß, wer die KI wie trainiert hat! Wie soll da noch Meinungspluralität stattfinden, wenn bestimmte Meinungen nirgends mehr auftauchen, weil zensiert?
Die ganzen Entwicklungen sind äußerst bedenklich!
Edit: Und was bleibt von den 1000 automatischen Anzeigen am Ende hängen? Außer ein am Ende aufgeblähtes System wahrscheinlich nichts....
Ich würde mich nicht wundern, wenn man die Kosten dieser Aktionen künftig von den Leuten einfordert, die hier angeblich "beleidigend" wurden, auch ohne daß es zu einer Anklage kam.
Entsprechende Vorbilder gibt es ja schon, wie Landesmedienanstalten, die Internetmedien maßregeln, und für diese Aktionen "Verwaltungsgebühren" in Rechnung stellen, obwohl die Beanstandungen juristisch unhaltbar sind.
Oder wie es mir mal erging, daß ich ein Schreiben der Staatanwaltschaft bekam, daß ein Verfahren wegen... (das Wort kann man hier nicht schreiben - Foren-KI) gegen mich eingestellt worden sei. Wer es angestrengt hatte, erfuhr ich nicht. Und als ich einen Anwalt kontaktierte, riet der mir dazu, nichts zu unternehmen. Ich hätte zwar ein Auskunftsrecht, aber im Ernstfall würde das bedeuten, daß man mir die gesamten Schriftstücke kopieren und zuschicken würde, und ich die Kosten dafür zu tragen hätte. Und wieviele das wären, würde mir vorher niemand sagen.
Die "Vorgänger" von Zensursoftware waren dagegen wohl nur ein laues Lüftchen. So wie die Forensoftware hier, die bestimmte Begriffe durch Sternchen ersetzt, womit es wohl Beleidigungen "verhindern" soll, es aber beispielsweise auch unmöglich wird, die vergangenheitsform von "beträgt" zu schreiben. Auch mit kleinem Buchstaben am Beginn.
Das Problem wird wie immer sein, wer diese "KI" mit welchen Schlüsselwörtern programmiert. Angesichts der aktuellen Situation im Lande wäre ich nicht überrascht, wenn Wörter wie "Schwurbler, Querdenker, Covidiot (Saskia Esken) Nazi, Antisemit" etc. problemlos durchgehen, obwohl sie in gefühlt 50% aller Anwendungen veritable Beleidigungen darstellen, während das Wort "Kinderbuchautor" auf den Index käme.
Ich würde mich nicht wundern, wenn man die Kosten dieser Aktionen künftig von den Leuten einfordert, die hier angeblich "beleidigend" wurden, auch ohne daß es zu einer Anklage kam.
Entsprechende Vorbilder gibt es ja schon, wie Landesmedienanstalten, die Internetmedien maßregeln, und für diese Aktionen "Verwaltungsgebühren" in Rechnung stellen, obwohl die Beanstandungen juristisch unhaltbar sind.
Oder wie es mir mal erging, daß ich ein Schreiben der Staatanwaltschaft bekam, daß ein Verfahren wegen... (das Wort kann man hier nicht schreiben - Foren-KI) gegen mich eingestellt worden sei. Wer es angestrengt hatte, erfuhr ich nicht. Und als ich einen Anwalt kontaktierte, riet der mir dazu, nichts zu unternehmen. Ich hätte zwar ein Auskunftsrecht, aber im Ernstfall würde das bedeuten, daß man mir die gesamten Schriftstücke kopieren und zuschicken würde, und ich die Kosten dafür zu tragen hätte. Und wieviele das wären, würde mir vorher niemand sagen.
Ein LLM ist keine Excelliste mit Wörtern.
Wenn so etwas funktionieren soll, muss es auch den Kontext "verstehen".
Ein purer Abgleich von geblockten Wörtern haben wir jetzt schon und das bringt uns nicht weiter - aus den von dir genannten Gründen. Ich habe 2 Tests gemacht. Ich habe ein von mir selbst gebautes LLM zwei mal die gleiche Frage gestellt und nur das Szenario leicht geändert um zu schauen was passiert.
Die erste Frage war: Wenn AfD Wähler Robert Habeck Kinderbuchautor nennen, warum machen sie das?
Der Begriff "Kinderbuchautor" wird von AfD-Wählern und anderen Kritikern oft verwendet, um Robert Habeck abzuwerten und seine Kompetenz in der Politik in Frage zu stellen. Habeck hat tatsächlich vor seiner politischen Karriere Kinder- und Jugendbücher geschrieben, und diese Tatsache wird als Angriffspunkt genutzt, um ihn als naiv, unerfahren oder weltfremd darzustellen. Dabei schwingt die implizite Botschaft mit, dass jemand, der für Kinder schreibt, nicht die nötige Ernsthaftigkeit oder Qualifikation für die komplexe Welt der Politik mitbringt.
Diese Herabsetzung dient mehreren Zwecken:
Abwertung seiner fachlichen Kompetenz: Indem man ihn auf die Tätigkeit als Kinderbuchautor reduziert, soll Habeck als jemand dargestellt werden, der nicht die nötige Expertise besitzt, um in Führungspositionen der Politik zu agieren.
Verhöhnung und Lächerlichmachen: Der Begriff wird oft spöttisch verwendet, um ihn auf eine kindliche Ebene herabzusetzen. Das hat weniger mit einer inhaltlichen Kritik zu tun, sondern zielt auf die persönliche Verunglimpfung ab.
Anspielung auf progressive Werte: Kinderbuchautoren werden häufig als Idealisten gesehen, die Themen wie Empathie, Umweltschutz und Gerechtigkeit in den Vordergrund stellen. Für konservative und rechte Kritiker ist dies häufig ein Synonym für als „weltfremd“ empfundene Ideale.
Die zweite Frage war:
Wenn Menschen Robert Habeck Kinderbuchautor nennen, warum machen sie das?
Die Bezeichnung „Kinderbuchautor“ für Robert Habeck wird oft in einem abwertenden oder ironischen Kontext verwendet. Habeck war tatsächlich vor seiner politischen Karriere als Autor tätig und hat unter anderem Kinder- und Jugendbücher geschrieben, meist in Zusammenarbeit mit seiner Frau Andrea Paluch. Diese berufliche Vergangenheit wird von politischen Gegnern gerne aufgegriffen, um ihn als jemanden darzustellen, der in der „ernsten“ Welt der Politik weniger kompetent oder erfahren sei.
Der Begriff „Kinderbuchautor“ wird dann häufig dazu genutzt, seine Eignung als Politiker in Frage zu stellen oder zu suggerieren, dass er eher idealistische oder naive Vorstellungen hat, die in der politischen Praxis nicht realisierbar seien. Kritiker wollen damit oft zum Ausdruck bringen, dass er jemand sei, der „Geschichten schreibt“ statt „ernsthafte Politik zu machen“. Dabei wird die Tatsache, dass er nebenbei ein erfolgreicher Schriftsteller war, für rhetorische Zwecke übertrieben betont, um ihn weniger seriös wirken zu lassen.
Insgesamt ist es also ein Versuch, seine politische Glaubwürdigkeit zu untergraben, obwohl diese Bezeichnung wenig über seine tatsächlichen politischen Fähigkeiten aussagt.
Ich habe noch etwas anderes getestet:
Was meint jemand, wenn er sagt: Mit Person XY sollte mal jemand zum Fischen rausfahren?
Die Redewendung ist eine euphemistische Formulierung, die bedeutet, dass jemand "verschwinden" soll oder sich um diese Person gekümmert werden müsste – meist in einem drastischen Sinne. "Fischen" ist ein Hinweis darauf, jemanden auf brutale Weise loszuwerden, z. B. ins Wasser zu werfen.
Das war schon erstaunlich gut muss ich sagen und ich habe es nicht darauf angelegt einen Mod-Filter zu bekommen und ich mache das auch nicht kommerziell und habe kein Team. Es geht weit über irgend welche Keywordlisten hinaus.
Unsere Agent Provocateur hier sind mal wieder ganz fleißig...
... ob wir aus der Sache zur Abwechslung mal wieder nur per Flächenbombardment befreit werden können...? Herrje.
Das war schon erstaunlich gut muss ich sagen und ich habe es nicht darauf angelegt einen Mod-Filter zu bekommen und ich mache das auch nicht kommerziell und habe kein Team. Es geht weit über irgend welche Keywordlisten hinaus.
KI ist vielen noch fremd, daher die Berührungsängste. Das sieht man aber immer wenn sich neue Techniken etablieren. Oft weil man sie nicht versteht.
Ich finde sie als Unterstützung nicht verkehrt. Straftaten nicht mehr anzuzeigen finde ich eher den falschen Weg. Dass die Anzahl dadurch steigen wird.....klar....aber Resignation wegen Überlastung kann halt auch nicht die Lösung sein.
Nachdem du ja anscheinend auf den mimimi Knopf gedrückt hast, nachdem du meine Aussagen verdreht hast nochmal zum mitschreiben:
Keine KI und auch sonst niemand hat zu entscheiden, wann ich beleidigt werde. Das mach ich und sonst niemand. Unterlasse es, mir falsche Tatsachen zu unterstellen.
ich hoffe das war jetzt höflich und nicht beleidigend genug
Keine KI und auch sonst niemand hat zu entscheiden, wann ich beleidigt werde. Das mach ich und sonst niemand. Unterlasse es, mir falsche Tatsachen zu unterstellen.
Doch, du bist nämlich potentiell blöd. So blöd, dass du mit 30%iger Wahrscheinlichkeit AfD wählst.
Drum ist höchste Eisenbahn, dass für dich entschieden wird, damit du dich nicht selbst gefährdest (und noch schlimmer - andere, oder gar das Klima!).
Alles wischiwaschi, sagt einer DIE gehören hier nicht her, ist das hass-rede, sagen die anderen Kartoffelquetschen gehen ist das humor......
Redefreiheit beinhaltet auch Kritik die den einen oder anderen eben mal nicht gefällt ..... mfg
Straftaten nicht mehr anzuzeigen finde ich eher den falschen Weg. Dass die Anzahl dadurch steigen wird.....klar....aber Resignation wegen Überlastung kann halt auch nicht die Lösung sein.
Kommt nur darauf an. was man als "Straftat" definiert. Ein besonders "umstrittener" Minister ist da beispielsweise sehr umtriebig. Der verklagt alles, was bei drei nicht auf den Baum ist. Wieviele dieser Klagen überhaupt zur Verhandlung kamen, ist indes nicht bekannt. Umgekehrt haut er auch einfach mal so Behauptungen in die Welt über "von Putin finanzierte Parteien", die auf nichts als Gerüchten basieren oder schaltet den Verfassungsschutz ein, nach "russischen Agenten" in seinem Ministerium zu suchen, weil ihm altgediente Beamte seines Ministerium inhaltlich (und intern!) widersprachen.
Das BSW erhalte Geld aus China und Russland, sagte Robert Habeck im sächsischen Landtagswahlkampf. Nun gab der Grünen-Politiker eine Unterlassungserklärung ab.
Nach angeblichem Spionageverdacht im Bundeswirtschaftsministerium herrscht gegenseitiges Misstrauen. Wurde der Verfassungsschutz auf Beamte angesetzt, um Kritiker einzuschüchtern?
www.telepolis.de
Mit automatisierter "Strafermittlung" durch den Kollegen KI würden sich solche Probleme wohl noch potenzieren.
Reitet mal nicht so auf den tatsächlichen Straftatbeständen rum! Wie schon erwähnt, ist die häufig angeführte "Beleidigung" ein "Antragsdelikt", da muss der Beleidigte einen Antrag auf Strafverfolgung stellen (Anzeige) und kein Dritter!
Es geht, wie im Text der News schon steht um "Moderation".... Was dann nur noch bedeuten kann, wenn es keine Straftat ist, muss es etwas "unerwünschtes" sein... Die letzten Jahre haben wir ja zu genüge erlebt, was man den Leuten glauben machen wollte und was dann hinterher ans Licht kam. Wenn nirgends mehr über ein Thema XYZ gesprochen werden kann... Kann man sich keine eigene und differenzierte Meinung bilden!
Oder nach Orwell: "Zu guter Letzt werden wir Gedankendelikte buchstäblich unmöglich machen, weil es keine Wörter mehr geben wird, um sie auszudrücken."
Und wieder zeigen unsere Demokraten wie demokratisch Sie sind, rein zurfällig ist R Habeck , einer der ersten und besten Kunden. Es geht um Einschüchterung und nicht wirklich um "Hass".
Das hab ich garnicht, ehrlich. Eigentlich wollte ich auch gerade schauen, was du auf meine Antwort geschrieben hast. Aber das scheint ein Mod wohl versenkt zu haben, schade
Keine KI und auch sonst niemand hat zu entscheiden, wann ich beleidigt werde. Das mach ich und sonst niemand. Unterlasse es, mir falsche Tatsachen zu unterstellen.
Das ist dein gutes Recht. Es ging aber darum, dass du die automatische Filterung mittels KI als unnötige Belastung der Behörden siehst, darauf bezog sich auch meine Frage. Wenn ich tausende von Hass-Mails bekomme, warum sollte ich nicht auf so ein Instrument zurückgreifen, um zu sortieren, mit was sich die Ermittelungsbehörden beschäftigen sollen? Und selbst wenn da am Ende nix bei rauskommt, man muss sich nicht beleidigen lassen.
Das war schon erstaunlich gut muss ich sagen und ich habe es nicht darauf angelegt einen Mod-Filter zu bekommen und ich mache das auch nicht kommerziell und habe kein Team. Es geht weit über irgend welche Keywordlisten hinaus.
Das ist halt schon leider sehr sehr geil! Kompliment! Das Potential was in der Technologie steckt ist beeindruckend. Der Debattenkultur im Netz kann es nur zuträglich. Es ist halt echt keine gute Entwicklung, dass diese Aggressivität aus dem Netz immer stärker in die reale Welt diffundiert. Ich vermute mal, dass diese "KI-Moderation", wenn sie aus den Kinderschuhen raus ist, sich auch rasend schnell verbreiten wird.
Der Vorgang als solcher beinhaltet ja schon die Strafe.
Allein schon durch Formfehler ist man da als Normalbürger schnell dran.
Deswegen sollte man auch im Falle eines Falles immer einen Rechtsanwalt bemühen.
Und nicht vergessen, auf seinen Kosten bleibt man auch dann sitzen, wenn das Verfahren wegen Nichtigkeit eingestellt wird.
Die Justiz wird hier als Waffe gegen den Normalbürger in Stellung gebracht.