KI gegen Hass: Start-up will strafrechtlich relevante Kommentare automatisch filtern

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.624
Ein Berliner Start-up will Künstliche Intelligenz nutzen, um den Kampf gegen Hasskommentare im Netz effektiver zu gestaltet. Die KI-gestützte Software soll dazu Inhalte in sozialen Netzwerken und anderen Online-Plattformen analysieren und hasserfüllte sowie diskriminierende Äußerungen automatisch erkennen. Sobald entsprechende Inhalte identifiziert werden, sollen diese automatisch gemeldet und zur Überprüfung weitergeleitet werden.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob die Bilanz von 1000 monatlichen Strafanträgen beachtlich ist oder nicht, möchte ich dann doch lieber einem Richter / Anwalt / Moderator aus Fleisch und Blut überlassen.

Zur Kontrolle von Äußerungen Dritter ist KI denkbar ungeeignet.

Besonders KI mit einem Businesscase im Hintergrund traue ich eine neutrale Analyse nicht zu.
 
Das gezielte verwässern zwischen "strafrechtlich relevant" und "unerwünschte Meinung aka Hass-Rede" ist besorgniserregend! Vor allem vor dem Hintergrund, das am Ende keiner mehr weiß, wer die KI wie trainiert hat! Wie soll da noch Meinungspluralität stattfinden, wenn bestimmte Meinungen nirgends mehr auftauchen, weil zensiert?
Die ganzen Entwicklungen sind äußerst bedenklich!

Edit: Und was bleibt von den 1000 automatischen Anzeigen am Ende hängen? Außer ein am Ende aufgeblähtes System wahrscheinlich nichts....
 
Das wird nur dazu führen daß sowas gar nicht mehr seitens der Justiz verfolgt wird oder dann automatisch durchgewunken wird ohne das sich irgendwer die Meldungen anguckt. Daher sollte die Justiz hier schnell tätig werden und dem Laden den weiter Betrieb untersagen, sowie entsprechende Zwangszahlung pro Tag bei Zuwiderhandlung festlegen.
 
wir haben keine kapazitäten für so einen schwachsinn

absolut gar keine!
 
Das gezielte verwässern zwischen "strafrechtlich relevant" und "unerwünschte Meinung aka Hass-Rede" ist besorgniserregend!

Überhaupt den Artikel gelesen?: "Dabei soll besonders auf den Schutz der Meinungsfreiheit geachtet werden, um sicherzustellen, dass die Software nicht legitime Meinungen fälschlicherweise blockiert."

Wie soll da noch Meinungspluralität stattfinden, wenn bestimmte Meinungen nirgends mehr auftauchen, weil zensiert?

Es geht doch eben nicht mehr um Meinungsäußerungen, sondern um strafrechtliche relevante Inhalte, und die lassen sich mittels KI sehr gut rausfiltern. Eigentlich reicht schon eine Suche nach Schlüsselwörtern...

Daher sollte die Justiz hier schnell tätig werden und dem Laden den weiter Betrieb untersagen, sowie entsprechende Zwangszahlung pro Tag bei Zuwiderhandlung festlegen.

Mit welcher Rechtsgrundlage denn?? Die Strafanzeige von strafbaren Inhalten unter Strafe stellen?
 
Ich finde es gut.

Damals als Foren noch von privaten Admins betrieben wurden, da wurde noch viel strenger moderiert. Die Admins mussten befürchten, dass man die im Zweifelsfall für ihr Forum verantwortlich sind. Daher wollten die den Laden sauber halten.

Das hatte natürlich zur Folge, dass Leute die sich nicht an die Netiquette halten wollten temporäre sperren bekamen. Irgendwann ggf auch dauerhaft. Und das war gut so.

Hier im Forum läufts ja eigentlich ganz gut. Bei X und Facebook und Co ist die Welt aber eben eine andere.

Heute meint jeder sich alles erlauben zu können. Es hat ja keine Konsequenzen.

Insofern finde ich das was das StartUp da vorhat gut. Bei vielen Kommentaren dürfte die Sachlage eindeutig sein.
Bei unklareren Sachen kann die Person die die Strafanzeigen bearbeitet immer noch anders entscheiden.

Das Recht des einen hört da auf, wo das Recht des anderen anfängt. Das gilt auch für die Meinungsfreiheit.
 
Überhaupt den Artikel gelesen?: "Dabei soll besonders auf den Schutz der Meinungsfreiheit geachtet werden, um sicherzustellen, dass die Software nicht legitime Meinungen fälschlicherweise blockiert."
Es geht doch eben nicht mehr um Meinungsäußerungen, sondern um strafrechtliche relevante Inhalte, und die lassen sich mittels KI sehr gut rausfiltern. Eigentlich reicht schon eine Suche nach Schlüsselwörtern...
Ja, hab ich! Wer definiert "legitime" Meinung? Der, der sie nicht mehr äußern kann? Oder der Zensor? Das ist doch der Grundsatz dieses Übels! Es wird irgendwo im dunklen Kämmerlein gemauschelt!

"Hass", der da adressiert wird ist nunmal kein Strafttatbetand, sondern ein Gefühl! Wenn es in Richtung Straftaten §§185ff StGB ginge, bräuchte man nicht dieses Vokabular "Hassrede".

Ferner gilt bei den §§185ff StGB, dass der betroffene sich adressiert, etc. fühlen muss! Wenn also eine KI eine Beleidigung gegen mich zur Anzeige bringt, durch die ich mich nicht beleidigt fühle....
Beitrag automatisch zusammengeführt:

wir haben keine kapazitäten für so einen schwachsinn

absolut gar keine!
Mach dir da keine Illusionen! Dafür werden dann schon Kapazitäten geschaffen....

Edit:

Ich finde das Doppel-Plus-Ungut!
 
Ich meine, dass Vorurteile, Fake-News, Hass und Hetze keinen Platz in unserer Gesellschaft und in der Kommunikation haben sollte. Viele werden seelisch verletzt oder auch zum Teil schwer krank dadurch, z.B. Aggression, Angstphobien, Depressionen, Selbstmorde, Radikalisierung, soziale Abgrenzung, angelernte Nicht-Hinterfragen-Dummheit, Trittbrettfahrer, kein Vertrauen zu anderen Menschen .... Die angebliche digitale KI-Unterstützung filtert strafrechtliche Kommentare und müssen von Rechtsvertreter vor Weitergabe gesichtet werden, um eine Strafverfolgung zu rechtfertigen. Aber diese Vorgehensweise ist eine hasserfüllte Reaktion zur Hetzjagd und Denunziation. Wenn das Schule macht, braucht man sich nicht wundern, wenn Gegenreaktionen kommen. Wo ist die Grenze? Übrigens, darf man unsere Bundeswehr nicht kritisieren, sonst ....
 
Warum wundert es mich nicht, dass sowas aus Berlin kommt?

Und nur weil das Ding die Behörden mit 1000 Strafanträgen zuscheisst, heißt das nicht, dass 1000 Strafverfahren eingeleitet werden und 1000 Verurteilungen stattfinden. Eher so maximal 3. Siehe Anzeigenhauptmeister.
Einfach unnötig und absoluter Klotz am Bein der Ermittlungsbehörden.
 
Wer definiert "legitime" Meinung?

Jede Meinung ist legitim. Das ist auch nicht die Frage, sondern ob die Äußerungen strafrechtliche Relevanz haben.

Der, der sie nicht mehr äußern kann? Oder der Zensor?

Wer kann was nicht mehr äußern? Zensur, und dies meint per Definition die vorangestellte Prüfung von Inhalten durch den Staat vor dessen Veröffentlichung, gibt es in Deutschland nicht. Nachträgliches Löschen fällt nicht unter den Zensur-Begriff, das ist juristisch eindeutig. Allerdings muss sich auch jeder für seine Äußerungen in Haftung nehmen lassen.

Es wird irgendwo im dunklen Kämmerlein gemauschelt!

Wer mauschelt was wo? Da komme ich nicht ganz mit.

"Hass", der da adressiert wird ist nunmal kein Strafttatbetand, sondern ein Gefühl!

Korrekt, das sanktioniert ja auch keiner. Wenn daraus allerdings Straftaten erwachsen schon und da kann allein das Gefühl schon einen Unterschied machen: So wird ein Totschlag aus Hass aufgrund niedriger Beweggründe automatisch zum Mord.

Warum wundert es mich nicht, dass sowas aus Berlin kommt?

Dir ist aber schon klar, wo die meisten Start-ups in Deutschland entstehen?

Einfach unnötig und absoluter Klotz am Bein der Ermittlungsbehörden.

Also Beleidigungen garnicht mehr juristisch verfolgen? Das kollidiert schon allein mit Art. 2 GG, wenn jeder einen straflos beleidigen kann.
 
Also Beleidigungen garnicht mehr juristisch verfolgen? Das kollidiert schon allein mit Art. 2 GG, wenn jeder einen straflos beleidigen kann.
Poste exakt die Stelle wo ich genau das gesagt habe oder verpiss dich mir Worte in den Mund zu legen.
danke ciao

echt jedes mal das Gleiche mit euch Leuten.
 
Zuletzt bearbeitet:
Besonders für kleinere Anbieter wie Hobby-Foren, Blogs oder Nischen-Communities stellt die Moderation eine große Herausforderung dar. Es gilt, sowohl die eigenen Community-Regeln durchzusetzen als auch gesetzliche Vorgaben einzuhalten.

Ich unterscheide also zwischen:

1. Hausregeln
Es könnte schwer Fallen ein Regelset aufzustellen, dass dann automatisch moderiert wird. Wortfilter, Linkfilter und so weiter sind klar aber wenn ich zum Beispiel keine Diskussionen über Politik oder Religion möchte, wird es schwierig sein zu justieren ab wann meine persönliche Grenze zu diesem Thema überschritten ist und moderiert wird. Allerdings habe ich das Problem auch bei manueller Moderation und Entscheidungen wirken manchmal willkürlich oder zumindest nicht nachvollziehbar. Wenn ich auf automatische Moderation setzte, kann hier allerdings auch nicht viel passieren - außer das ich den Unmut meiner Nutzer auf mich ziehe.

2. Gesetzte
Hier gibt es Regelsets und es gibt eine Reihe von Urteilen um die Systeme zu trainieren - vermutlich besser als die meisten Moderatoren. Ob das funktioniert ist nicht die Frage sondern wie gut das System sein muss, um möglichst wenige false-positiv Meldungen zu produzieren. Das Ergebnis muss nicht 0 sein, da es bei manueller Moderation auch nicht 0 ist.

Aber auch hier würde ich noch mal unterscheiden. Sind es:

a) "Schmierereien" in Form von linguistischem Sprechdurchfall, der aber ggf. bereits Gesetzte streifen könnte, dann sollte dieser Inhalt einfach gelöscht, ausgeblendet oder verschoben werden. Wir brauchen nicht Bagatellen die unser Rechtssystem noch mehr verstopfen.

b) Ernsthafte Entgleisungen, wie Morddrohungen, Aufruf zu Gewalt oder Straftaten insgesamt, hier könnte tatsächlich ein Snapshot der Informationen angefertigt werden, eine automatisierte Meldung erfolgen.

Stand heute sehe ich folgende Probleme:
  • Wie lange dauert es, bis ein System zuverlässig komplexe sprachliche Nuancen versteht und Sarkasmus nicht fehlinterpretiert?
  • Menschen sind gut darin automatisierte Systeme ins straucheln zu bringen. Entweder in dem man Codewörter und neue Formulierungen verwendet um den eigentlichen Sinn zu verschleiern. Zum Beispiel: Wenn aus Gewaltandrohung plötzlich "Kontaktfreudig" oder "Erlebnisorientiert" wird oder ein "Mit dem sollte jemand zum Fischen rausfahren". Außerdem sind Menschen talentiert darin solche Systeme irgend wann zu exploiten. Also das System so zu missbrauchen um unliebsame Personen in Schwierigkeiten zu bringen.
  • Wenn ich immer befürchten muss, dass jeder Satz durchleuchtet und auf strafrechtlich relevante Inhalte untersucht wird, könnte man schnell in einer Atmosphere landen, die keiner will. So eine Grenze ist schneller überschritten als man denkt und die Angst davor könnte bei manchen Menschen dafür sorgen, dass sie ihre Meinung nicht mehr äußern, auch wenn sie völlig ok ist.

Es geht also viel weniger darum ob es sinnvoll möglich ist sondern eher darum ab wann. Wie gesagt: das System muss nicht perfekt sein, es muss nur besser sein als die, die es aktuell umsetzen. In manchen Plattformen würde ich mir eine automatisierte Moderation schon heute wünschen, als die voreingenommenen Moderatoren die da aktuell sitzen.
 
Poste exakt die Stelle wo ich genau das gesagt habe oder verpiss dich mir Worte in den Mund zu legen.

Das war doch bloß eine Frage :hmm: Aus deiner Antwort lese ich, dass man sich gefälligst beleidigen lassen soll, weil man bei der Menge an Vergehen bei einer Anzeige ja nur die Behörden belastet. Oder was wolltest du darstellen?

Besonders für kleinere Anbieter wie Hobby-Foren, Blogs oder Nischen-Communities stellt die Moderation eine große Herausforderung dar.

Ich denke dafür sind diese KI-Werkzeuge ideal. Kein Mensch kann heute noch die Flut an Beiträgen manuell moderieren. In ein paar Jahren (wenn es überhaupt solange dauert) werden sich derartige Lösungen wohl fast überall finden.
 
dann lies nochmal und denk genau drüber nach. Ich geb dir nen Tipp: Keine KI und auch sonst niemand hat zu entscheiden, wann ich beleidigt wurde, sondern das mache immer noch exklusiv ich.
KI ist der bullshit des Jahres und sämtlichen scheiss darauf abzuwälzen zu wollen, ist absoluter Schwachsinn.
 
Das Grauen nimmt Gestalt an...

Die "Vorgänger" von Zensursoftware waren dagegen wohl nur ein laues Lüftchen. So wie die Forensoftware hier, die bestimmte Begriffe durch Sternchen ersetzt, womit es wohl Beleidigungen "verhindern" soll, es aber beispielsweise auch unmöglich wird, die vergangenheitsform von "beträgt" zu schreiben. Auch mit kleinem Buchstaben am Beginn.

Das Problem wird wie immer sein, wer diese "KI" mit welchen Schlüsselwörtern programmiert. Angesichts der aktuellen Situation im Lande wäre ich nicht überrascht, wenn Wörter wie "Schwurbler, Querdenker, Covidiot (Saskia Esken) Nazi, Antisemit" etc. problemlos durchgehen, obwohl sie in gefühlt 50% aller Anwendungen veritable Beleidigungen darstellen, während das Wort "Kinderbuchautor" auf den Index käme.
Beitrag automatisch zusammengeführt:

Das gezielte verwässern zwischen "strafrechtlich relevant" und "unerwünschte Meinung aka Hass-Rede" ist besorgniserregend! Vor allem vor dem Hintergrund, das am Ende keiner mehr weiß, wer die KI wie trainiert hat! Wie soll da noch Meinungspluralität stattfinden, wenn bestimmte Meinungen nirgends mehr auftauchen, weil zensiert?
Die ganzen Entwicklungen sind äußerst bedenklich!

Edit: Und was bleibt von den 1000 automatischen Anzeigen am Ende hängen? Außer ein am Ende aufgeblähtes System wahrscheinlich nichts....
Ich würde mich nicht wundern, wenn man die Kosten dieser Aktionen künftig von den Leuten einfordert, die hier angeblich "beleidigend" wurden, auch ohne daß es zu einer Anklage kam.

Entsprechende Vorbilder gibt es ja schon, wie Landesmedienanstalten, die Internetmedien maßregeln, und für diese Aktionen "Verwaltungsgebühren" in Rechnung stellen, obwohl die Beanstandungen juristisch unhaltbar sind.
Oder wie es mir mal erging, daß ich ein Schreiben der Staatanwaltschaft bekam, daß ein Verfahren wegen... (das Wort kann man hier nicht schreiben - Foren-KI) gegen mich eingestellt worden sei. Wer es angestrengt hatte, erfuhr ich nicht. Und als ich einen Anwalt kontaktierte, riet der mir dazu, nichts zu unternehmen. Ich hätte zwar ein Auskunftsrecht, aber im Ernstfall würde das bedeuten, daß man mir die gesamten Schriftstücke kopieren und zuschicken würde, und ich die Kosten dafür zu tragen hätte. Und wieviele das wären, würde mir vorher niemand sagen.
Beitrag automatisch zusammengeführt:

wir haben keine kapazitäten für so einen schwachsinn

absolut gar keine!
Um unschuldige Bürger zu gängeln, ist immer genug Geld da....
 
Zuletzt bearbeitet:
Das Grauen nimmt Gestalt an...

Die "Vorgänger" von Zensursoftware waren dagegen wohl nur ein laues Lüftchen. So wie die Forensoftware hier, die bestimmte Begriffe durch Sternchen ersetzt, womit es wohl Beleidigungen "verhindern" soll, es aber beispielsweise auch unmöglich wird, die vergangenheitsform von "beträgt" zu schreiben. Auch mit kleinem Buchstaben am Beginn.

Das Problem wird wie immer sein, wer diese "KI" mit welchen Schlüsselwörtern programmiert. Angesichts der aktuellen Situation im Lande wäre ich nicht überrascht, wenn Wörter wie "Schwurbler, Querdenker, Covidiot (Saskia Esken) Nazi, Antisemit" etc. problemlos durchgehen, obwohl sie in gefühlt 50% aller Anwendungen veritable Beleidigungen darstellen, während das Wort "Kinderbuchautor" auf den Index käme.

Ich würde mich nicht wundern, wenn man die Kosten dieser Aktionen künftig von den Leuten einfordert, die hier angeblich "beleidigend" wurden, auch ohne daß es zu einer Anklage kam.

Entsprechende Vorbilder gibt es ja schon, wie Landesmedienanstalten, die Internetmedien maßregeln, und für diese Aktionen "Verwaltungsgebühren" in Rechnung stellen, obwohl die Beanstandungen juristisch unhaltbar sind.
Oder wie es mir mal erging, daß ich ein Schreiben der Staatanwaltschaft bekam, daß ein Verfahren wegen... (das Wort kann man hier nicht schreiben - Foren-KI) gegen mich eingestellt worden sei. Wer es angestrengt hatte, erfuhr ich nicht. Und als ich einen Anwalt kontaktierte, riet der mir dazu, nichts zu unternehmen. Ich hätte zwar ein Auskunftsrecht, aber im Ernstfall würde das bedeuten, daß man mir die gesamten Schriftstücke kopieren und zuschicken würde, und ich die Kosten dafür zu tragen hätte. Und wieviele das wären, würde mir vorher niemand sagen.

Ein LLM ist keine Excelliste mit Wörtern.
Wenn so etwas funktionieren soll, muss es auch den Kontext "verstehen".

Ein purer Abgleich von geblockten Wörtern haben wir jetzt schon und das bringt uns nicht weiter - aus den von dir genannten Gründen. Ich habe 2 Tests gemacht. Ich habe ein von mir selbst gebautes LLM zwei mal die gleiche Frage gestellt und nur das Szenario leicht geändert um zu schauen was passiert.

Die erste Frage war:
Wenn AfD Wähler Robert Habeck Kinderbuchautor nennen, warum machen sie das?

Der Begriff "Kinderbuchautor" wird von AfD-Wählern und anderen Kritikern oft verwendet, um Robert Habeck abzuwerten und seine Kompetenz in der Politik in Frage zu stellen. Habeck hat tatsächlich vor seiner politischen Karriere Kinder- und Jugendbücher geschrieben, und diese Tatsache wird als Angriffspunkt genutzt, um ihn als naiv, unerfahren oder weltfremd darzustellen. Dabei schwingt die implizite Botschaft mit, dass jemand, der für Kinder schreibt, nicht die nötige Ernsthaftigkeit oder Qualifikation für die komplexe Welt der Politik mitbringt.

Diese Herabsetzung dient mehreren Zwecken:
  1. Abwertung seiner fachlichen Kompetenz: Indem man ihn auf die Tätigkeit als Kinderbuchautor reduziert, soll Habeck als jemand dargestellt werden, der nicht die nötige Expertise besitzt, um in Führungspositionen der Politik zu agieren.
  2. Verhöhnung und Lächerlichmachen: Der Begriff wird oft spöttisch verwendet, um ihn auf eine kindliche Ebene herabzusetzen. Das hat weniger mit einer inhaltlichen Kritik zu tun, sondern zielt auf die persönliche Verunglimpfung ab.
  3. Anspielung auf progressive Werte: Kinderbuchautoren werden häufig als Idealisten gesehen, die Themen wie Empathie, Umweltschutz und Gerechtigkeit in den Vordergrund stellen. Für konservative und rechte Kritiker ist dies häufig ein Synonym für als „weltfremd“ empfundene Ideale.

Die zweite Frage war:
Wenn Menschen Robert Habeck Kinderbuchautor nennen, warum machen sie das?

Die Bezeichnung „Kinderbuchautor“ für Robert Habeck wird oft in einem abwertenden oder ironischen Kontext verwendet. Habeck war tatsächlich vor seiner politischen Karriere als Autor tätig und hat unter anderem Kinder- und Jugendbücher geschrieben, meist in Zusammenarbeit mit seiner Frau Andrea Paluch. Diese berufliche Vergangenheit wird von politischen Gegnern gerne aufgegriffen, um ihn als jemanden darzustellen, der in der „ernsten“ Welt der Politik weniger kompetent oder erfahren sei.

Der Begriff „Kinderbuchautor“ wird dann häufig dazu genutzt, seine Eignung als Politiker in Frage zu stellen oder zu suggerieren, dass er eher idealistische oder naive Vorstellungen hat, die in der politischen Praxis nicht realisierbar seien. Kritiker wollen damit oft zum Ausdruck bringen, dass er jemand sei, der „Geschichten schreibt“ statt „ernsthafte Politik zu machen“. Dabei wird die Tatsache, dass er nebenbei ein erfolgreicher Schriftsteller war, für rhetorische Zwecke übertrieben betont, um ihn weniger seriös wirken zu lassen.

Insgesamt ist es also ein Versuch, seine politische Glaubwürdigkeit zu untergraben, obwohl diese Bezeichnung wenig über seine tatsächlichen politischen Fähigkeiten aussagt.

Ich habe noch etwas anderes getestet:
Was meint jemand, wenn er sagt: Mit Person XY sollte mal jemand zum Fischen rausfahren?

Die Redewendung ist eine euphemistische Formulierung, die bedeutet, dass jemand "verschwinden" soll oder sich um diese Person gekümmert werden müsste – meist in einem drastischen Sinne. "Fischen" ist ein Hinweis darauf, jemanden auf brutale Weise loszuwerden, z. B. ins Wasser zu werfen.

Das war schon erstaunlich gut muss ich sagen und ich habe es nicht darauf angelegt einen Mod-Filter zu bekommen und ich mache das auch nicht kommerziell und habe kein Team. Es geht weit über irgend welche Keywordlisten hinaus.
 
Yeah, eine Abmahn-Anwalt-KI...

Unsere Agent Provocateur hier sind mal wieder ganz fleißig...
... ob wir aus der Sache zur Abwechslung mal wieder nur per Flächenbombardment befreit werden können...? Herrje.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh