KI gegen Hass: Start-up will strafrechtlich relevante Kommentare automatisch filtern

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.622
Ein Berliner Start-up will Künstliche Intelligenz nutzen, um den Kampf gegen Hasskommentare im Netz effektiver zu gestaltet. Die KI-gestützte Software soll dazu Inhalte in sozialen Netzwerken und anderen Online-Plattformen analysieren und hasserfüllte sowie diskriminierende Äußerungen automatisch erkennen. Sobald entsprechende Inhalte identifiziert werden, sollen diese automatisch gemeldet und zur Überprüfung weitergeleitet werden.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob die Bilanz von 1000 monatlichen Strafanträgen beachtlich ist oder nicht, möchte ich dann doch lieber einem Richter / Anwalt / Moderator aus Fleisch und Blut überlassen.

Zur Kontrolle von Äußerungen Dritter ist KI denkbar ungeeignet.

Besonders KI mit einem Businesscase im Hintergrund traue ich eine neutrale Analyse nicht zu.
 
Das gezielte verwässern zwischen "strafrechtlich relevant" und "unerwünschte Meinung aka Hass-Rede" ist besorgniserregend! Vor allem vor dem Hintergrund, das am Ende keiner mehr weiß, wer die KI wie trainiert hat! Wie soll da noch Meinungspluralität stattfinden, wenn bestimmte Meinungen nirgends mehr auftauchen, weil zensiert?
Die ganzen Entwicklungen sind äußerst bedenklich!

Edit: Und was bleibt von den 1000 automatischen Anzeigen am Ende hängen? Außer ein am Ende aufgeblähtes System wahrscheinlich nichts....
 
Das wird nur dazu führen daß sowas gar nicht mehr seitens der Justiz verfolgt wird oder dann automatisch durchgewunken wird ohne das sich irgendwer die Meldungen anguckt. Daher sollte die Justiz hier schnell tätig werden und dem Laden den weiter Betrieb untersagen, sowie entsprechende Zwangszahlung pro Tag bei Zuwiderhandlung festlegen.
 
wir haben keine kapazitäten für so einen schwachsinn

absolut gar keine!
 
Das gezielte verwässern zwischen "strafrechtlich relevant" und "unerwünschte Meinung aka Hass-Rede" ist besorgniserregend!

Überhaupt den Artikel gelesen?: "Dabei soll besonders auf den Schutz der Meinungsfreiheit geachtet werden, um sicherzustellen, dass die Software nicht legitime Meinungen fälschlicherweise blockiert."

Wie soll da noch Meinungspluralität stattfinden, wenn bestimmte Meinungen nirgends mehr auftauchen, weil zensiert?

Es geht doch eben nicht mehr um Meinungsäußerungen, sondern um strafrechtliche relevante Inhalte, und die lassen sich mittels KI sehr gut rausfiltern. Eigentlich reicht schon eine Suche nach Schlüsselwörtern...

Daher sollte die Justiz hier schnell tätig werden und dem Laden den weiter Betrieb untersagen, sowie entsprechende Zwangszahlung pro Tag bei Zuwiderhandlung festlegen.

Mit welcher Rechtsgrundlage denn?? Die Strafanzeige von strafbaren Inhalten unter Strafe stellen?
 
Ich finde es gut.

Damals als Foren noch von privaten Admins betrieben wurden, da wurde noch viel strenger moderiert. Die Admins mussten befürchten, dass man die im Zweifelsfall für ihr Forum verantwortlich sind. Daher wollten die den Laden sauber halten.

Das hatte natürlich zur Folge, dass Leute die sich nicht an die Netiquette halten wollten temporäre sperren bekamen. Irgendwann ggf auch dauerhaft. Und das war gut so.

Hier im Forum läufts ja eigentlich ganz gut. Bei X und Facebook und Co ist die Welt aber eben eine andere.

Heute meint jeder sich alles erlauben zu können. Es hat ja keine Konsequenzen.

Insofern finde ich das was das StartUp da vorhat gut. Bei vielen Kommentaren dürfte die Sachlage eindeutig sein.
Bei unklareren Sachen kann die Person die die Strafanzeigen bearbeitet immer noch anders entscheiden.

Das Recht des einen hört da auf, wo das Recht des anderen anfängt. Das gilt auch für die Meinungsfreiheit.
 
Überhaupt den Artikel gelesen?: "Dabei soll besonders auf den Schutz der Meinungsfreiheit geachtet werden, um sicherzustellen, dass die Software nicht legitime Meinungen fälschlicherweise blockiert."
Es geht doch eben nicht mehr um Meinungsäußerungen, sondern um strafrechtliche relevante Inhalte, und die lassen sich mittels KI sehr gut rausfiltern. Eigentlich reicht schon eine Suche nach Schlüsselwörtern...
Ja, hab ich! Wer definiert "legitime" Meinung? Der, der sie nicht mehr äußern kann? Oder der Zensor? Das ist doch der Grundsatz dieses Übels! Es wird irgendwo im dunklen Kämmerlein gemauschelt!

"Hass", der da adressiert wird ist nunmal kein Strafttatbetand, sondern ein Gefühl! Wenn es in Richtung Straftaten §§185ff StGB ginge, bräuchte man nicht dieses Vokabular "Hassrede".

Ferner gilt bei den §§185ff StGB, dass der betroffene sich adressiert, etc. fühlen muss! Wenn also eine KI eine Beleidigung gegen mich zur Anzeige bringt, durch die ich mich nicht beleidigt fühle....
Beitrag automatisch zusammengeführt:

wir haben keine kapazitäten für so einen schwachsinn

absolut gar keine!
Mach dir da keine Illusionen! Dafür werden dann schon Kapazitäten geschaffen....

Edit:

Ich finde das Doppel-Plus-Ungut!
 
Ich meine, dass Vorurteile, Fake-News, Hass und Hetze keinen Platz in unserer Gesellschaft und in der Kommunikation haben sollte. Viele werden seelisch verletzt oder auch zum Teil schwer krank dadurch, z.B. Aggression, Angstphobien, Depressionen, Selbstmorde, Radikalisierung, soziale Abgrenzung, angelernte Nicht-Hinterfragen-Dummheit, Trittbrettfahrer, kein Vertrauen zu anderen Menschen .... Die angebliche digitale KI-Unterstützung filtert strafrechtliche Kommentare und müssen von Rechtsvertreter vor Weitergabe gesichtet werden, um eine Strafverfolgung zu rechtfertigen. Aber diese Vorgehensweise ist eine hasserfüllte Reaktion zur Hetzjagd und Denunziation. Wenn das Schule macht, braucht man sich nicht wundern, wenn Gegenreaktionen kommen. Wo ist die Grenze? Übrigens, darf man unsere Bundeswehr nicht kritisieren, sonst ....
 
Warum wundert es mich nicht, dass sowas aus Berlin kommt?

Und nur weil das Ding die Behörden mit 1000 Strafanträgen zuscheisst, heißt das nicht, dass 1000 Strafverfahren eingeleitet werden und 1000 Verurteilungen stattfinden. Eher so maximal 3. Siehe Anzeigenhauptmeister.
Einfach unnötig und absoluter Klotz am Bein der Ermittlungsbehörden.
 
Wer definiert "legitime" Meinung?

Jede Meinung ist legitim. Das ist auch nicht die Frage, sondern ob die Äußerungen strafrechtliche Relevanz haben.

Der, der sie nicht mehr äußern kann? Oder der Zensor?

Wer kann was nicht mehr äußern? Zensur, und dies meint per Definition die vorangestellte Prüfung von Inhalten durch den Staat vor dessen Veröffentlichung, gibt es in Deutschland nicht. Nachträgliches Löschen fällt nicht unter den Zensur-Begriff, das ist juristisch eindeutig. Allerdings muss sich auch jeder für seine Äußerungen in Haftung nehmen lassen.

Es wird irgendwo im dunklen Kämmerlein gemauschelt!

Wer mauschelt was wo? Da komme ich nicht ganz mit.

"Hass", der da adressiert wird ist nunmal kein Strafttatbetand, sondern ein Gefühl!

Korrekt, das sanktioniert ja auch keiner. Wenn daraus allerdings Straftaten erwachsen schon und da kann allein das Gefühl schon einen Unterschied machen: So wird ein Totschlag aus Hass aufgrund niedriger Beweggründe automatisch zum Mord.

Warum wundert es mich nicht, dass sowas aus Berlin kommt?

Dir ist aber schon klar, wo die meisten Start-ups in Deutschland entstehen?

Einfach unnötig und absoluter Klotz am Bein der Ermittlungsbehörden.

Also Beleidigungen garnicht mehr juristisch verfolgen? Das kollidiert schon allein mit Art. 2 GG, wenn jeder einen straflos beleidigen kann.
 
Also Beleidigungen garnicht mehr juristisch verfolgen? Das kollidiert schon allein mit Art. 2 GG, wenn jeder einen straflos beleidigen kann.
Poste exakt die Stelle wo ich genau das gesagt habe oder verpiss dich mir Worte in den Mund zu legen.
danke ciao

echt jedes mal das Gleiche mit euch Leuten.
 
Zuletzt bearbeitet:
Besonders für kleinere Anbieter wie Hobby-Foren, Blogs oder Nischen-Communities stellt die Moderation eine große Herausforderung dar. Es gilt, sowohl die eigenen Community-Regeln durchzusetzen als auch gesetzliche Vorgaben einzuhalten.

Ich unterscheide also zwischen:

1. Hausregeln
Es könnte schwer Fallen ein Regelset aufzustellen, dass dann automatisch moderiert wird. Wortfilter, Linkfilter und so weiter sind klar aber wenn ich zum Beispiel keine Diskussionen über Politik oder Religion möchte, wird es schwierig sein zu justieren ab wann meine persönliche Grenze zu diesem Thema überschritten ist und moderiert wird. Allerdings habe ich das Problem auch bei manueller Moderation und Entscheidungen wirken manchmal willkürlich oder zumindest nicht nachvollziehbar. Wenn ich auf automatische Moderation setzte, kann hier allerdings auch nicht viel passieren - außer das ich den Unmut meiner Nutzer auf mich ziehe.

2. Gesetzte
Hier gibt es Regelsets und es gibt eine Reihe von Urteilen um die Systeme zu trainieren - vermutlich besser als die meisten Moderatoren. Ob das funktioniert ist nicht die Frage sondern wie gut das System sein muss, um möglichst wenige false-positiv Meldungen zu produzieren. Das Ergebnis muss nicht 0 sein, da es bei manueller Moderation auch nicht 0 ist.

Aber auch hier würde ich noch mal unterscheiden. Sind es:

a) "Schmierereien" in Form von linguistischem Sprechdurchfall, der aber ggf. bereits Gesetzte streifen könnte, dann sollte dieser Inhalt einfach gelöscht, ausgeblendet oder verschoben werden. Wir brauchen nicht Bagatellen die unser Rechtssystem noch mehr verstopfen.

b) Ernsthafte Entgleisungen, wie Morddrohungen, Aufruf zu Gewalt oder Straftaten insgesamt, hier könnte tatsächlich ein Snapshot der Informationen angefertigt werden, eine automatisierte Meldung erfolgen.

Stand heute sehe ich folgende Probleme:
  • Wie lange dauert es, bis ein System zuverlässig komplexe sprachliche Nuancen versteht und Sarkasmus nicht fehlinterpretiert?
  • Menschen sind gut darin automatisierte Systeme ins straucheln zu bringen. Entweder in dem man Codewörter und neue Formulierungen verwendet um den eigentlichen Sinn zu verschleiern. Zum Beispiel: Wenn aus Gewaltandrohung plötzlich "Kontaktfreudig" oder "Erlebnisorientiert" wird oder ein "Mit dem sollte jemand zum Fischen rausfahren". Außerdem sind Menschen talentiert darin solche Systeme irgend wann zu exploiten. Also das System so zu missbrauchen um unliebsame Personen in Schwierigkeiten zu bringen.
  • Wenn ich immer befürchten muss, dass jeder Satz durchleuchtet und auf strafrechtlich relevante Inhalte untersucht wird, könnte man schnell in einer Atmosphere landen, die keiner will. So eine Grenze ist schneller überschritten als man denkt und die Angst davor könnte bei manchen Menschen dafür sorgen, dass sie ihre Meinung nicht mehr äußern, auch wenn sie völlig ok ist.

Es geht also viel weniger darum ob es sinnvoll möglich ist sondern eher darum ab wann. Wie gesagt: das System muss nicht perfekt sein, es muss nur besser sein als die, die es aktuell umsetzen. In manchen Plattformen würde ich mir eine automatisierte Moderation schon heute wünschen, als die voreingenommenen Moderatoren die da aktuell sitzen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh