KI gegen Urheberrecht: New York Times klagt gegen Microsoft und OpenAI

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.972
Mit dem Aufkommen der neuen KI-Modelle zeichnete sich bereits früh ein Konflikt zwischen den Technologie-Konzernen und den Inhabern von Urheberrechten ab. Kritisiert wurde dabei schon von Beginn an, dass sich die Unternehmen zum Trainieren ihrer KI an urheberrechtlich geschütztem Material bedienen. Aus dieser Kritik entwickeln sich zunehmend handfeste Rechtsstreitigkeiten. Die New York Times hat nun sowohl OpenAI wie auch Microsoft wegen Urheberrechtsverletzungen verklagt. Die Klage greift dabei die generelle Kritik im Kern wieder auf.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei Texten natürlich etwas schwerer nachzuweisen, bei Bildern ist es mehr als offensichtlich, da überall die Copyrightlogos auftauchen. Wobei Milliarden-Konzerne, die auf Diebstahl basieren ja absolut nichts neues sind.

Ein weiteres nettes Detail ist die moderne Sklavenarbeit, auf der die meisten Modelle basieren. Der Großteil der Daten muss nämlich von Hand gelabeled werden. Sehr beliebt dafür ist Venezuela nach der Krise dort. Die Leute bekommen ca. 2€ die Stunde für das Erstellen der Trainingsdaten, für die ach so tollen KIs... Alternativ natürlich Amazon Mechanical Turk, wo hauptsächlich in Indien und Umgebung ausgebeutet wird.
 
Zuletzt bearbeitet:
War zu erwarten. Und ist eine direkte Folge der Technologie, die offenkundig zu Großteilen darin besteht, alles, was so an Texten existiert, zu assimilieren, inhaltlich zu analysieren, und dann auf Anfrage hin neu zusammengestellt zu reproduzieren.

Klar, daß das in Zeiten, in denen "Geistiges Eigentum" über allem steht, zu Konflikten führt.
Daß diese Technik aber dem Menschen das Denken abnimmt, halte ich für das ungleich größere Problem.

Und wer das für Schwarzmalerei hält, den erinnere ich an diverse Plagiatsskandale um Doktorarbeiten. Die sind ja aufgefallen, weil man mittels Computern Übereinstimmungen ganzer Textpassagen mit Ursprungstexten nachweisen konnte, die nicht als Zitate gekennzeichnet gewesen waren. Und wären sie es gewesen, wären die Arbeiten in vielen Fällen (wie beim Hochwohlgeborenen vielnamigen Verteidigungsminister Guttenberg) nicht akzeptiert worden, weil der schöpferische Eigenanteil zu gering war.

Das bei KI-generierten Arbeiten nachzuweisen, wird sehr viel schwieriger, wenn nicht unmöglich werden, was die Hemmschwelle herabsetzen wird, sie einzusetzen, um sich Titel zu verschaffen, die man aus eigener Geisteskraft nie erreicht hätte. Es droht eine Gesellschaft, in der nicht nur die Unstudierten, sondern auch die Eliten nichts mehr lernen müssen. Aus dem Homo sapiens, was "der Verständige" heißt, wird der Homo stupidus.
 
War zu erwarten. Und ist eine direkte Folge der Technologie, die offenkundig zu Großteilen darin besteht, alles, was so an Texten existiert, zu assimilieren, inhaltlich zu analysieren, und dann auf Anfrage hin neu zusammengestellt zu reproduzieren.
Also exakt das was die Menschheit seit Jahrtausenden auch macht...
Klar, daß das in Zeiten, in denen "Geistiges Eigentum" über allem steht, zu Konflikten führt.
Dann schau mal was Gilden, Stände, Innungen etc die letzten Jahrhunderte gemacht haben -> heute kommt man problemlos an fast jedes Wissen ran wenn man will.
Daß diese Technik aber dem Menschen das Denken abnimmt, halte ich für das ungleich größere Problem.
Da die KI nur Probleme lösen kann die man ihr stellt wird sich am selber Denken nichts ändern...
Und wer das für Schwarzmalerei hält, den erinnere ich an diverse Plagiatsskandale um Doktorarbeiten. Die sind ja aufgefallen, weil man mittels Computern Übereinstimmungen ganzer Textpassagen mit Ursprungstexten nachweisen konnte, die nicht als Zitate gekennzeichnet gewesen waren. Und wären sie es gewesen, wären die Arbeiten in vielen Fällen (wie beim Hochwohlgeborenen vielnamigen Verteidigungsminister Guttenberg) nicht akzeptiert worden, weil der schöpferische Eigenanteil zu gering war.

Das bei KI-generierten Arbeiten nachzuweisen, wird sehr viel schwieriger, wenn nicht unmöglich werden, was die Hemmschwelle herabsetzen wird, sie einzusetzen, um sich Titel zu verschaffen, die man aus eigener Geisteskraft nie erreicht hätte. Es droht eine Gesellschaft, in der nicht nur die Unstudierten, sondern auch die Eliten nichts mehr lernen müssen. Aus dem Homo sapiens, was "der Verständige" heißt, wird der Homo stupidus.
Die Preise für den Ghostwriter werden halt billiger aber das Gesamtproblem wird kleiner da man die Kopierer deutlich einfacher herausfinden kann wenn man denn möchte...
 
Also exakt das was die Menschheit seit Jahrtausenden auch macht...
Nein. Das Reproduzieren ist nur der erste Schritt. Der zweite ist es, das Gesehene beim Reproduzieren zu verstehen, um anschließend Verbesserungen und Adaptionen daraus zu entwickeln. So entwickelten sich die Menschen bisher weiter. Geistig und handwerklich.
Und genau das nimmt einem künftig die KI auch noch ab, so daß wir Menschen immer seltener geistig produktiv werden müssen, und auch das Verstehen wird zu einer unnötigen Kompetenz. Und was ich nicht brauche das lerne ich nicht mehr. Warum auch, wenn ich als Mensch Wochen oder Monate brauche, wozu die KI Minuten braucht, und dass Ergebnis von einem menschgedachten kaum zu unterscheiden ist? Da sind die Konkurrenten mit ihren Produkten längst "auf dem Markt" und sahnen ab, während ich noch denke.

Da liegt der Hase im Pfeffer!
Dann schau mal was Gilden, Stände, Innungen etc die letzten Jahrhunderte gemacht haben -> heute kommt man problemlos an fast jedes Wissen ran wenn man will.
...und die idiotischen Patente nicht dazwischenstehen, die die menschliche Entwicklung mehr gebremst als gefördert haben, weil Wissen nicht allen zur Verfügung steht und man viel Gehirnschmalz darauf verwenden muß, bereits existierendes noch einmal zu erfinden, statt Bestehendes weiterzuentwickeln.
Da die KI nur Probleme lösen kann die man ihr stellt wird sich am selber Denken nichts ändern...
Und welche Probleme sollen wir der KI zum Knacken aufgeben, wenn wir selbst gar nicht mehr in der Lage sind, analytisch zu denken, weil uns die KI das weitgehend abgenommen hat?

Die Preise für den Ghostwriter werden halt billiger aber das Gesamtproblem wird kleiner da man die Kopierer deutlich einfacher herausfinden kann wenn man denn möchte...
Und genau das sehe ich anders. Bisher waren Plagiate leicht erkennbar, weil Inhalte und Formulierungen über weite Strecken identisch waren. Die KI formuliert aber neu, und macht damit auch das Screening mittels Suchalgorithmen erheblich schwerer.
KI-Plagiate können dann wohl nur noch erkannt werden, wenn man die benutzte Software hat, denselben Programmierungsstand herstellt (gespeichertes Wissen) und dieselbe Aufgabenstellung erteilt.
 
Zuletzt bearbeitet:
@Rudi Ratlos wobei sich dann die sinnfrage stellt. Es gibt ja für jede situation nur einenbegrenzte anzahl an sinnhaftigen wortombinationen. Da einzugreifen wird praktisch unmöglich. Stell dir vor "krieg im nahen osten" das kann ich ohne klage wegen benutzung geistigen eigentums nutzen, wie wullst du das auch anders kurz uns bündig zusammenfassen. Da haben die journalisten (die ich teilweise verachte) und gott sei dank das schundblatt NYT halt pech. Das problem hatten wir doch 100 mal bis jetzt. Früher habe sich die weberinnen über den automatischen webstuhl beschwert, dann die bergarbeiter über die industrialisierung, dann die köche über convenience zeugs. Hegel und auch chrustschov hatten recht, wer nicht mit der zeit geht, geht mit der zeit.
 
Ja, bei Zeitungen sehe ich auch weniger ein Problem beim "Geistigen Eigentum" an Artikeln, die ja doch normalerweise das aktuelle Geschehen beschreiben sollen, auf das niemand ein Copyright hat. Das viel größere Problem sind die Auslassungen und die Kampagnen, die die Medien fahren. Bei der NYT (und WAPO) denke ich da vor allem an "Russiagate", welches vor allem von diesen beiden Blättern aggressiv verbreitet wurde, und das sich mittlerweile (spätestens mit dem "Mueller-Report" komplett als Fake der "Demokraten" entpuppt hat. Aber da die Medien das nicht laut sagen, gilt es immer noch als "wahr". GAnz besonders in deutschen Medien, die ihrerseits sogar die Meldungen der sonst gern zitierten US-Blätter filtern, wenn dort von Vorgängen berichtget wird, die der eigenen Propagandaschiene nicht in den Kram passen

So hat die WAPO im Dezember letzten Jahres in einem Artikel die Tatsache thematisiert, daß Kiew den Dnepr-Staudamm Kachowka seit Monaten und schon mehrmals auch mit von den USA gelieferten Waffen (Himars) beschossen hatte. Durften deutsche Medienkonsumenten aber nicht erfahren, weil es die Legende aus Kiew, Russland hätte im Juni 2023 den Damm gesprengt, ad absurdum geführt hätte.

Ist aber ein anderes Thema. Und das mit den Webstühlen ist ein schlechtes Beispiel. Die Weber haben sich damals dagegen gewehrt, weil durch deren Einführung tausende von ihnen ihre Existenz verloren. Der Grund dafür waren aber nicht die Webstühle, sondern ein Wirtschaftssystem, das den gemeinsam (!!) erwirtschafteten Wohlstand nicht allen Menschen zukommen läßt. Bis heute. Wäre es anders, könnten alle am Fortschritt teilhaben, ohne Ängste um die eigene wirtschaftliche Existenz. Und ähnliches erleben wir ja aktuell auch gerade wieder bei KI, etwa bei den Streiks in Hollywood. Das Wirtschaftssystem ist das Problem, nicht der Fortschritt.
 
Zuletzt bearbeitet:
Irgend wie finde ich es erheiternd, wenn bestimmte Personenkreise versuchen herauszufinden von was sie mehr offended sein sollen - von den bösen Journalisten oder von der bösen Technologie.

Die Katze ist mehr oder minder sowieso aus dem Sack. Für Leute die ganz gut mit Python klar kommen, ist die Hürde stark gesunken sich eigene Netzwerke zu kreieren und auf ihren bestimmten Anwendungsfall zu trainieren. Da helfen keine Filter, Urheberrechte oder sonst was.

Die Stable Diffusion XL Datenbank ist so weit im Netz verbreitet, dass du sie nie wieder weg bekommst und mit automatic1111 oder irgend einer anderen custom UI nutzt die fast jeder lokal und niemand kann daran was ändern. Was sich noch ändern kann ist, dass das Geschäftsmodel der Großen nicht aufgeht, weil der Consumermarkt durch Lizenzen und Hardwarekosten zu teuer wird und eingestampft wird. Damit verpufft oder verlangsamt sich die technologische Progression. Aber was heute schon da ist, das wird nicht mehr weg gehen.

@Rudi
Du darfst jederzeit jeden Wohlstand den du erarbeitest mit mir teilen, gar kein Problem.
 
von den bösen Journalisten oder von der bösen Technologie.
Wie wärs mit Pest & Cholera? Wobei das Problem nicht die Journalisten sondern die Medienkonzerne sind.

Und genau das nimmt einem künftig die KI auch noch ab, so daß wir Menschen immer seltener geistig produktiv werden müssen, und auch das Verstehen wird zu einer unnötigen Kompetenz.
Die Angst dahingehend ist übertrieben. KIs berherrschen ein paar beeindruckene Partytricks, aber das wars. Bei komplexeren Problemstellungen kacken sie weiterhin gnadenlos ab. OpenAI & Konsorten konzentrieren sich in ihrer PR-Arbeit natürlich auf die sehr begrenzten Anwendungsfälle die aktuell gut funktionieren und suggerieren damit, dass deutlich mehr möglich sei, als es der Fall ist.

Es gibt übrigens coole Gegenmaßnahmen. DNNs sind äußerst anfällig gegenüber adversarial engineering. Inputs lassen sich so manipulieren, dass es für den Menschen kaum einen Unterschied gibt, während die AI völlig nutzlose Ergebnisse produziert.
1703858963336.png

Das letzte Wort zu AIs ist noch lange nicht gesprochen.

PS: Ich nutze selbst einen AI-Service beruflich. Github Copilot basiert auf Chatgpt. Die Ergebnisse sind sehr durchwachsen. Die Hälfte der Zeit bekomme ich nützliche Hinweise, die andere Hälfte sind nutzlos bis hinderlich, weil gut klingende Sachen vorgeschlagen werden, die aber überhaupt nicht exisierten. Viele der Kollegen haben es fast direkt wieder abgeschaltet. Bei mir läuft es nach wie vor nebenbei, aber die 10€/Monat würde ich dafür auf keinen Falls selbst ausgeben.
 
Zuletzt bearbeitet:
Wie wärs mit Pest & Cholera? Wobei das Problem nicht die Journalisten sondern die Medienkonzerne sind.


Die Angst dahingehend ist übertrieben. KIs berherrschen ein paar beeindruckene Partytricks, aber das wars. Bei komplexeren Problemstellungen kacken sie weiterhin gnadenlos ab. OpenAI & Konsorten konzentrieren sich in ihrer PR-Arbeit natürlich auf die sehr begrenzten Anwendungsfälle die aktuell gut funktionieren und suggerieren damit, dass deutlich mehr möglich sei, als es der Fall ist.

Keine Ahnung wo von du sprichst. Bevor ich meine Arbeit jetzt ganz eingestellt habe, konnte ich den Arbeitsaufwand - je nach Anwendung zwischen 30 und 55 % reduzieren. Einige Sachen, die ich vorher an externe Agenturen oder Freelancer outgesourced habe sind einfach komplett weggefallen. Darunter Texter, Layouter und vor allem Illustratoren. Lizenzen von Bildbibliotheken wurden komplett obsolet.

Gut bei mir sind jetzt noch private Dinge übrig geblieben aber auch hier hilft mir AI weiter. Sowohl im Alltag als auch für private Projekte solange es noch geht.

Kommt halt stark auf die konkrete Verwendung und Anwendung an. Jemand der nichts kann und nichts weis, dem hilft auch keine AI.

Es gibt übrigens coole Gegenmaßnahmen. DNNs sind äußerst anfällig gegenüber adversarial engineering. Inputs lassen sich so manipulieren, dass es für den Menschen kaum einen Unterschied gibt, während die AI völlig nutzlose Ergebnisse produziert.
Das ist nur eine Frage der Dauer. So wie man Netzwerke trainieren kann das Schwein zu kategorisieren kann man sie dazu trainieren Gegenmaßnahmen zu erkennen. Es ist das altbekannte Wettlaufspiel. An meiner Uni sind AIs am Werk um Texte von AIs zu erkennen während die Studenten AIs nutzen um zu verschleiern das der Text von einer anderen AI geschrieben wurde... alles wie immer.
 
Wenn man das Wort unabhängig aus dem Artikel rausstreicht wäre es genauer.

Das Medienunternehmen fürchtet, dass die zunehmende Konkurrenz durch KI unabhängigen Journalismus bedroht und so ein gefährliches Vakuum zulasten der Gesellschaft entstehen könnte.

Es gibt für mich nichts unabhängies. Frei von äußeren Einfluss und frei von inneren Werten.

Computergenerite Nachrichten wären vielleicht unabhängiger als alle einige "Krawall"-Blätter. (alle darf man ja nicht sagen wegen der Pauschalierungskeule)
 
So wie man Netzwerke trainieren kann das Schwein zu kategorisieren kann man sie dazu trainieren Gegenmaßnahmen zu erkennen.
Nope. Ich habe 20+ paper dazu gelesen und bis jetzt gibt es keinerlei Möglichkeiten solche Veränderungen zuverlässig auszuschließen, ohne andere erhebliche Nachteile in Kauf nehmen zu müssen (Prazision, Rechenaufwand etc.), zumindest was Bilder angeht. Bei der Texterkennung mag es anders sein.

Die Empfindlichkeit gegenüber manipulierten Material ist eine grundlegende Eigenschaft von ANNs die sich nicht einfach abtrainieren lässt.

Hier ein sehr cooler Vortrag zu dem Thema:

Keine Ahnung wo von du sprichst. Bevor ich meine Arbeit jetzt ganz eingestellt habe, konnte ich den Arbeitsaufwand - je nach Anwendung zwischen 30 und 55 % reduzieren

Da wäre es natürlich interessant zu wissen, von was für einer Arbeit du sprichst.
 
Zuletzt bearbeitet:
Frage mich ob der Text "Dieser Text wurde durch eine KI generiert" den man in immer mehr Medien Artikeln liest ein Freifahrtschein ist gegen das Urheberrecht zu verstoßen. Ich habe mir mal einige Passagen und Urteile dazu durchgelesen und es nicht danach aussieht das man damit aus dem Schneider ist. Das fängt damit an das eine Redaktion von einem Redakteur ohne Rücksprache nicht einfach den Inhalt verändern darf, und somit auch den Stil des Redakteurs verändert. Auch Copy Paste von Artikeln und Abschnitten in anderen Artikeln sind nicht zulässig, werden aber in der Regel nicht geahndet. Weil keiner mehr Lust hat es mit seinen eigenen Worten zu verfassen.
 
Nope. Ich habe 20+ paper dazu gelesen und bis jetzt gibt es keinerlei Möglichkeiten solche Veränderungen zuverlässig auszuschließen, ohne andere erhebliche Nachteile in Kauf nehmen zu müssen (Prazision, Rechenaufwand etc.), zumindest was Bilder angeht. Bei der Texterkennung mag es anders sein.

Die Empfindlichkeit gegenüber manipulierten Material ist eine grundlegende Eigenschaft von ANNs die sich nicht einfach abtrainieren lässt.

Das Video ist fast 6 Jahre alt. Der "Trick" dahinter ist, dass man durch dem Hinzufügen von Rauschen das Trainingsmodul überlistet wird. Denn in den Trainingsdaten hat das Schwein nun mal kein Rauschen. Durch geschicktes gestalten des Rauschens und Kenntnissen des Netzwerkes, kann man sogar das Rauschen so anlegen, dass andere Dinge erkannt werden. Das funktioniert aber nur so lange, bis das Rauschen teil der Datenbank sind.

GAN arbeiten zum Beispiel genau auf dieser Basis. Sie bestehen aus einem Generator und einem Diskriminator. Bildlich gesprochen.

Der Generator ist ein Kunstfälscher.
Der Diskriminator ist ein Kunstexperte.

Der Generator erzeugt Pixelwolken und versucht den Kunstexperten zu täuschen. Er möchte wie ein Van Gogh wirken.
Der Diskriminator versucht den Fälscher zu entlarven. Am Anfang hat er damit leichtes Spiel, weil die Pixelwolken auch wie welche aussehen. Dieser Vorgang wird wiederholt sich beliebig oft und mit mehr Versuchen fällt es dem Diskriminator schwerer die Pixelwolke als Fälschung zu erkennen. So lange bis der Generator die Perfekte "Pixelwolke" erstellt hat. Die Performance des Diskriminators oder Kunstexperten hängt davon ab, wie viele Van Goghs wir ihm vorher zum Studium gegeben haben. Um so mehr er vorher gesehen hat um so besser wird er darin eine Fälschung zu erkennen. Um so besser er Fälschungen erkennt, desto mehr muss sich der Generator anstrengen um ihn zu überlisten und um so bessere Van Goghs bekommen wir als Ergebnis.

Hier haben wir das Gleiche aber umgekehrt. Wir haben ein Bild und fügen Pixelwolken hinzu um eine Bilderkennung zu täuschen.


Ein anderes Problem, das wesentlich relevanter ist, ist "Inzest". AI generierte Daten können Teil der eigenen Trainingsbasis werden. Ähnlich wie beim Menschen und der DNA kann es hierbei zu Degeneration kommen und die AI verdummt quasi mit der Zeit, weil der Anteil der AI erzeugten Daten größer und der Teil der originären Daten kleiner wird. Dadurch potenzieren sich Fehler und Irrtümer, Halluzinationen werden zur "Realität" und die AI performt immer schlechter. Das ist die eigentliche Gefahr.
 
Zuletzt bearbeitet:
Das Video ist fast 6 Jahre alt.
Die grundlegenden Prinzipien sind 50+ Jahre alt. An der heutigen Relevanz ändert es nichts. Aktuelle NN sind größer und komplexer, die Funktionsweise und die Probleme sind die Gleichen.

Der "Trick" dahinter ist, dass man durch dem Hinzufügen von Rauschen das Trainingsmodul überlistet wird. Denn in den Trainingsdaten hat das Schwein nun mal kein Rauschen. Durch geschicktes gestalten des Rauschens und Kenntnissen des Netzwerkes, kann man sogar das Rauschen so anlegen, dass andere Dinge erkannt werden. Das funktioniert aber nur so lange, bis das Rauschen teil der Datenbank sind.
Nein, nein & nein. Ich weiß das Video ist recht lang, aber falls dich das Thema wirklich interessiert, würde ich es dir trotzdem wärmstens empfehlen.
 
Die grundlegenden Prinzipien sind 50+ Jahre alt. An der heutigen Relevanz ändert es nichts. Aktuelle NN sind größer und komplexer, die Funktionsweise und die Probleme sind die Gleichen.


Nein, nein & nein. Ich weiß das Video ist recht lang, aber falls dich das Thema wirklich interessiert, würde ich es dir trotzdem wärmstens empfehlen.
Danke, aber da ich selbst Data Science studiert habe und selbst Netzwerke geschrieben habe, schätze ich, dass ich minimal bescheid weiß. Aber danke.
 
Danke, aber da ich selbst Data Science studiert habe und selbst Netzwerke geschrieben habe, schätze ich, dass ich minimal bescheid weis. Aber danke.
Ohje, und dann reihst du gleich mehrere falsche Annahmen aneinander. Wahrscheinlich war das Studium vor 2010? Viele der damaligen Annahmen in Bezug auf NNs konnten inzwischen widerlegt werden.
 
Ohje, und dann reihst du gleich mehrere falsche Annahmen aneinander. Wahrscheinlich war das Studium vor 2010? Viele der damaligen Annahmen in Bezug auf NNs konnten inzwischen widerlegt werden.
2021. Leider werde ich es nicht ganz beenden können. Aber macht ja nichts, offensichtlich bleibt Luxx ein "Experte" erhalten :ROFLMAO:
Beitrag automatisch zusammengeführt:

Und hier mal ein Text zu Erklärung von jemanden der es noch besser weiß als ich:

Die Überlistung von Bilderkennungssystemen durch das Hinzufügen von "Rauschen" bezieht sich auf eine Technik, die in der Fachwelt als "Adversarial Attack" (angriffsbasierte Störung) bekannt ist. Hierbei werden Bilderkennungsalgorithmen, meist solche, die auf künstlicher Intelligenz (KI) und maschinellem Lernen basieren, gezielt durch speziell entwickelte Störungen getäuscht.

Ein Bilderkennungssystem, insbesondere eines, das auf tiefen neuronalen Netzen (Deep Neural Networks, DNNs) basiert, lernt Objekte anhand von Merkmalen und Mustern in Trainingsdaten zu erkennen. Diese Systeme sind sehr gut darin, komplexe Muster zu identifizieren und zu klassifizieren.

Bei einem Adversarial Attack werden kleine, aber gezielte Änderungen am Eingabebild vorgenommen. Diese Änderungen werden als "Adversarial Perturbations" (angriffsbasierte Störungen) bezeichnet. Sie sind oft so geringfügig, dass das menschliche Auge sie nicht wahrnehmen kann, aber sie sind ausreichend, um die internen Berechnungen des neuronalen Netzes erheblich zu stören.

Das Ziel dieser Störungen ist es, das neuronale Netz dazu zu bringen, ein falsches Ergebnis zu liefern, obwohl sich das Bild für einen Menschen nicht merklich verändert hat. Zum Beispiel könnte ein Bild einer Katze so manipuliert werden, dass das KI-System es fälschlicherweise als Hund klassifiziert.

Dies wird erreicht, indem die Gradienten des neuronalen Netzes analysiert werden. Der Gradient zeigt an, wie kleine Veränderungen in den Eingabedaten die Ausgabe des Netzes beeinflussen. Indem man diese Gradienten untersucht, kann man herausfinden, wie man das Bild ändern muss, um die Ausgabe des Netzes zu beeinflussen.

Adversarial Attacks sind nicht nur ein Beweis für die Anfälligkeit von KI-Systemen, sondern auch ein wichtiges Werkzeug für Forscher, um die Sicherheit und Robustheit dieser Systeme zu testen und zu verbessern. Durch das Verständnis, wie solche Angriffe funktionieren, können Entwickler bessere Abwehrmechanismen entwickeln, um ihre KI-Modelle widerstandsfähiger gegen solche Störungen zu machen.


Einige der gängigen Methoden umfassen:
Adversarial Training: Diese Methode involviert das Training des neuronalen Netzes mit einer Mischung aus normalen und adversarial manipulierten Bildern. Dadurch lernt das Netzwerk, sowohl reguläre als auch manipulierte Eingaben korrekt zu klassifizieren. Das Ziel ist, dass das Netzwerk die durch adversarial Perturbations verursachten Muster erkennt und ignoriert.
Robustheit durch Regularisierung: Durch die Anwendung von Regularisierungstechniken während des Trainings kann die Robustheit des Modells gegenüber kleinen Störungen verbessert werden. Dies kann beinhalten, das Modell weniger sensitiv für kleinste Veränderungen in den Eingabedaten zu machen.
Feature Squeezing: Diese Methode reduziert die Komplexität der Eingabedaten, indem beispielsweise die Farbtiefe reduziert wird. Dadurch wird der Raum für wirksame adversarial Perturbations eingeschränkt.
Modell-Ensemble-Techniken: Durch die Verwendung mehrerer Modelle zur Klassifizierung derselben Eingabe kann die Wahrscheinlichkeit reduziert werden, dass alle Modelle durch denselben adversarial Angriff getäuscht werden.

Aber erzähl du ruhig mal weiter :ROFLMAO:
 
Zuletzt bearbeitet:
Ich halte mich keines Falls für ein Experte was NNs angeht, tatsächlich ist genau das Gegenteil der Fall, ich weiß, dass ich sehr viel nicht weiß :d Ich habe nur mal eine Hausarbeit zu Adversarial Examples geschrieben und bin dort mit den gleichen (falschen) Annahmen gestartet.

Es ist es nur einfach Schade, wenn jemand an offensichtlichen Irrtümern festhält. Aber hey, jeder wie er will.
 
Ich halte mich keines Falls für ein Experte was NNs angeht, tatsächlich ist genau das Gegenteil der Fall, ich weiß, dass ich sehr viel nicht weiß :d Ich habe nur mal eine Hausarbeit zu Adversarial Examples geschrieben und bin dort mit den gleichen (falschen) Annahmen gestartet.

Es ist es nur einfach Schade, wenn jemand an offensichtlichen Irrtümern festhält. Aber hey, jeder wie er will.

Jo lese einfach noch mal nach und erkläre mir mal was an dem letzten Text ganz konkret falsch ist und ich meine nicht: Nein, nein, nein alles falsch. Ich hätte gerne eine konkrete Angabe was genau falsch ist und warum.
 
Schon der erste Satz. AE sind kein Rauschen, für das menschliche Auge sieht es nur so aus. Wird in den Video auch drauf eingegangen. Rauschen und AE unterscheiden sich grundlegend in der Entstehung und der Wirkung.

Um kurz auf die "gängigen Methoden" einzugehen:
Adversarial Training wurde so ziemlich widerlegt, der Täuschungsgrad lässt sich etwas reduzieren, wenn man AE in die Trainingsdaten aufnimmt, einen ernsthaften Unterschied macht es nicht.
Regularisierung: Pures gift, was die Performance von Netzwerken angeht.
Feature Squeezing: Ähnlich wie die Regularisierung, die Performance leidet.
Ensemble: Hier kommt eine sehr coole Eigenschaft von AE zum Tragen, sie sind nämlich nicht zwangsläufig modellspezifisch. Wenn auch mit einer etwas reduzierten Erfolgsquote lassen sich verschiedene Netzwerke mit dem gleichen Input überlisten, trotz unterschiedlichen Funktionsweisen und Trainingsdaten. Klar, die Erfolgsquote der AE sinkt etwas, dafür steigt gleichzeitig der Aufwand und eine wirkliche Abwehr ist es auch nicht.

Das eigentich interessante ist, dass es leichter ist wirksame AE zu erstellen, als sie zu erkennen. Es geht ja primär nicht um die Machbarkeit, sondern um die Wirtschaftlichkeit. OpenAI & Konsorten sind ja entgegen der PR-Behauptung gewinnorientierte Unternehmen, während andere Unternehmen eben kein Interesse am Erfolg haben. Da könnte es sich durchaus lohnen die Profitabilität empfindlich zu stören.

Abgesehen davon würde mich nach wie vor interessieren welche Arbeit du zu 30-55% mit AI reduziert hast.
 
Schon der erste Satz. AE sind kein Rauschen, für das menschliche Auge sieht es nur so aus. Wird in den Video auch drauf eingegangen. Rauschen und AE unterscheiden sich grundlegend in der Entstehung und der Wirkung.
Schauen wir mal nach was die Definition von Rauschen ist: Unter Rauschen (auch Untergrund genannt) versteht man allgemein eine Störgröße. Rauschen ist erstmal eine Störung. Daher spricht man in der Kommunikation ebenso von Rauschen. Dort ist Rauschen alles was nicht der Informationsübermittlung dient oder diese behindert. Möchte ich zum Beispiel übermitteln, dass die Banane lecker ist und jemand quatscht rein, dann ist das Rauschen, da beim Empfänger möglicherweise die Information nicht ankommt, dass sie Banane lecker ist.

Hier fügen wir ein Rauschen bewusst hinzu.

Adversarial Training wurde so ziemlich widerlegt, der Täuschungsgrad lässt sich etwas reduzieren, wenn man AE in die Trainingsdaten aufnimmt, einen ernsthaften Unterschied macht es nicht.
Hast du dafür irgend eine Quelle? Ich habe es selbst schon reproduziert. Das Problem ist nur, wenn ich einen Vektor geschlossen habe, bleiben alle anderen immer noch offen. Das ändert aber nichts an der Wirksamkeit der Methode. Es wird nur aufwändiger. Auch darauf habe ich bereits Hingewiesen mit dem "Wettlauf".

Regularisierung: Pures gift, was die Performance von Netzwerken angeht.
Wieder: einfach eine Behauptung ohne irgend eine Art der Erklärung, Erläuterung, Quelle oder irgend etwas. Bitte Erkläre, warum eine Reduzierung der Sensitivität die Performance reduzieren sollte? Vor allem welche Performance? Die Geschwindigkeit oder die Effektivität?

Da könnte es sich durchaus lohnen die Profitablität empfindlich zu stören.
Das habe ich selbst schon geschrieben, aber die Ursache wird vermutlich nicht darin liegen sondern in Hardware, Energie und Lizenzkosten.

Abgesehen davon würde mich nach wie vor interessieren welche Arbeit du zu 30-55% mit AI reduziert hast.
Das habe ich eigentlich schon geschrieben:

Einige Sachen, die ich vorher an externe Agenturen oder Freelancer outgesourced habe sind einfach komplett weggefallen. Darunter Texter, Layouter und vor allem Illustratoren. Lizenzen von Bildbibliotheken wurden komplett obsolet.
Hier mal ein Beispiel: Meetings wurden nicht mehr durch eine Person protokolliert sondern durch Spracherkennung transkribiert und durch eine weitere AI zusammengefasst und per Mail automatisch versendet.

Abgesehen davon, dass deine gesamte Beschreibung nicht das Konzept widerlegt, wie du es erst dargestellt hast sondern deren Wirksamkeitsgrad in frage stellst.
 
Hast du dafür irgend eine Quelle? Ich habe es selbst schon reproduziert. Das Problem ist nur, wenn ich einen Vektor geschlossen habe, bleiben alle anderen immer noch offen. Das ändert aber nichts an der Wirksamkeit der Methode. Es wird nur aufwändiger. Auch darauf habe ich bereits Hingewiesen mit dem "Wettlauf".

"Hence, while fine-tuning the network leads to a mild improvement in the robustness, we observed that this simple solution does not fully immune against small universal perturbations"

Wieder: einfach eine Behauptung ohne irgend eine Art der Erklärung, Erläuterung, Quelle oder irgend etwas. Bitte Erkläre, warum eine Reduzierung der Sensitivität die Performance reduzieren sollte? Vor allem welche Performance? Die Geschwindigkeit oder die Effektivität?
Für die Quelle hat es 20min gedauert, das wieder zu finden, ich gehe jetzt nicht für jede Aussage auf die Suche.



Das habe ich eigentlich schon geschrieben:
Was für eine Arbeit? Deine Tätigkeit wird ja wohl kaum gewesen sein Meetings abzuhalten und externe Dienstleister zu engagieren.
 
Du hast also nicht selbst nachgelesen? Wenn man mit Adversarial Training die fooling rate von 93% auf 76% reduziert ist das für dich eine Lösung? Ernsthaft?

Drehen wir den Spieß doch mal um. Zeig mal eine Quelle, wo AE wirksam unterbunden wird. Alles was ich dazu gefunden hatte, war äußerst vage und hat eher darauf abgezielt, dass man in der Zukunft eventuell eine wirksame Lösung findet. Oder aber es waren ziemlich simple Ausangssituationen, die nur wenig mit den komplexen Netzwerken zu tun hatten, die aktuell im Einsatz sind.

Projekt und Produktmanagement.
Und das willst zu du 30-50% mit AI ersetzen? Protokolle zu erstellen und emails zu verschicken ist eine ziemliche 0815-Tätigkeit die von jedem Praktikanten in der ersten Woche ausgeführt werden kann. Ans Eingemachte geht es doch als Projektmanager, wenn es zum Streit mit anderen Parteien kommt. Da unterscheidet sich wer was taugt und wer nicht. Wo soll dir die AI helfen, wenn es darum geht einen angepissten Kunden zu besänftigen, oder Probleme mit anderen Abteilungen zu beheben. Das ist es doch, wofür PMs bezahlt werden, nicht irgendwelche simplen Verwaltungsaufgaben.
 
seen.jpg

Deal with it.

Im Ernst, wenn man ein Problem damit hat, dass in der Zukunft das publizierte Zeug von irgendwem irgendwie verwendet wird, darf man halt nix publizieren. Alles andere ist äußerst abstraktes Gedankenyoga. Ich kann doch nicht einen Gedanken bzw. ein Bild in die Köpfe der Zuseher/Leser setzen, und dann pissig sein, wenn sie diese Gedanken/Bilder direkt oder indirekt wiedergeben. Ich weiss, jetzt werden hier wieder ein paar Schnappatmung bekommen und ein paar pawlowsche Reflexe getriggert, aber was will man machen.

Diese Ambition jeden Scheiß für die eigenen Gunsten regeln, beschränken und monetarisieren zu wollen, ist zwar nachvollziehbar, aber den allgemein gültigen Regeln des menschlichen Zusammenlebens nach zum Scheitern verurteilt.
 
Du hast also nicht selbst nachgelesen? Wenn man mit Adversarial Training die fooling rate von 93% auf 76% reduziert ist das für dich eine Lösung? Ernsthaft?
Könnte daran liegen, dass sich die Zahlen auf das Finetuning beziehen und dafür ist das garnicht schlecht.

Drehen wir den Spieß doch mal um. Zeig mal eine Quelle, wo AE wirksam unterbunden wird. Alles was ich dazu gefunden hatte, war äußerst vage und hat eher darauf abgezielt, dass man in der Zukunft eventuell eine wirksame Lösung findet. Oder aber es waren ziemlich simple Ausangssituationen, die nur wenig mit den komplexen Netzwerken zu tun hatten, die aktuell im Einsatz sind.
Ganz einfach, es ist persönliche Erfahrung durch Projekte die ich selbst schon umgesetzt hatte.

Gerne kannst du auch mal hier rein schauen:

Hier wird eine Verteidigungsstrategie namens DAJAT (Diverse Augmentation based Joint Adversarial Training) vorgestellt. DAJAT kombiniert einfache und komplexe Datenanreicherungen mit separaten Batch-Normalisierungsschichten, um von der Vielfalt der Trainingsdaten zu profitieren und gleichzeitig auf eine dem Testset ähnliche Verteilung zu spezialisieren. Die Verwendung der JS-Divergenz zwischen den Vorhersagen verschiedener Anreicherungen ermöglicht ein gemeinsames Lernen über verschiedene Anreicherungen hinweg. Es wird auch eine effiziente Methode namens ACAT (Ascending Constraint Adversarial Training) eingeführt, die die Stabilität und Leistung des TRADES 2-Schritt-adversarial Trainings verbessert.

Und das willst zu du 30-50% mit AI ersetzen? Protokolle zu erstellen und emails zu verschicken ist eine ziemliche 0815-Tätigkeit die von jedem Praktikanten in der ersten Woche ausgeführt werden kann. Ans Eingemachte geht es doch als Projektmanager, wenn es zum Streit mit anderen Parteien kommt. Da unterscheidet sich wer was taugt und wer nicht. Wo soll dir die AI helfen, wenn es darum geht einen angepissten Kunden zu besänftigen, oder Probleme mit anderen Abteilungen zu beheben. Das ist es doch, wofür PMs bezahlt werden, nicht irgendwelche simplen Verwaltungsaufgaben

Ja und nun? Deswegen sind es doch dennoch Aufgaben die Anfallen und erledigt werden sollen. Es geht nicht darum Raketenwisschaftler zu ersetzen sondern möglichst einfach Aufgaben zu ersetzen, die sich in Summe aufsummieren und Kapazitäten binden. Ich weiß ehrlich gesagt nicht ganz worauf du eigentlich hinaus willst? Möchtest du mir erzählen, dass ich gar keine Arbeit eingespart habe? Möchtest du mir erzählen, dass man nur meine Arbeit einsparen kann? Hat jemand behauptet ich möchte zwischenmenschliche Arbeiten ersetzen?

Ich habe den Eindruck du möchtest einfach aus Prinzip dagegen sein und versucht auf Krampf alles so hinzubiegen, dass man irgend wie mit viel Phantasie ein Argument zu Wege bringt. Bevor ich als Produkt & Projektmanager in die Bank eingestiegen bin war ich selbstständiger Honorarberater. Als Honorarberater hatte ich ca. 25 % abrechenbare Stunden im Vergleich zum Gesamtarbeitsaufwand und damit hatte ich eine extrem hohe Effektivität. Das heißt 1 von 4 Stunden war eine Arbeit am Kunden die abgerechnet werden konnte. Der Rest war Verwaltung. Finanzen, Steuer, Akquise, Texting, Website, Weiterbildung, Governance und Compliance bla bla bla bla ich habe wesentlich mehr Zeit als Berater damit verbracht etwas anderes zu machen als ich beraten habe. So wie es den allermeisten Selbstständigen ergeht. Der konkrete Wert hängt aber von der Branche ab. Ich kenne Texter und Designer die 60 - 70 % haben.

Das war so als ich Honorarberater war, das war so als ich mich später als ich als Projekt und Personalberater ausgegründet hatte aus der Bank und das war bis vor kurzem so, bis ich die Arbeit ganz eingestellt habe.

Ich habe keine Ahnung worauf du hinaus willst. Zieh los, gründe dein eignes Unternehmen und lass von mir aus AI etc weg oder benutze es und dann kommst du wieder und wenn ich dann noch lebe, dann kannst du mir von deinen tollen Erfahrungen berichten.
 
Zuletzt bearbeitet:
...da versucht doch schon wieder ein Krawalltroll die Diskussion zu sprengen, indem er sie an sich zieht, und mit Müll zusch....üttet..., der sich auf die Formel "ich allein hab recht und Ihr habt alle keine Ahnung" verkürzen läßt. Ich weiß schon, warum der auf meiner Ignore-Liste steht.
 
...da versucht doch schon wieder ein Krawalltroll die Diskussion zu sprengen, indem er sie an sich zieht, und mit Müll zusch....üttet..., der sich auf die Formel "ich allein hab recht und Ihr habt alle keine Ahnung" verkürzen läßt. Ich weiß schon, warum der auf meiner Ignore-Liste steht.
Aha und welchen Müll habe ich gepostet? Wieso liest du es überhaupt wenn du es ignorieren willst?
Tut mir echt leid, dass ich nach Quellen gefragt habe :d

Wenn du der Meinung bist, dass ich ein "Troll" bin, melde doch einfach die Beiträge und ein Mod wird dann schon einschreiten, wenn er das so wie du sieht.
 
Zuletzt bearbeitet:
So hat die WAPO im Dezember letzten Jahres in einem Artikel die Tatsache thematisiert, daß Kiew den Dnepr-Staudamm Kachowka seit Monaten und schon mehrmals auch mit von den USA gelieferten Waffen (Himars) beschossen hatte.
Fakenews der WAPO. Es wurde die Straße die am Damm entlang führt und über die Schleuse verläuft mit HIMARS beschossen. Mörserbeschuß gab es auf das Turbinenhaus wegen der Murom-Überwachungsgeräte --auf den Damm wurde von den Ukrainern nie geschossen. Schau dir die Bilder davon auf Twitter, Telegram oder von MAXAR/AIRBUS an.
Durften deutsche Medienkonsumenten aber nicht erfahren, weil es die Legende aus Kiew, Russland hätte im Juni 2023 den Damm gesprengt, ad absurdum geführt hätte.
Nö es hätte die Inkompetenz der WAPO offengelegt, aber dafür müsste die Medienlandschaft in D halt qualitativ besser sein als das was seit Jahren geboten wird.
Das Wirtschaftssystem ist das Problem, nicht der Fortschritt.
Dann viel Spass beim Auswandern nach Nordkorea......wird aber nicht so schön sein wie du es dir in deinen Tagträumen(die von russischer/chinesischer Propaganda erzeugt werden) ausmalst^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh