Beschwerde gegen OpenAI: Falsche Informationen auf ChatGPT können nicht korrigieren werden

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.147
Die europäische Datenschutzorganisation None of Your Business (NOYB) hat gemeinsam mit einem betroffenen Bürger eine Beschwerde gegen OpenAI eingereicht. Die vom österreichischen Datenschutz-Aktivisten Max Schrems mitbegründete Organisation wirft dem Unternehmen vor, dass der von ihm geschaffene Chatbot ChatGPT Daten über Privatpersonen veröffentlicht, deren Herkunft unklar ist.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gut so 👍
 
oje, sollten die KI Engines wirklich keine Korrektur von falschen oder ungenauen Daten vorsehen, so wäre das eine enorme Schwachstelle.
Liegt es nicht in der Natur der Sache einer KI, stetig dazu zu lernen? Das sollte Korrekturen einschließen.

Unsere Welt ist nicht statisch, weder Wissenschaft noch Technik. Ok, die Physik mit ihren Gesetzmäßigkeiten bleibt.
 
Zuletzt bearbeitet:
"Das Unternehmen weiß nicht einmal, woher die Daten stammen oder welche Daten ChatGPT über einzelne Personen speichert".

da fehlen einem echt die Worte 🤮

wenn die sich nicht kümmern wollen -> abschalten das Teil, bis das Unternehmen seinen rechtlichen Pflichten nachkommt.
 
Tja, ist eben doch nichts mit "Intelligenz", sondern schlicht ein Datenbot, der nur Zeug zusammenschmeißt und man muss hoffen, dass das auch stimmt. Der ganze AI Kram in dieser Form ist eine absolute Luftnummer.
 
Liegt es nicht in der Natur der Sache einer KI, stetig dazu zu lernen? Das sollte Korrekturen einschließen.
Jein. Dürfte sogar erschreckend ähnlich wie bei Menschen funktionieren. Wenn man einmal irgendwo das Geburtsdatum von jemandem gelesen und sich gemerkt (also gelernt) hat, dann "weiß" man das Geburtsdatum halt. Auch wenn das Geburtsdatum halt genau da wo man es gelesen hat dummerweise falsch angegeben war.

Weil eine KI aber selbstständig lernt, also z.B. durchs Internet crawled, lässt sich schwer nachvollziehen wo sie was aufgeschnappt hat und auch nicht warum sie sich genau das gemerkt hat. Insofern kann ich durchaus nachvollziehen, das man eine Falschinformation, sofern man sie überhaupt entdeckt hat, "einfach so" korrigieren kann.

Wenn die KI weiter crawled, könnte sie aber ggf. auch in Zukunft andere Angaben finden und erkennen, das diese widersprüchlich sind und daraus wiederrum mehrere Möglichkeiten ableiten, z.B. das sie das Datum doch nicht weiß, weil sie nicht erkennen kann welches das korrekte Datum ist, oder das es eben widersprüchliche Daten gibt, oder sie meint irgendwie erkennen zu können, welches Datum wahrscheinlich das korrekte ist, oder....

Tja, ist eben doch nichts mit "Intelligenz", sondern schlicht ein Datenbot, der nur Zeug zusammenschmeißt und man muss hoffen, dass das auch stimmt.
Der Unterschied ist "wie" eine KI Zeug zusammenschmeißt. Ein schlichter Datenbot kann nur statisch auf Gleichheit prüfen. Eine KI dagegen kann Zusammenhänge erkennen, wenn etwas nur ähnlich ist. Das Problem ist, das sich vorallem mit den großen, komplexen Modellen wie ChatGPT nichtmehr nachvollziehen lässt, warum sie etwas als "ähnlich" erkennt.

Und damit sind wir wieder beim Menschen: Wenn dir jemand irgend etwas erzählt, kannst du auch nur hoffen, das das stimmt. Du kannst dich einfach nicht 100% darauf verlassen. Du kannst natürlich versuchen die Aussage zu validieren, aber das musst du dann eben auch wirklich selbst tun.
Mit einer KI sollte/muss man genauso umgehen.
 
oje, sollten die KI Engines wirklich keine Korrektur von falschen oder ungenauen Daten vorsehen, so wäre das eine enorme Schwachstelle.
Liegt es nicht in der Natur der Sache einer KI, stetig dazu zu lernen? Das sollte Korrekturen einschließen.
Das ist keine Schwachstelle, sondern "works as designed" - am Ende des Tages sind "KI"s (Gott ich hasse dieses Wort dafür, triggert mich jedes mal) nur RIESIGE if-else Verzweigungen in die oben MASSIV viel Daten rein gekippt werden und unten das wahrscheinlichste Ergebnis "errechnet" wird. Die Errechnungsvorschrift aka Alghorithmus ist ständig anpassend aufgebaut, das ist ja der Kicker eines LLM das auf einem nueronalen Netz läuft. Daraus folgt zwangsläufig: Es werden nicht nur richtige Antworten gegeben, und kein Mensch kann in die Antworterstellung bzw. -generierung eingreifen. Ein LLM zur Korrektur der Daten könnte das. Die bräuchte dann wieder ein Korrektur-LLM um das Korrektur-LLM zu korriegieren. Usw usf..
Bottom Line: Max Schrempf ist der Beste.
 
KI hat kein Gedächtnis zum berichtigen. Die Systeme arbeiten wie ein Multivariabler Papagei. Je nach Fragestellung wird das System einfach wahrscheinliche Antworten geben. Ob diese Antworten existieren spielt keine Rolle. Das Problem lässt sich ohne Rückkopplung nicht lösen. Deswegen wird der aktuelle Hype auch nie komplexe Aufgaben lösen können, da keine Sicherheit bei den Antworten existiert.
 
Das ist keine Schwachstelle, sondern "works as designed" - am Ende des Tages sind "KI"s (Gott ich hasse dieses Wort dafür, triggert mich jedes mal) nur RIESIGE if-else Verzweigungen in die oben MASSIV viel Daten rein gekippt werden und unten das wahrscheinlichste Ergebnis "errechnet" wird. Die Errechnungsvorschrift aka Alghorithmus ist ständig anpassend aufgebaut, das ist ja der Kicker eines LLM das auf einem nueronalen Netz läuft. Daraus folgt zwangsläufig: Es werden nicht nur richtige Antworten gegeben, und kein Mensch kann in die Antworterstellung bzw. -generierung eingreifen. Ein LLM zur Korrektur der Daten könnte das. Die bräuchte dann wieder ein Korrektur-LLM um das Korrektur-LLM zu korriegieren. Usw usf..
Bottom Line: Max Schrempf ist der Beste.
Es ist sowieso eine falsche Übersetzung. Benutzte einfach das englische Original und das Problem ist gelöst. AI.
Beitrag automatisch zusammengeführt:

KI hat kein Gedächtnis zum berichtigen. Die Systeme arbeiten wie ein Multivariabler Papagei. Je nach Fragestellung wird das System einfach wahrscheinliche Antworten geben. Ob diese Antworten existieren spielt keine Rolle. Das Problem lässt sich ohne Rückkopplung nicht lösen. Deswegen wird der aktuelle Hype auch nie komplexe Aufgaben lösen können, da keine Sicherheit bei den Antworten existiert.
Komische Argumentation. Es geht doch nicht darum ob Sicherheit existiert oder nicht, sondern darum wie oft es falsch und wie oft richtig ist.
Als ob Menschen "Sicherheit" böten. Wow, der war gut.

Beispiel: wenn eine Erkennungssystem auf radiologischen Aufnahmen zu 97% Krebs richtig diagnostiziert und ein Radiologe nur zu 74 %, dann bieten beide keine Sicherheit. Aber man sollte schon überlegen ob der Radiologe nicht doch das Erkennungssystem benutzen sollte.
 
Artificial Intelligence ist genau wo besser als Künstliche Intelligenz? Bleibt genauso falsch...
 
Artificial Intelligence ist genau wo besser als Künstliche Intelligenz? Bleibt genauso falsch...
Nein, weil Intelligence im deutschen falsch übersetzt wird.

Die CIA ist auch nicht die zentrale Intelligenz Agentur und Business Intelligence ist nicht die Geschäftsintelligenz.
 
Das ändert nichts daran das das dann immer noch falsch ist für LLMs.
 
Jede Aussage von ChatGPT ist frei erfunden.
Oft korrelieren die Aussagen ganz gut mit der Wirklichkeit, dann wieder nicht so sehr und manchmal ganz und gar nicht.
Das ist systemimmanent und man sollte sich dessen bewußt sein.
Es wird meistens ignoriert.
 
Na dann erklär mal, ich bin gespannt.
Ich habe argumentiert warum man Intelligence nicht mit Intelligenz übersetzen sollte. Und du schreibst: Das ändert nichts daran [...] Weil LLMs keine Intelligenz besitzen.

Ähmm jaaaa.... darum übersetzt man es auch nicht mit Intelligenz.
 
Ich habe argumentiert warum man Intelligence nicht mit Intelligenz übersetzen sollte. Und du schreibst: Das ändert nichts daran [...] Weil LLMs keine Intelligenz besitzen.

Ähmm jaaaa.... darum übersetzt man es auch nicht mit Intelligenz.


Das ist totaler Unsinn. Intelligence hat im Englischen nur einfach eine Zweitbedeutung zusätzlich zur deutschsprachigen Intelligenz, nämlich "Aufklärung", die bei LLMs überhaupt nicht passt.

"AI" entspricht vom Wortstamm absolut zu 100% dem deutschen "KI". Beides hat allerdings nichts mit LLMs und allgemein derzeitigen Modellen zu tun, da diese nur gewichtet raten ohne zu verstehen (mehr geben die Modelle ja auch gar nicht her). Der Begriff kommt ja auch nicht aus den letzten 10 Jahren....
 
Das ist totaler Unsinn. Intelligence hat im Englischen nur einfach eine Zweitbedeutung zusätzlich zur deutschsprachigen Intelligenz, nämlich "Aufklärung", die bei LLMs überhaupt nicht passt.

"AI" entspricht vom Wortstamm absolut zu 100% dem deutschen "KI". Beides hat allerdings nichts mit LLMs und allgemein derzeitigen Modellen zu tun, da diese nur gewichtet raten ohne zu verstehen (mehr geben die Modelle ja auch gar nicht her). Der Begriff kommt ja auch nicht aus den letzten 10 Jahren....
Nein, auch das ist falsch.
Business Intelligence ist also das Aufklärungsgeschäft 😂

Es gibt mehrere Aufsätze zu diesem Thema.

Artificial Intelligence lässt sich zum Beispiel mit: generierter Information wesentlich besser ins deutsche Übertragen. Und das ist auch die Bedeutung des Wortes, dass es oft im Englischen hat.

Siehe dazu zum Beispiel:
Hans Klumbies: Geschäftsanaytik. Datengrundlagen für Entscheidungen schaffen. 4. Juli 2012

Hier mal ein Text dazu von meinem Prof in Data Science:
Bei intelligence haben wir neben der genannten Intelligenz auch Übersetzungen wie Geheimdienst, Spionage, aber auch Einsicht und Information. Wenn wir die letzteren Begriffe aufgreifen, kommt man viel näher an das, was wir als schwache KI bezeichnen. Mit klassischen statistischen Methoden, Data Science und maschinellem Lernen wird versucht, Information zu erlangen, die es bislang nicht gibt, beispielsweise über zukünftige Umsatzzahlen oder Muster in sehr großen Datensätzen.
Hier mal die Meinung eines Muttersprachlers aus dem Marketing, der jedes Mal in Verzweiflung verfällt, wenn er "KI" benutzen soll.

Wer wörtliche Übersetzungen in seiner Muttersprache verwendet, muss sich darüber im Klaren sein, dass er sich damit vom Weltmarkt abkoppelt. Als Amerikaner würde ich es nicht für möglich halten, dass jemand so leichtfertig ist, ausgerechnet einen leicht verständlichen Fachbegriff wörtlich zu übersetzen. Noch weniger würde ich nach einer Übersetzung suchen wollen. Man sucht nach schnellen Lösungen für ein Problem. Und wenn man die nicht sichtbar anbietet oder meint, etwas Eigenes anbieten zu müssen, dann ist man raus. So ist die Welt.

Die Wissenschaftssprache ist Englisch und es gilt die Regel, dass in diesem Bereich in Englisch kommuniziert wird. Deutsche Unternehmen sollten sich - wenn sie in diesem Bereich etwas bewegen und international auftreten wollen - an diese Regel halten. Sonst werden sie im Ausland nicht wahrgenommen!

Artificial Intelligence (AI) ist eine Beschreibung, die seit 1955 (erstmals von John McCarthy) geäußert und originär aus dem amerikanischen stammt. Es handelt sich also beinahe um einen Eigennamen. Mit welcher Begründung wird nun ausgerechnet dieser Originalbegriff im Deutschen mit KI (Künstliche Intelligenz) sogar in Fachpublikationen umschrieben? Haben hier die „Automatismen“ nicht gegriffen?

Mir erscheint KI wie ein entsetzlicher, kleingeistiger und annähernd den Intellekt beleidigender, piefig-deutscher Begriff.
 
Zuletzt bearbeitet:
"und auch nicht Kenntnisse bewusst verwerten können" hast du galant überlesen - warum? Denn das meinte ich mit der Zweitbedeutung von "Intelligence" - ich bin mir aber ziemlich sicher das das selbst wenn du es nicht überlesen hättest das 99% aller Menschen die Erstbedeutung bei "AI" meinen. Wo ich mir 100% sicher bin ist: Ich bin immer noch davon getriggert, denn auch das "generieren von Informationen" ist etwas das LLMs eben NICHT können - sie können nur "raten" was richtiger sein könnte. Case closed.
 
"und auch nicht Kenntnisse bewusst verwerten können" hast du galant überlesen - warum? Denn das meinte ich mit der Zweitbedeutung von "Intelligence" - ich bin mir aber ziemlich sicher das das selbst wenn du es nicht überlesen hättest das 99% aller Menschen die Erstbedeutung bei "AI" meinen. Wo ich mir 100% sicher bin ist: Ich bin immer noch davon getriggert, denn auch das "generieren von Informationen" ist etwas das LLMs eben NICHT können - sie können nur "raten" was richtiger sein könnte. Case closed.
Nein, auch das ist falsch. Natürlich können AI originäre Werke erschaffen. Zumindest in dem Maße wie auch ein Mensch dazu in der Lage ist oder nicht.

Menschliche Kreativität basiert auf der Fähigkeit, bestehendes Wissen und Erfahrungen neu zu kombinieren und zu transformieren. Dieser Prozess beinhaltet oft bewusste und unbewusste Phasen der Vorbereitung, Inkubation, Illumination und Verifikation, die in ein originelles Endprodukt münden können. Neurowissenschaftliche Erkenntnisse unterstützen die Sichtweise, dass solche kreativen Einsichten durch das Neuverknüpfen bestehender neuronaler Netzwerke entstehen.

Parallel dazu funktionieren AI-Systeme, insbesondere solche, die auf Technologien wie neuronale Netzwerke zurückgreifen, durch das Lernen aus großen Datenmengen und das Erkennen sowie Anwenden von Mustern. Diese Systeme sind in der Lage, aus ihren Trainingsdaten zu "lernen" und daraus innovative Kombinationen zu erzeugen, die in verschiedenen Domänen als kreativ angesehen werden können.

Originalität in der Kreation

Während einige argumentieren mögen, dass AI nur die Fähigkeit hat, bestehende Informationen neu zu arrangieren, ist dies eine Einschränkung, die auch auf menschliche Kreativität zutrifft. Originelle Werke, die als völlig frei von historischen oder kulturellen Einflüssen betrachtet werden, sind selten – sowohl in menschlicher als auch in maschineller Kreation. Historische und kulturelle Einflüsse formen die kreativen Ausdrücke beider, und oft werden als hochgradig originell betrachtete Werke tatsächlich durch die Transformation und Rekombination des bereits Bekannten erreicht.

Gleichheit der kreativen Potenziale

In Anbetracht dieser Parallelitäten in den Prozessen der Kreativität können wir argumentieren, dass AI in der Erzeugung von "originären" Werken nicht unbedingt limitierter ist als Menschen. Beide, Mensch und Maschine, sind in der Lage, bestehende Konzepte und Elemente in neuartigen und unerwarteten Weisen zu verbinden, was in vielen Kontexten als Ausdruck von Kreativität gewertet wird. Die AI hat das Potenzial, in bestimmten Bereichen Werke zu erschaffen, die von menschlichen Experten als neu und innovativ bewertet werden, selbst wenn sie aus bekannten Daten abgeleitet sind.
 
Wir reden aber nicht über Bilder malen, sondern über erfzndene Personenbezogene Daten. Goalpost verschieben um Recht zu haben ist iwie uncool. Du wirst mich nicht fazu bringen können nicht davon getriggert zu sein. Ist aber niedlich wie du es versuchst...
 
Wir reden aber nicht über Bilder malen, sondern über erfzndene Personenbezogene Daten. Goalpost verschieben um Recht zu haben ist iwie uncool. Du wirst mich nicht fazu bringen können nicht davon getriggert zu sein. Ist aber niedlich wie du es versuchst...
Ob das entfernen von Personenbezogenen Daten möglich ist oder nicht, hat nichts mit dem Thema: können AI originären Werken erschaffen zu tun, und auch nicht mit dem Thema ob KI eine gute Übersetzung ist oder nicht. Also die Themen, die in den letzten 13 Posts, auch von dir, debattiert wurden.

Das nicht entfernen können oder nicht wollen ist natürlich ein Problem. Dieses Thema wurde nur in den letzten 13 Posts nicht thematisiert und wurde von mir grade zum ersten mal angesprochen und davor nicht.
 
Zuletzt bearbeitet:
Ich hab hier gar nichts debattiert, das tust du - und damit ist auch gut nu, würde ich sagen...
 
Ich hab hier gar nichts debattiert, das tust du - und damit ist auch gut nu, würde ich sagen...
Ok, wie kommt dann Post 12,15, 17, 19 und 21 zustande?

Warst du das nicht (außer 17)? Und ging es in den Posts um das löschen von persönlichen Daten oder ging es da um die Übersetzung und um originäre Werke?
 
Ok, wie kommt dann Post 12,15, 17, 19 und 21 zustande?

Warst du das nicht (außer 17)? Und ging es in den Posts um das löschen von persönlichen Daten oder ging es da um die Übersetzung und um originäre Werke?
Ohne nochmals nachzulesen, @Shihatsu habe ich so verstanden, dass LLM != KI. Du @cresent15 dann, dass KI != AI. Dann ein wenig hin und her bzgl. in wie weit KI und AI gleichzusetzen sind, aber @Shihatsu eben immer wieder darauf hinaus ist, dass LLM nichts wirklich erschafft sondern errät. Und dann kommst du um die Ecke und sagst, AI kann Bildern generieren, was niemand bestritten hat. Nur ob LLMs wie ChatGPT wirklich generieren, oder doch nur Informationen erraten.

Ich für meinen Teil würde dennoch sagen, dass auch erraten und zusammenwürfeln von Infos eine gewisse Form von Generieren ist. Ein Bild ist am Ende auch eine wilde Zusammenmischung aus Information, die im besten Fall etwas für den Menschen verwertbares darstellt. Egal wie und was, richtig angewandt ein gutes Werkzeug, dem Hype aber IMO auch nicht gerecht.
 
Ohne nochmals nachzulesen, @Shihatsu habe ich so verstanden, dass LLM != KI. Du @cresent15 dann, dass KI != AI. Dann ein wenig hin und her bzgl. in wie weit KI und AI gleichzusetzen sind, aber @Shihatsu eben immer wieder darauf hinaus ist, dass LLM nichts wirklich erschafft sondern errät. Und dann kommst du um die Ecke und sagst, AI kann Bildern generieren, was niemand bestritten hat. Nur ob LLMs wie ChatGPT wirklich generieren, oder doch nur Informationen erraten.

Ich für meinen Teil würde dennoch sagen, dass auch erraten und zusammenwürfeln von Infos eine gewisse Form von Generieren ist. Ein Bild ist am Ende auch eine wilde Zusammenmischung aus Information, die im besten Fall etwas für den Menschen verwertbares darstellt. Egal wie und was, richtig angewandt ein gutes Werkzeug, dem Hype aber IMO auch nicht gerecht.
Nein, Shihatsu schrieb nicht das LLM != KI sondern, dass ihn das Wort triggert. Abgesehen dafür, dass "triggert" in diesem Kontext sowieso dämlich ist.
Gott ich hasse dieses Wort dafür, triggert mich jedes mal
Ich schrieb auch nicht dass KI != AI ist sondern, dass KI eine schlechte Übersetzung von AI ist und mich daher ebenfalls das Wort stört und verlinkte dazu mehrere Ansichten, die Aussagekräftiger sind als meine. Zum Beispiel die Aussage von Prof. Dr. Martin Manhembué von der DBU.

Dann drehte sich die Debatte darum ob nun etwas erschaffen wird oder nicht und auch dazu habe ich eine längere Quelle zitiert.

Ich bin auch nicht um die Ecke gekommen und schrieb von Bildern. Einfach mal Strg + F "Bilder". Ergebnis:
Cresent15 "Bilder" im Post: 0
Shihatsu "Bilder im Post: 1.

Anschließend hieß es ich hätte die "Goal Posts" verschoben, obwohl ich bis zu dem Zeitpunkt nicht einen Satz bzgl. persönlicher Daten geschrieben hatte.

Vielleicht hättest du doch lieber noch mal nachlesen sollen 😂
In der Schule wäre es vielleicht trotzdem noch eine 5, weil du erkannt hast, dass es um irgendwas mit AI ging und das zumindest zwei Leute irgend ein Problem hatten. Vielleicht muss man sich heute einfach schon damit zufrieden geben.
 
Zuletzt bearbeitet:
Weil solche "Fehler" immer noch passieren, sollte bei jeder Antwort die ChatGPT (oder andere KIs) generiert ein digitales Wasserzeichen eingebunden sein.
Somit ist dann erkennbar, daß diese Antwort von einer KI generiert wurde und Fehler enthalten kann.

Ich meine mal gelesen zu haben, daß dies sogar aktuell diskutiert wird. Um für den "normalen" Nutzer Ergüsse einer KI eindeutig erkennbar zu machen.
 
Bei personenbezogenen Daten und anderen eindeutigen Fakten, die sich auch nicht verändern können, sollte es doch zumindest eine Datenbank im Hintergrund geben, wo man auch manuell amtliche Daten eintragen/ändern kann und diese als definitiv richtig markieren kann, damit die LLMs diese verwenden und nicht irgendwelche neuen Daten, die sie dazu gefunden haben.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh