ChatGPT: OpenAI will seinem Sprachmodell das Erfinden von Fakten abtrainieren

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.554
Generative KI-Modelle, wie ChatGPT oder Googles Bard, haben in den letzten Jahren ihre Fähigkeit, komplexe mehrstufige Schlussfolgerungen zu ziehen, stark verbessert, stoßen dabei bisweilen aber noch an gewisse Grenzen. Selbst modernste Modelle produzieren immer noch logische Fehler, die von Entwicklern gerne als Halluzinationen bezeichnet werden. Als Ergebnis kann es daher passieren, dass ein Sprachmodell anfängt, Fakten zu verdrehen, im schlimmsten Fall sogar welche zu erfinden. Besonders wenn ein spezieller Datensatz fehlt, fängt die künstliche Intelligenz gerne an, diese Lücke kreativ zu füllen. OpenAI ist deshalb daran bemüht, Mechanismen zu entwerfen, die diese Halluzinationen reduzieren und die KI so insgesamt zuverlässiger gestalten sollen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das geht auch nicht, Fakten zu verdrehen und Lücken kreativ zu füllen ist Aufgabe des ÖRR in Deutschland.
 
Sie haben es immerhin so ziemlich als erste geschafft einem aufs Internet basierten System, das Fluchen und den großteil des Rassismus abzutrainieren.
Bleibt also spannend wie erfolgreich der nächste Schritt ist.
 
ChatGPT kann ihre Texte auf Grammatik und Rechtschreibung korrigieren und so Fehler erkennen und vermeiden.
 
Na mal gucken ob das was wird. Oftmals lassen sich bestimmte Verhaltensweisen nur mit erheblichen Kosten bei der Gesamtqualität der Ergebnisse abtrainieren. Und wirklich los wird man das Fehlverhalten dann trotzdem nicht.

Egal, viel besser als die Story hier, ist der Rechtsanwalt in den USA, der von ChatGPT ausgedachte Fälle in seiner Argumentation vor Gericht aufgeführt hat. Da werden sich in der Zukunft noch einige weitere gute Stories in der Art ergeben :d
 
Es gibt schon genug Menschen die in einer Welt voller alternativer Fakten leben, wundert es da wirklich wenn ein Modell welches mit dem ganzen Blödsinn trainiert wurde, dann genau sowas reproduziert?
 
Erfinden von fa.... Was? Man nennt es LÜGEN.
Nope, Lügen bedingt eine absichtliche herbeigeführte Täuschung.

Selbst wenn ChatGPT nicht Quellen einfach nur falsch interpretiert, sondern tatsächlich etwas erfindet um Lücken zu füllen, ist es trotzdem nicht Lügen, weil es den User ja wohl nicht absichtlich täuschen will.

Wenn man dich nach dem Weg zum nächsten Zigarettenautomaten fragt und den Weg erklärst, dummerweise aber sagst, das man an dieser oder jener Kreuzung rechts abbiegen muss, obwohl es eigentlich links wäre, weil du dich falsch erinnerst oder einfach mal links und rechts verwechselt hast, dann hat das nichts mit Lügen zu tun, das nennt sich schlicht und einfach Irrtum.
Lügen tust du, wenn du denjenigen dann ABSICHTLICH in die falsche Richtung schickst, weil du ihn ärgern willst, oder selbst wenn du die gute Absicht haben solltest, das er nicht rauchen sollte.

Lügen ist übrigens ein hochkomplexer Vorgang, der sogar explizit ein gewisses Maß an Intelligenz vorraussetzt. Kinder lernen daher idR auch erst ab dem vierten bis fünftem Lebensjahr zu lügen. Vorher können sie es einfach nicht. Trifft übrigens auch auf Tiere zu. Nur hochentwickelte, wie z.B. Affen können lügen.
Es wäre zwar moralisch fraglich, aber technisch sogar eine großartige Leistung, wenn man einer KI tatsächlich beibringen könnte gezielt zu lügen.

Und weil das so komplex (herausfordernd für unser Gehirn) ist, gibt es zahlreiche Symptome an denen man OFT erkennen kann, wenn ein Mensch lügt. Das liegt daran, das das Gehirn zusehr damit beschäftigt ist die Lüge auszutüfteln und gleichzeitig auch das Gewissen mitarbeitet, so entwickelt man oft beim Lügen sofort gleichzeitig ein schlechte Gewissen, was sich dann z.B. dadurch äussert, das plötzlich kein Augenkontakt mehr gehalten wird. Auch fällt es schwer solche Gebärden zu unterdrücken, weil das Gehirn eben mit der Lüge beschäftigt ist. Sowie eher interne Symptome, wie z.B. erhöhter Puls, steigender Blutdruck, etc.
Wie immer gibts aber natürlich auch Leute die das trotzdem hinkriegen. Komischer Zufall, das die meistens auch recht intelligent sind.
 
Zuletzt bearbeitet:
Selbst wenn ChatGPT nicht Quellen einfach nur falsch interpretiert, sondern tatsächlich etwas erfindet um Lücken zu füllen, ist es trotzdem nicht Lügen, weil es den User ja wohl nicht absichtlich täuschen will.
ChatGPT "interpretiert" keine "Quellen" und "erfindet" aus dem Grund auch nichts "um Lücken zu füllen". ChatGPT ist ein Vorhersage- und kein Wissensmodell (Predictive / Knowledge). ChatGPT generiert dir auf Grundlage deiner Eingabe eine Zeichenfolge auf Basis des dahinterstehenden trainierten neuronalen Netzwerkes, sprich welches Wort passt am besten zum vorhergehenden. Das Modell hat an der Stelle überhaupt nicht die Möglichkeit etwas faktisch richtig oder falsch zu interpretieren. Nur als am besten passend.

Du kannst ChatGPT zu einem beliebigen Thema einen Text generieren lassen und das Modell hinterher um Quellen für selbige bitten - hab ich letztens beispielsweise mal mit einer geologischen Fragestellung gemacht. Die Quellen hören sich echt toll und überzeugend an - nur wirst du davon keine einzige bei google scholar oder in deiner nächsten unibib finden können. Das Modell hat an der Stelle schlichtweg keine Möglichkeit eine solche Verknüpfung überhaupt herzustellen.
 
Zuletzt bearbeitet:
Eben. Die sogenannte AI ist nichts weiter als ein komplexes Statistikmodel. Das Training und die Durchläufe lassen sich am besten mit dem Bauspiel Auto und Labyrinth erklären. Die AI kann überhaupt nicht lügen oder rassistisch sein. Von der Bedeutung der Eingangsdaten oder gar Quellen im Kontext besteht kein Verständnis. Es wird Kategorisiert und dann ein Entscheidungspfad abgearbeitet. Da kommen dann eben ganz zwingend "politisch unkorrekte" Antworten dabei raus. Spätesten da sind wir dann, trotz der Kritik, bei unserem ach so geliebten ÖRR, der Politik und der Gewinnabsicht der Konzerne. Rassistische Tendenz reduziert ist dann eben mit an die mediale Scheinrealität angepasst zu über setzen. AI wird in "kritischen" Themen also aus Gründen von Profit und Machterhaltung immer so wertvolle Antworten geben wie die Hilfshotline der kommunistischen Partei Nordkoreas. Wir müssen uns aktuell nur das Regenbogen Thema in den USA anschauen. Ganz toll wichtig und kontrovers, während große Teile des Landes den Stand der Dritten Welt erreichen. Eine AI die am Stuhl der Macht sägt wird es nicht geben. Deswegen ist die EU auch direkt alarmiert und reagiert nicht in 20 Jahren.
 
Zuletzt bearbeitet:
Fakten kann man nicht erfinden. Fakten sind bestehende Tatsachen an denen nicht zu rütteln ist.

Wenn solch eine KI dann irgendwelchen Mist erfindet um irgendwo Lücken zu füllen oder was auch immer, dann sind das halt keine Fakten, sondern Geschwurbel.
 
Das geht auch nicht, Fakten zu verdrehen und Lücken kreativ zu füllen ist Aufgabe des ÖRR in Deutschland.
Ich würde das anders sehen, der ÖRR generiert keine Lügen aber dafür werden Fakten verheimlicht. So könnte man es besser ausdrücken.
Beitrag automatisch zusammengeführt:

Sie haben es immerhin so ziemlich als erste geschafft einem aufs Internet basierten System, das Fluchen und den großteil des Rassismus abzutrainieren.
Bleibt also spannend wie erfolgreich der nächste Schritt ist.
Das wurde nicht abtrainiert sondern nach Begriffen gefiltert und geblockt.
ChatGPT macht nichts anderes als den Inhalt von Webseiten schön (und ohne Quellenangaben) zu kombinieren und als eigenen Text auszugeben.
 
Zuletzt bearbeitet:
Es ist nicht so, daß ChatGPT mal Fakten liefert und mal was erfindet.
Es liefert IMMER Erfindungen.
KI werden nur so trainiert, daß die Erfindungen möglichst häufig der Realität entsprechen.
Bei ChatGPT allerdings dem, was ein NYT-Journalist für die Realität hält... :fresse:

@nebulus1
Über die Phase des Fakten verheimlichens ist der ÖRR schon ganz lange hinaus.
Besonders gerne lügt der ÖRR heutzutage mit Bildern, die im falschen Kontext gezeigt werden, das prägt sich dem Publikum so schön wirksam ein: "Bilder lügen ja nicht".
 
Die AI kann überhaupt nicht lügen oder rassistisch sein.
Nicht bewusst, denn zu Lügen wird ja meist als bewusster Vorgang bezeichnet, auch wenn es ganz offenbar Leute gibt die notorisch lügen, ohne rot zu werden und wo man sich fragen muss, wie weit es ihnen noch bewusst ist. AI kann natürlich Unwahrheiten und rassistische Inhalte wiedergeben, wenn diese in den Daten enthalten sind mit denen es trainiert wurde. Aber wenn die AI keine Antwort weiß, sollte sie dies natürlich zugeben und nicht einfach irgendwas ausgeben, für das es selbst keine Basis hat. AI ist für sehr bestimmte Bereiche durchaus hilfreich, aber ChatGPT am Ende einfach eine überhypte Rechtschreibkorrektur.
Eine AI die am Stuhl der Macht sägt wird es nicht geben. Deswegen ist die EU auch direkt alarmiert
Das trifft wohl eher für China zu, deren AI genau dies Problem hat.
 
Nope, Lügen bedingt eine absichtliche herbeigeführte Täuschung.
Nein. Es ist viel einfacher: Wenn man wissentlich die Unwahrheit sagt, dann lügt man.
Heißt übrigens nicht, daß man die Wahrheit kennen muß. Man muß sich nur darüber im Klaren sein, daß man selbst gerade die Unwahrheit sagt.
Es ist nicht so, daß ChatGPT mal Fakten liefert und mal was erfindet.
Es liefert IMMER Erfindungen.
KI werden nur so trainiert, daß die Erfindungen möglichst häufig der Realität entsprechen.
Bei ChatGPT allerdings dem, was ein NYT-Journalist für die Realität hält... :fresse:

@nebulus1
Über die Phase des Fakten verheimlichens ist der ÖRR schon ganz lange hinaus.
Besonders gerne lügt der ÖRR heutzutage mit Bildern, die im falschen Kontext gezeigt werden, das prägt sich dem Publikum so schön wirksam ein: "Bilder lügen ja nicht".
Das weit größere Problem unserer Medien sind nicht die Lügen sondern die Lücken.
Wenn jemand lügt, habe ich ja wenigstens die Chance, dies inhaltlich zu widerlegen. Wenn ich aber über so manche Tatsache einfach gar nichts erfahre, ist es zwar wirklich passiert mit allen Konsequenzen, aber für mich eben nicht.

Das größte Problem mit KI in meinen Augen ist schon jetzt, daß wir nicht erfahren, wann wir es mit KI zu tun haben. Wir denken, wir reden mit einem Menschen und versuchen, mit ihm Gedanken auszutauschen, was politisch der Beginn eines jeden demokratischen Prozesses ist. Aber dabei reden wir nur gegen eine Wand - eine künstliche Welt, eine Matrix. Damit werden wir "mündigen Bürger" in sinnlosen Gesprächen aufgerieben, und "denen da oben" schauen noch weniger Leute auf die Finger. Die Medien ja sowieso schon nicht mehr.
Beitrag automatisch zusammengeführt:

Fakten kann man nicht erfinden. Fakten sind bestehende Tatsachen an denen nicht zu rütteln ist.
Das stimmt so ja nicht. Das Wort "Fakt" stammt sprachlich von "factum" aus dem Latein und bedeutet "Werk, Handlung". Wir kennen das zB. von dem Wort "Manufaktur". Manus = Hand, Faktum = Werk, Also Handwerk. In einer Manufaktur wird etwas von Hand gemacht.

Etwas Faktisches ist also strenggenommen etwas "Gemachtes", etwas künstlich Erzeugtes und keine Tatsache.
 
Zuletzt bearbeitet:
Lügen ist übrigens ein hochkomplexer Vorgang, der sogar explizit ein gewisses Maß an Intelligenz vorraussetzt. Kinder lernen daher idR auch erst ab dem vierten bis fünftem Lebensjahr zu lügen. Vorher können sie es einfach nicht. Trifft übrigens auch auf Tiere zu. Nur hochentwickelte, wie z.B. Affen können lügen.
Es wäre zwar moralisch fraglich, aber technisch sogar eine großartige Leistung, wenn man einer KI tatsächlich beibringen könnte gezielt zu lügen.
Lügen ist ein physiologischer Prozess, also ein biologisches Phänomen von bestimmten Lebewesen. Wenn man es nicht biologisch ausdrücken möchte könnte man es auch psychologisch ausdrücken (z.B. im Zusammenhang mit der Theory of Mind, etc.). Egal wie man es ausdrückt, es bleibt etwas biologisches.

Computer bzw. Softwaresysteme können prinzipiell nicht lügen. Man vergleicht hier Äpfel (Phänomene von Lebewesen) mit Birnen (die Arbeitsweise von Computern). Das ist eigentlich Unsinn, auch wenn man es im Alltag bzw. der Alltagssprache so ausdrücken kann und jeder versteht was gemeint ist.

Eine Software bzw. eine AI kann natürlich falsche Informationen ausgeben. Ob das an dem vorherigen Lernprozess der AI liegt oder weil die Entwickler das gezielt programmiert haben ändert nichts, denn hinter der Software steckt kein bewusstes Lebewesen das andere manipulieren möchte, also z.B. Intentionen hätte. Wenn man also schon über "Lügen" bei einer AI diskutiert würde ich den Begriff im Zusammenhang mit AI gleich fallen lassen, da er letztendlich irreführend ist.
 
Lügen ist ein physiologischer Prozess,
Ob Lüge oder Irrtum ist doch egal, klar kann ChatGPT wohl nicht bewusst Unwahrheiten verbreiten, aber warum auch immer Unwahrheiten rauskommen ist doch sekundär. Das Problem ist doch vielmehr, dass überhaupt Unwahrheiten rauskommen und der Grund dies passiert, spielt dann keine Rolle, wenn man wegen dem Mist geschädigt wird. Fragt man jemanden nach dem Weg, spielt es keine Rolle ob man in die falsche Richtung geschickt wird weil derjenige bewusst lügt, sich falsch erinnert (Irrtum) oder die Antwort frei erfindet weil er den Weg selbst nicht weiß, nur um nicht blöd dazustehen und eingestehen zu müssen, dass er den Weg auch nicht kennt. Das Ergebnis ist doch jeweils das Gleiche, warum kann einem dann echt egal sein. Keine Ahnung wieso sich manche hier so daran festbeißen.
 
Zuletzt bearbeitet:
Holt, ich stimme dir ja zu. Aber darum ging es in dem von mir zitierten Beitrag nicht. Und nur auf diesen habe ich geantwortet.
 
Per se kann eine Maschine nicht lügen weil sie auf der Mathematik und den festen physikalischen Gesetzen basiert, aber auch ChatGPT etc. agiert natürlich nicht vollständig autonom.

Wie Botcrusher das unverblümt auf den Punkt gebracht hat geht es auch eher um den Menschen im Ungang mit dieser und Kontrolle der Eliten, dieses vermeitliche Wahrheits und Wissenschafts Geschwätz des eigentlich völlig ahnungslosen Boomers in jedem Kontext kann sich doch heutzutage keiner mehr geben.

Lustigerweise ist der OpenAI CEO ja auch dieser Ansicht, wenn du deiner Meinung nach geschädigt wurdest von der AI in irgendeiner Form musst du sie verklagen und dann wird sich zumindest die U.S. Judikative damit beschäftigen müssen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh