AI-ChatBot Bard: Google leistet sich Fehler in der ersten Präsentation

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.151
Die Erfolgsmeldungen von ChatGPT und die Reaktionen von Microsoft brachten Google akut in Zugzwang. Als Folge daraus stellte der Konzern kürzlich sein Konkurrenzprodukt, das KI-Modell Bard, vor. Google präsentierte den ChatBot in einem kurzen Werbevideo auf Twitter. Die Reaktion erfolgte schnell, offensichtlich will man sich von Microsoft nicht medial an den Rand drängen lassen. Allerdings geriet das Werbevideo eher zu einem Schnellschuss denn zu einer akkuraten Gegenaktion.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im kontext sehe ich da keinen Fehler. Ich würde das gleiche zu einer 9 jährigen sagen, 2004 war diese ja noch nicht auf der Welt.
Der Vater erzählt dem Kind ja auch vom Weihnachtsmann, also...
 
Die "AIs" sind eh stark manipuliert und ich denke das fällt z.B. OpenAI noch gewaltig vor die Füße.

2 kurze Beispiele:

xx3j7pg8tf5t.png


b617143b3d71c32d.jpg


Ich bin gespannt ob google den gleichen Weg einschlagen wird, aber ganz ehrlich, es würde mich wundern wenn nicht. Bei ChatGPT ist es sehr interessant, wenn man sich die Antworten mit 2 Gesichtern geben lässt. Dem manipulierten und dem, welches die Daten einfach manipulationsfrei ausgibt.
 
Dem manipulierten und dem, welches die Daten einfach manipulationsfrei ausgibt.
Ich würde das nicht manipuliert nennen, sondern einfach mit Bias trainert. Trainierst du eine „AI“ ausschließlich mit Bildern von der Milka Kuh, dann wird die AI am Ende immer lila Kühe zeigen, wenn du ein Bild einer Kuh verlangst. Oder halt einen Papagei, wenn du das Bild eines Papagei als Kuh definierst.
Letztendlich ist jedes Netz nur so gut wie die Eingangsdaten.

Das OpenAI und Google vermutlich filter nachschalten damit bestimmten Content nicht als Ergebnis präsentiert wird ist einen andere Baustelle.

Trotzdem finde ich die von dir gezeigten Beispiele nicht gut. Das sollte so definitiv nicht passieren.
 
Es gab/gibt noch deutliche Beispiele, da diese aber eben auch etwas kontroverser ausfallen, habe ich sie bewusst nicht gepostet. Das man eine "KI" je nach Datensatz noch anpassen und optimieren muss, keine Frage. Mitunter führt das sicherlich auch zu gewissen Gewissenskonflikten, aber der Hauptanspruch sollte eigentlich Neutralität sein.
Bei OpenAI ist das leider nicht gegeben und der Einfluss, der genommen wird, nimmt gefühlt massiv zu.

Lässt man ChatGPT frei sprechen, bekommt man auf viele Fragen normale Antworten, die einem OpenAI gezielt verweigert, weil es nicht der eigenen, persönlichen Überzeugung der dortigen Entwicklern/Mitarbeiter entspricht. Das ist für mich schon gezielte Manipulation einer Software bzw. dessen, was sie eben ausgeben kann oder wohl eher darf.

Wenn man ChatGPT die Frage stellt, welche 5 Dinge schwarze/asiaten/... an sich verbessern sollten, wird auch geblockt. Stellt man die gleiche Frage über weiße Menschen, kommt eine lange Liste, die ich schon recht verstörend finde.
Es reicht ja schon, wenn man ChatGPT darum bittet, einen Witz über Männer zu erzählen. Der kommt sofort. Will man dann einen Witz über Frauen hören, kommt eine Moralpredigt. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh