EU-Datenschützer: Antworten von ChatGPT müssen korrekt sein

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.149
Der Europäische Datenschutzausschuss (EDSA) unterhält schon seit einer Weile eine eigene "GPT-Taskforce". Diese soll die Vereinbarkeit von KI-Programmen wie ChatGPT mit dem europäischen Datenschutz untersuchen. Nun hat die Taskforce vor Kurzem ihre ersten Ergebnisse präsentiert, die allerdings weitere Fragen aufwerfen. Zwar nimmt der EDSA die Bemühungen von OpenAI zur Kenntnis, das eigene KI-Modell ChatGPT mit den Gesetzen der EU in Einklang bringen zu wollen, bewertet diese Anstrengungen dennoch als unzureichend.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und da geht die KI-Blase langsam dahin. Mal schauen wie es weiter geht. Bis auf - einige wenige - sinnvolle Anwendungsgebiete - ist das Ganze für mich aktuell nur Spielerei
 
Ich hoffe doch, dass die Institution ChatGPT vor der Freigabe der Daten zur Fütterung des KI-Programmes im Vorfeld verifiziert zur Verfügung stellt. Was? Nein? Oh! :LOL:
 
Das "KI ist ein Hype" Gelaber ist nicht mehr auszuhalten.
Ich verwende KI Systeme privat und in der Arbeit mittlerweile täglich.
Das beginnt bei einfachen Übersetzungen, sortieren von Grafiken und Fotos, bearbeiten von Fotos, OCR, semi-autonomes Fahren im Tesla, etc.
Überall dort ist in gewisser Weise Machine-Learning mal die Grundbasis.

Viele User wären auch erstaunt, wie häufig mittlerweile Verkehrserkennung auf Autobahnen, Wetterdaten, Preisprognosen, etc. KI gestützt sind.
Dadurch kommen einige Menschen auch unbewusst in Berührung damit.
 
Das "KI ist ein Hype" Gelaber ist nicht mehr auszuhalten.
Ich verwende KI System privat und in der Arbeit mittlerweile täglich.
Das beginnt bei einfachen Übersetzungen, sortieren von Grafiken und Fotos, bearbeiten von Fotos, OCR, semi-autonomes Fahren im Tesla, etc.
Überall dort ist in gewisser Weise Machine-Learning mal die Grundbasis.

Viele User wären auch erstaunt, wie häufig mittlerweile Verkehrserkennung auf Autobahnen, Wetterdaten, Preisprognosen, etc. KI gestützt sind.
Dadurch kommen einige Menschen auch unbewusst in Berührung damit.
Natürlich gibt es Anwendungsgebiete in denen KI-Modelle super sind, aber es wird eben niemals ein KI-Modell geben, das universell alle Aufgaben abdecken kann, wie ein Mensch

GPT kann vielleicht Anfragen erkennen, diese jedoch niemals so vielschichtig abarbeiten wie ein speziell geschulter Mensch.

Hoch spezialisiert, ja. Aber nicht als Allheilmittel. Deshalb für mich (aktuell) ein Hype. Und daneben ist es stellenweise auch nicht wirtschaftlich Aufgaben von KI abarbeiten zu lassen, sofern man speziell trainieren muss.
 
Hoch spezialisiert, ja. Aber nicht als Allheilmittel. Deshalb für mich (aktuell) ein Hype. Und daneben ist es stellenweise auch nicht Wirschaftlich Aufgaben von KI abarbeiten zu lassen, sofern man speziell trainieren muss.

KI besteht eben nicht nur aus dem "Fragen/Antworten" Spiel von Chat-GPT.
Das ist ziemlich engstirnig betrachtet.

Ich verdächtige mittlerweile viele größere Zeitungsartikel auch KI generierte Inhalte zu verwenden.
Jede Kreditkartenfirma hat mittlerweile KI Systeme am laufen, die verdächtige Aktivitäten erkennen - ohne dass ein Programmierer konkrete Trigger Points definieren muss.
KI ist und bleibt deterministisch, nur irgendwann ist der Weg zum Output vom Programmierer selbst nicht mehr sinnvoll nachzuvollziehen - und das ist schon VERDAMMT HÄUFIG der Fall.

Ich bin überzeugt, dass annähernd jeder Mensch in Mitteleuropa der sich in der Öffentlichkeit bewegt, auch täglich mit KI in Berührung kommt.

Es geht nicht darum "DIE EINE KI" zu schaffen - unter Menschen gibt es auch verschiedenste Meinungen und Experten, wos eben unter Anderem auch darauf ankommt, welche Inhalte ihm irgendwann mal gelehrt und beigebracht worden sind --> nichts Anderes gilt auch für die KI!
 
Natürlich gibt es Anwendungsgebiete in denen KI-Modelle super sind, aber es wird eben niemals ein KI-Modell geben, das universell alle Aufgaben abdecken kann, wie ein Mensch

GPT kann vielleicht Anfragen erkennen, diese jedoch niemals so vielschichtig abarbeiten wie ein speziell geschulter Mensch.

Hoch spezialisiert, ja. Aber nicht als Allheilmittel. Deshalb für mich (aktuell) ein Hype. Und daneben ist es stellenweise auch nicht wirtschaftlich Aufgaben von KI abarbeiten zu lassen, sofern man speziell trainieren muss.
Dazu kommt: KI vrrbrennt so krass viel Energie das ich allein deshalb drauf vrrzichten könnte...
 
Dazu kommt: KI vrrbrennt so krass viel Energie das ich allein deshalb drauf vrrzichten könnte...
Jaein - schon mal überlegt, wie viel "Energie" so ein Programmierer aufwenden muss, um super komplex Alogirthmen zu gestalten?
Wo viele Trigger Punkte definiert werden müssen, sich viele Fehler einschleichen, etc.?

Das ist wesentlich ineffizienter, als ein Computer der mir quasi über Nacht aus einer riesigen Datenbank wichtige Zusammenhänge erfasst und erkennt,
und mir dann ein passendes System ausspuckt.


Bei der industriellen Revolution sind am Ende auch jene Unternehmer und Denker untergegangen, die fest an der menschlichen Arbeit festgehalten haben.
KI nimmt uns nicht unsere Körperkraft ab, sondern das Denken.

Eventuell ethisch schwierig - aber darum gehts nicht.
 
Ich bin da anderer Meinung, denn atm wird KI auf alles gekippt das nicht bei 3 auf den Bäumen ist. Der Programmierer nicht. Nicht alles was hinkt ist ein Vergleich.
 
Jede Kreditkartenfirma hat mittlerweile KI Systeme am laufen, die verdächtige Aktivitäten erkennen - ohne dass ein Programmierer konkrete Trigger Points definieren muss.

Ich bin zwar kein AI-Architekt, aber das ist zu 99,99% Maschinelles Lernen. Und das gibt es schon was länger als die aktuell gehypten KI-Anwendungen (1980er). Und zwar mit vordefinierten Modellen (Lineare Regression, Entscheidungsbaum, k-Means)

Aktuell sind wir vllt beim Deep Lerning. Aber „richtige“ KI (Artificial General Intelligence) ist das per Definition immer noch nicht, sondern Spezifische KI (Narrow Artificial Intelligence)

Dann müsste das Modell nämlich selber lernen Aufgaben zu lösen, ohne dafür explizit dafür programmiert worden zu sein (stammt allerdings nicht von mir, sondern von Arthur Samuel)
Beitrag automatisch zusammengeführt:

Jaein - schon mal überlegt, wie viel "Energie" so ein Programmierer aufwenden muss, um super komplex Alogirthmen zu gestalten?
Wo viele Trigger Punkte definiert werden müssen, sich viele Fehler einschleichen, etc.?

Das ist wesentlich ineffizienter, als ein Computer der mir quasi über Nacht aus einer riesigen Datenbank wichtige Zusammenhänge erfasst und erkennt,
und mir dann ein passendes System ausspuckt.


Bei der industriellen Revolution sind am Ende auch jene Unternehmer und Denker untergegangen, die fest an der menschlichen Arbeit festgehalten haben.
KI nimmt uns nicht unsere Körperkraft ab, sondern das Denken.

Eventuell ethisch schwierig - aber darum gehts nicht.
Never wird menschliche Arbeit überflüssig. In manchen Gebieten ja, aber nicht in allen.

Wir verballern aber aktuell Milliarden/ Billionen Dollar auf Tools die wunderschöne Deepfakes erstellt oder Haluziniert, wenn man 5 mal das gleiche fragt. Und dann nimmt man auch keine Echtzeit-Daten für GPT, sondern vorselektierte, damit das gute Stück nicht einen auf Adolf macht, wie Tray (von m$ in 2016).

Wir sind in der KI Steinzeit, und der Weg bis zum Mond war da noch verdammt weit. Wenn wir da überhaupt jemals KI-Technisch hinkommen (wollen) weil wir dann so viel Energie reinstecken müssen, dass es sich nicht mehr lohnt
 
Zuletzt bearbeitet:
Hmm, komische Sache...
Reicht es nicht zu schreiben "Die Informationen können inkorekt sein. Nutzung auf eigene Gefahr.".
Das tut OpenAI ja bereits.
Ich meine dem "Titanic" Magazin wirft der Gesetzgeber ja auch nicht vor Unsinn zu schreiben.
 
Hmm, komische Sache...
Reicht es nicht zu schreiben "Die Informationen können inkorekt sein. Nutzung auf eigene Gefahr.".
Das tut OpenAI ja bereits.
Ich meine dem "Titanic" Magazin wirft der Gesetzgeber ja auch nicht vor Unsinn zu schreiben.
Scheibar nicht. Ich vermute die Aussage bezieht sich aber auf das Problem hier:


Aber bislang kann OpenAI auch froh sein, dass die nicht die DSGVO-Konformität der Trainingsdaten nachweisen müssen. Dann würden da wohl die Lampen ausgehen, da keiner weiß welche Daten exakt woher bezogen wurden und ob die auch für das Training von GPT verwendet werden durften. Und wenn keine Konformität besteht können diese Daten nicht mehr „entlernt“ werden 🤷🏻
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh