Werbung
Der Europäische Datenschutzausschuss (EDSA) unterhält schon seit einer Weile eine eigene "GPT-Taskforce". Diese soll die Vereinbarkeit von KI-Programmen wie ChatGPT mit dem europäischen Datenschutz untersuchen. Nun hat die Taskforce vor Kurzem ihre ersten Ergebnisse präsentiert, die allerdings weitere Fragen aufwerfen. Zwar nimmt der EDSA die Bemühungen von OpenAI zur Kenntnis, das eigene KI-Modell ChatGPT mit den Gesetzen der EU in Einklang bringen zu wollen, bewertet diese Anstrengungen dennoch als unzureichend.
Eines der größten Probleme ist das sogenannte Halluzinieren von großen Sprachmodellen, also das Erfinden von Informationen. Dies könnte nach Auffassung der Datenschützer einen Verstoß gegen die DSGVO darstellen. Denn nach Artikel 5 der EU-Datenschutz-Grundverordnung müssen personenbezogene Daten "sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein".
Der EDSA hält fest, dass "der derzeitige Trainingsansatz aufgrund der probabilistischen Natur des Systems zu einem Modell führt, das auch verzerrte oder erfundene Ergebnisse liefern kann". Darüber hinaus sieht der EDSA die Gefahr, dass "die von ChatGPT gelieferten Ergebnisse von den Endnutzern wahrscheinlich als sachlich richtig angesehen werden", unabhängig davon, ob diese tatsächlich richtig sind.
"In jedem Fall muss der Grundsatz der Datenrichtigkeit beachtet werden", heißt es weiter. Die von OpenAI ergriffenen Maßnahmen helfen zwar dabei, Fehlinterpretationen zu reduzieren, jedoch "reichen sie nicht aus, um den Grundsatz der Datenrichtigkeit einzuhalten".
Unklar bleibt, wie OpenAI seinen Chatbot überhaupt mit den EU-Vorschriften in Übereinstimmung bringen kann. Denn allein das GPT-4-Modell enthält bereits Milliarden von Datenpunkten sowie etwa eine Billion Parameter. Faktisch wäre es für Menschen undurchführbar, diesen Datensatz komplett auf seine Richtigkeit zu durchsuchen, um so eine Genauigkeit im Sinne der Datenschutz-Grundverordnung herzustellen.