Werbung
Seit der Veröffentlichung von ChatGPT hat auch die Kritik am Einsatz Künstlicher Intelligenz eine neue Qualität erreicht. Mit der Entscheidung der italienischen Regierung das KI-Modell aus dem Hause OpenAI landesweit zu verbieten, fand diese zuletzt einen vorzeitigen Höhepunkt. Allerdings formieren sich vermehrt auch in vielen anderen Ländern der europäischen Union die Kritiker und fordern zumindest eine strengere Regulierung der Technologie. Auch in Deutschland wird derzeit darüber diskutiert, sogar ein Verbot wird erwogen.
Ursächlich dafür ist vor allem die Tatsache, dass die Hersteller der neuen KI-Modelle nicht preisgeben, mit welchen Datensätzen die künstliche Intelligenz trainiert wurde. Besonders problematisch wird es, wenn dabei personenbezogene Daten herangezogen wurden. Daher fordert etwa der Leiter der KI-Taskforce der Bundesländer, Dieter Kugelmann, explizit die Schaffung einer entsprechenden Rechtsgrundlage, damit nachvollzogen werden kann, welchen Daten verwendet wurden. Ohne eine derartige Grundlage sei ein Betrieb dieser Technologie in Deutschland nicht möglich, so Kugelmann.
Allerdings ist die Situation juristisch verzwickt. Denn grundsätzlich setzt die Datenschutzgrundverordnung zwar eine ausdrückliche Zustimmung seitens der betroffenen Person voraus, will ein Unternehmen derartige Daten verwenden. Jedoch räumt das deutsche Urheberrechtsgesetz auch die automatische Analyse von Daten ein. Es ist daher durchaus denkbar personenbezogene Daten zum Trainieren von KI-Modelle zu nutzen, sofern nach der Verarbeitung der Daten eine Löschung dieser erfolgt.
Ob es hierzulande zu einem Verbot wie in Italien kommt, steht zur Zeit noch aus. Zunächst wurde ein Verwaltungsverfahren gegen OpenAI angestoßen, in welchem die Landesdatenschützer der Länder Fragen an den Konzern ausformuliert haben. Das weitere Vorgehen soll in der Folge maßgeblich von den Antworten auf den Fragenkatalog abhängen.