Trend Logo

Datenschutz und LLM-Modelle – Ein umfassender Blick auf Regulierung & Verantwortung

Subressort
Aktualisiert
Lesezeit
15 min

Axel Anderl und Alexandra Ciarnau im Gespräch mit trend.

©Elke Mayr
  1. home
  2. Finanzen
  3. Recht

Die zunehmende Verbreitung von Large Language Modellen (LLMs) wie ChatGPT hat eine intensive Debatte über Datenschutz und die rechtlichen Implikationen ihrer Nutzung entfacht. Mit der Veröffentlichung des Berichts des Europäischen Datenschutzausschusses (EDPB) am 24. Mai 2024 hat diese Diskussion einen neuen Höhepunkt erreicht. Der Bericht, der sich auf die Untersuchungen der nationalen Datenschutzbehörden zu OpenAI und deren Umgang mit personenbezogenen Daten konzentriert, bietet nicht nur spezifische Erkenntnisse zu ChatGPT, sondern gibt auch allgemeine Einblicke in die Erwartungshaltung der EU-Datenschutzbehörden beim Einsatz von LLMs.

von

Der Bericht des EDPB: Ein Überblick

Der EDPB-Bericht unterstreicht, dass beim Einsatz von LLMs wie ChatGPT verschiedene Phasen der Datenverarbeitung unterschieden werden müssen. Diese Phasen umfassen:

  • die Erhebung von Trainingsdaten

  • vorbereitende Datenverarbeitungen

  • das Training

  • die Verarbeitung von Prompts und Outputs

  • das Training mit Prompts

Jede dieser Phasen birgt spezifische Risiken für die Grundrechte und -freiheiten der Betroffenen, insbesondere hinsichtlich der Rechtfertigung der Datenverarbeitung nach Art. 6 DSGVO.

Die Rechtmäßigkeit der einzelnen Phasen wird derzeit von den nationalen Datenschutzbehörden untersucht, wobei unklar ist, inwieweit überwiegend berechtigte Interessen als Rechtfertigungsgrund angeführt werden können. Der Bericht zeigt jedoch auf, dass Maßnahmen wie die Löschung oder Anonymisierung von Daten nach deren Erhebung, das Filtern sensibler Daten und die klare Information der Nutzer über die Nutzung ihrer Inhalte für Trainingszwecke entscheidend sind, um den Anforderungen der DSGVO gerecht zu werden.

Herausforderungen bei der Umsetzung der DSGVO

Um die theoretischen Grundlagen des EDPB-Berichts mit praktischen Erfahrungen zu untermauern, gaben die auf Datenschutz und Technologie spezialisierten Anwält:innen Alexandra Ciarnau und Axel Anderl von der Kanzlei DORDA Auskunft. Im Interview boten sie wertvolle Einblicke in die Herausforderungen und die rechtlichen Feinheiten beim Einsatz von LLMs.

Ein zentraler Punkt des Gesprächs war die Frage, wer in den verschiedenen Phasen der Datenverarbeitung die Verantwortung trägt.

"Datenschutzrechtlich ist für die Anwendung als solches beispielsweise der Anbieter verantwortlich, wenn er das System zur Verfügung stellt. Wenn der Nutzer das System dann in eigener Verantwortlichkeit nutzt und personenbezogene Daten eingibt, liegt die Verantwortung für diese Verarbeitung bei ihm. Aber wenn diese Daten auch Teil des Modells werden, ist der Anbieter diesbezüglich für die Einhaltung der DSGVO verantwortlich."

trend.: Wie kann ich als Nutzer:in eruieren, was mit meinen Daten passiert und ob diese gegebenenfalls für Trainingszwecke genutzt werden?

Axel Anderl: Das sollte in den Nutzungsbedingungen offengelegt sein. Der Konjunktiv deshalb, weil die Frage ist, ob der Anbieter sich auch daran hält. Vor allem bei kostenlosen Versionen von KI-Systemen besteht die Gefahr, dass Nutzerdaten für Trainingszwecke verwendet werden, ohne dass dies dem Nutzer klar ist – im Gegensatz zu den entgeltlichen Programmen.

Dieser Punkt verdeutlicht die komplexe Aufteilung der Verantwortung zwischen Anbietern und Nutzer:innen von LLMs, insbesondere wenn personenbezogene Daten ins Spiel kommen.

"Das Besondere dabei ist, dass sich die Behörden nun auch mit der Technik auseinandersetzen müssen, wenn es um den rechtlichen Kontext geht. Jetzt gilt es genau zu hinterfragen: Wie funktioniert ein Chatbot, wie funktioniert ein KI-gestütztes System? Daraus ergab sich auch die erwähnte Aufteilung in Phasen – hier wurden die einzelnen Lebenszyklen genau betrachtet und bewertet", erklärt Anderl.

Blurred image background

Anwalt Axel Anderl

 © Elke Mayr

Internationale Datenübermittlung

Ein weiterer Punkt ist die internationale Datenübermittlung. Viele LLM-Modelle werden in globalen Netzwerken entwickelt und betrieben, was oft die Übermittlung von Daten in Drittstaaten mit sich bringt. Wie kann demnach sichergestellt werden, dass bei solchen internationalen Datenübermittlungen die DSGVO-Vorgaben eingehalten werden?

Im Interview betonen Ciarnau und Anderl, dass die DSGVO grundsätzlich auf alle Fälle anwendbar ist, in denen personenbezogene Daten von europäischen Bürger:innen verarbeitet werden – unabhängig davon, ob der Anbieter der LLM-Modelle in einem Drittstaat ansässig ist oder nicht.

Ein entscheidendes Problem bei der internationalen Datenübermittlung bestehe darin, dass Unternehmen in Drittstaaten, wie beispielsweise den USA, oft unterschiedliche Datenschutzstandards haben. Sobald ein Unternehmen Daten von europäischen Bürger:innen verarbeitet und diese außerhalb der EU transferiert, muss es sicherstellen, dass die hohen Anforderungen der DSGVO erfüllt werden. "Sobald Daten von europäischen Bürgern verarbeitet werden, ist die DSGVO anwendbar." Daher Bedarf es einen rechtlichen Rahmen für den Datentransfer, wie es nun das EU-US Data Privacy Framework bietet. Fehlt eine entsprechende Grundlage in Drittstaaten oder fällt dieses weg wie dies mit Blick auf die USA mit dem Safe-Harbor-Abkommen und dem Privacy-Shield als frühere Rechtsrahmen der Fall war, ist die Situation für Unternehmen komplizierter.

Die Anwält:innen heben hervor, dass die Durchsetzung der DSGVO in Drittstaaten schwierig sein kann. Zwar ist die DSGVO auf alle Datenverarbeitungen anwendbar, die europäische Bürger:innen betreffen, die praktische Durchsetzung dieser Vorschriften in Ländern außerhalb der EU bleibt aber eine Herausforderung. "Die Frage ist dann: Wie durchsetzbar ist es? Das ist am Ende des Tages die Gretchenfrage", so Anderl.

Dies führt dazu, dass Unternehmen oft Niederlassungen in der EU gründen, um den rechtlichen Anforderungen gerecht zu werden und Angriffsflächen für mögliche Rechtsverletzungen zu minimieren.

Ich sehe den AI-Act nicht als innovationshemmend, wie es die DSGVO war

Eine weitere Problematik, die angesprochen wurde, betrifft die politische und rechtliche Ebene der internationalen Datenübermittlung. Unternehmen in den USA stehen unter dem Druck, keine Verstöße gegen die DSGVO zu riskieren, selbst wenn die Strafverfolgung schwierig sein mag. Hier spielt auch die Compliance-Kultur eine Rolle: "Gerade US-amerikanische Unternehmen handeln im Sinne von Compliance und riskieren keine Compliance-Verstöße, auch wenn sie sagen, nach meinem Heimatrecht betrifft es mich nicht", betont Anderl. Dies zeigt, dass die Einhaltung der DSGVO trotz der geografischen Distanz für US-Unternehmen von großer Bedeutung ist, um hohe Strafen und Reputationsschäden zu vermeiden.

Die Zukunft der internationalen Datenübermittlung ist auch, so die Anwält:innen, stark von den politischen Entwicklungen und den Ergebnissen neuer Abkommen wie dem transatlantischen Datenschutzabkommen abhängig. Unternehmen stehen daher vor der Herausforderung, ihre Datenströme und -verarbeitungen so zu gestalten, dass sie sowohl den rechtlichen Anforderungen in Europa als auch den operativen Notwendigkeiten in den USA gerecht werden. "Es ist an sich relativ fragil und man wird jetzt eben vor allem beim AI-Act sehen, ob die Unternehmen überhaupt nach Europa kommen oder aber ihre Produkte online anbieten und auf eine europäische Niederlassung verzichten", erklärt der Anwalt.

"Ich sehe den AI-Act aber nicht als innovationshemmend, wie es die DSGVO war. Es gibt noch einige Leitlinien und Durchführungsakte, die erwartet werden, aber insgesamt bietet der AI-Act einen flexiblen Rahmen, der sowohl die Sicherheit der Nutzer als auch die Innovationskraft der Unternehmen schützt", betont Axel Anderl.

Anderl wie auch Ciarnau sind sich einig, dass dieser neue Rechtsrahmen zwar strenge Anforderungen stellt, gleichzeitig aber auch die Möglichkeit bietet, Innovationen zu fördern, ohne die Rechte der Betroffenen zu gefährden.

Implementierung von LLM-Modellen: Vorgehensweise für Unternehmen

Doch wie sieht es nun in der Praxis aus? Die Implementierung von Large Language Modellen (LLMs) in Unternehmen stellt eine erhebliche Herausforderung dar, da zahlreiche rechtliche, technische und ethische Aspekte berücksichtigt werden müssen. Wie kann sichergestellt werden, dass die eingesetzten Systeme sowohl effektiv als auch rechtlich konform sind.

Bevor ich beginne, muss ich mir Gedanken darüber machen, welche Daten ich brauche, woher sie stammen und ob ich diese Daten überhaupt nutzen darf

1. Grundsatzentscheidung: Nutzung bestehender Systeme oder Entwicklung eigener Modelle?

Der erste Schritt für Unternehmen, die LLMs implementieren möchten, besteht darin, eine Grundsatzentscheidung zu treffen: Sollen bestehende Systeme wie ChatGPT genutzt oder eigene, auf spezifische Bedürfnisse zugeschnittene Modelle entwickelt werden?

"Die Frage ist: Nutze ich ein bestehendes System oder mache ich mir mein eigenes auf Basis eines bestehenden? Wenn ich die "of the shelf"-Lösung verwende bzw. eine öffentliche, habe ich riesige Themen mit Betriebsgeheimnissen und Datenschutz", fasst Alexandra Ciarnau zusammen.

Diese Entscheidung beeinflusst alle weiteren Schritte in der Implementierung. Bei der Nutzung eines bestehenden, öffentlichen Modells müssen Unternehmen besonders darauf achten, welche Daten sie in das System eingeben, da diese möglicherweise in den allgemeinen Datenkorpus des Anbieters einfließen könnten.

Blurred image background

Anwältin Alexandra Ciarnau

 © Elke Mayr

2. Datenmanagement: Welche Daten dürfen verwendet werden?

Nachdem entschieden wurde, welches System genutzt werden soll, ist der nächste Schritt die sorgfältige Auswahl der Daten, die in das LLM eingespeist werden sollen. Unternehmen müssen sicherstellen, dass sie die rechtlichen Anforderungen an den Datenschutz erfüllen, insbesondere die Vorgaben der DSGVO.

"Bevor ich beginne, muss ich mir Gedanken darüber machen, welche Daten ich brauche, woher sie stammen und ob ich diese Daten überhaupt nutzen darf. Sind das öffentliche Daten, darf ich die dann nutzen? Wie gehe ich mit personenbezogenen Daten um, und wie stelle ich sicher, dass diese datenschutzkonform verarbeitet werden?", so die Anwältin.

Die Entscheidung, welche Daten genutzt werden dürfen, sollte immer in enger Abstimmung mit der Rechtsabteilung und unter Berücksichtigung der aktuellen Datenschutzrichtlinien erfolgen. Insbesondere die Frage, ob Daten anonymisiert oder pseudonymisiert werden können, um den Personenbezug zu minimieren, ist hier von zentraler Bedeutung.

3. Transparenz und Aufklärung der Nutzer:innen

Ein weiterer wichtiger Aspekt bei der Implementierung von LLMs ist die Transparenz gegenüber den Nutzer:innen und die klare Aufklärung über die Verwendung ihrer Daten. Unternehmen müssen sicherstellen, dass ihre Kunden und Nutzer genau wissen, wie ihre Daten verarbeitet werden und welche Rechte sie haben.

"Die Informationspflichten der DSGVO sind klar: Welche Datenarten sind betroffen, für welche Zwecke werden sie verwendet, und werden sie an Dritte weitergegeben? Es ist wichtig, diese Informationen klar und verständlich zu kommunizieren", betont Ciarnau.

Die Einhaltung dieser Informationspflichten ist nicht nur gesetzlich vorgeschrieben, sondern auch entscheidend für das Vertrauen der Nutzer:inenn in das Unternehmen und in die von ihm eingesetzten Technologien.

4. Schulung und Aufbau von KI-Kompetenz im Unternehmen

Die Implementierung von LLMs erfordert zudem, dass Unternehmen intern die notwendigen Kompetenzen aufbauen, um diese Technologien effektiv und sicher nutzen zu können. Dies betrifft sowohl die IT-Abteilungen als auch alle anderen Abteilungen, die mit den Ergebnissen der LLMs arbeiten werden.

"KI-Kompetenz bedeutet, dass jeder Mitarbeiter, der mit KI arbeitet, das notwendige Wissen hat, um diese sicher und vertrauenswürdig einzusetzen. Die Anforderungen variieren je nach Rolle, aber alle müssen verstehen, wie die KI-Systeme funktionieren und welche rechtlichen und ethischen Rahmenbedingungen gelten", veranschaulicht Ciarnau.

Es ist daher wichtig, Schulungen anzubieten, die auf die unterschiedlichen Bedürfnisse und Wissensstände der Mitarbeiter:innen zugeschnitten sind. Dies kann die Zusammenarbeit mit externen Berater:innenn oder die Einstellung von Expert:innenen umfassen, um sicherzustellen, dass das Unternehmen gut aufgestellt ist.

"In jedem Falle braucht es einen Lead. Ich brauche jemanden, der zentral für das Thema zuständig ist", so die Anwältin.

5. Risikomanagement und Compliance

Schließlich müssen Unternehmen ein effektives Risikomanagement implementieren, das sich auf den Einsatz von LLMs konzentriert. Dies umfasst die regelmäßige Überprüfung der Systeme, um sicherzustellen, dass sie den rechtlichen Anforderungen entsprechen und keine unvorhergesehenen Risiken bergen.

"Unternehmen müssen sicherstellen, dass sie über ein Risikomanagement verfügen, das auch die spezifischen Risiken von LLMs abdeckt. Dies bedeutet, dass sie kontinuierlich überwachen müssen, wie die Systeme genutzt werden und ob Anpassungen notwendig sind", betont Ciarnau im Interview.

Bias und Ethik sind eines der härtesten Themen überhaupt, wenn es um KI geht

Bias und Diskriminierung in LLMs

Ein weiteres großes Thema im Zusammenhang mit LLMs ist das Risiko von Bias und Diskriminierung. Die EU-Datenschutzbehörden fordern, dass Daten nicht unrechtmäßig, diskriminierend oder irreführend verarbeitet werden. Dies wirft die Frage auf, wie Anbieter von LLMs sicherstellen können, dass ihre Systeme möglichst frei von Bias sind.

"Bias und Ethik sind eines der härtesten Themen überhaupt, wenn es um KI geht. Es gibt so viele Themen, bei denen Realität und Wunsch auseinanderfallen, und das macht es schwierig, eine klare Linie zu ziehen", gibt Anderl zu bedenken.

Blurred image background
 © Elke Mayr

Fazit

Der Einsatz von LLMs birgt erhebliche rechtliche und ethische Herausforderungen. Der Bericht des EDPB und das Interview verdeutlichen, dass sowohl Anbieter:innen als auch Nutzer:innen dieser Technologie sorgfältig prüfen müssen, wie sie mit personenbezogenen Daten umgehen und welche Maßnahmen sie ergreifen, um den Anforderungen der DSGVO gerecht zu werden. Die kommenden regulatorischen Entwicklungen, insbesondere der AI-Act, werden entscheidend dafür sein, wie die Balance zwischen Datenschutz und technologischer Innovation in Europa gestaltet wird.

KILaw

Über die Autoren

Logo
Jetzt trend. ab € 14,60 im Monat abonnieren!
Ähnliche Artikel