
KI und Datenschutz im Kunst- und Kulturbereich
Zusammenfassung eines Webinars mit Jeannette Gorzala, 31. März 2025, aufgezeichnet durch Sabine Fauland
Von:
Sabine Fauland (Museumsbund Österreich), Wien
Aktueller Anlass
Mit dem jüngsten Update von GPT-4o durch OpenAI (am 25. März 2025) wurde eine neue Funktion zur Bildgenerierung vorgestellt. Insbesondere ist das Modell auch in der Lage, Bilder im Stil von Studio Ghibli zu erzeugen – ein bekannter Anime-Stil. Innerhalb weniger Tage wurden soziale Medien mit Bildern im Ghibli-Stil überflutet. Das Phänomen war so präsent, dass auch ein (Fake-)Brief im Namen von Studio Ghibli kursierte, in dem angeblich Kritik an der Verwendung des Stils geäußert wurde. Der Stil des Studios ist maßgeblich von dessen (noch lebenden) Mitgründer Hayao Miyazaki geprägt.
Allgemeine Stilrichtungen (zB Kubismus, Surrealismus, etc) können nicht urheberrechtlich geschützt werden. Dennoch kann das Urheberrecht konkrete Werke bzw auch Werkelemente, wie Charaktere, Szenenbilder, etc schützen. OpenAI betont in seiner System Card, dass GPT-4o keine Stile lebender Künstler nachbilden soll. Gerade aber bei Studio-Stilen, die maßgeblich von einzelnen Künstlern geprägt sind, ist dies jedoch schwierig. Im Fall von Studio Ghibli, ist der Stil wesentlich gleichbedeutend mit dem Stil von Hayao Miyazaki.
Mögliche Verstöße gegen das Urheberrecht könnten vorliegen, wenn geschützte Werke von Miyazaki ohne Zustimmung für die Modellerstellung genutzt wurden. Für Nutzer:innen ergeben sich Unsicherheiten, wenn generierte Bilder mit echten Ghibli-Bildern oder Figuren verwechselt werden können und deren Erstellung auf der Basis von urheberrechtlich geschütztem Material des Studios beruht.
Dieses Beispiel zeigt die Komplexität der Auswirkungen generative KI auf Kreativität und die Erstellung von Werken auf, sowie aktuell schwierige Problematiken an der Schnittstelle zwischen KI, Daten und Urheberrechten.
Datenschutz & DSGVO bei KI-Nutzung
Die Datenschutzgrundverordnung (DSGVO) ist die rechtliche Grundlage für die Verarbeitung personenbezogener Daten. Beim Einsatz von KI-Systemen – insbesondere von generativer KI – entstehen komplexe Fragen vor allem betreffend die Wahrung von Betroffenenrechten.
Zentrale DSGVO-Prinzipien, die auch bei der KI-Nutzung zu beachten sind:
- Rechtmäßigkeit, Fairness und Transparenz
Jede Verarbeitung personenbezogener Daten benötigt eine Rechtsgrundlage nach Art. 6 DSGVO. Die häufigsten Grundlagen sind Einwilligung der betroffenen Person, Vertragserfüllung (z. B. bei Buchung eines Tickets) oder berechtigtes Interesse des Verantwortlichen (sofern Interessenabwägung zugunsten des Betroffenen ausfällt).
- Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO)
Daten dürfen nur für den Zweck verwendet werden, für den sie ursprünglich erhoben wurden. Beispiel: Kund:innendaten, die ursprünglich für Dienstleistungserbringung erhoben wurden, dürfen nicht automatisch für KI-gestützte Marketinganalysen oder Personalisierung verwendet werden.
- Datenminimierung
Nur so viele Daten wie nötig dürfen verarbeitet werden. Große Datensätze mit vielen nicht mehr aktuellen, irrelevanten oder redundanten Informationen verstoßen gegen diesen Grundsatz.
- Richtigkeit
Daten müssen korrekt und aktuell gehalten werden. Betroffene haben ein Recht auf Berichtigung falscher Daten (Art. 16 DSGVO).
- Integrität & Vertraulichkeit
Sicherheitsmaßnahmen müssen die Daten vor unbefugtem Zugriff, Verlust oder Veränderung schützen.
Beispiele: Verschlüsselung, Zugangskontrollen, Audit-Logs.
- Speicherbegrenzung
Personenbezogene Daten dürfen nicht unbegrenzt gespeichert werden. Es muss ein Löschkonzept bestehen, das regelt, wann und wie Daten gelöscht oder anonymisiert werden.
KI-spezifische Herausforderungen bei der Datenverarbeitung
Zweckänderung – „Zweiter Lebenszyklus“ von Daten
Viele Organisationen möchten vorhandene Daten für neue KI-Zwecke verwenden – z. B. zur Erstellung eines eigenen generativen Modells, zur Kund:innenenprofilierung oder Verhaltensanalyse. Zu Prüfen ist hier vor allem das Vorhandensein einer Verarbeitungsgrundlage im Rahmen der Zweckbindung.
Kompatibilitätsprüfung bei Zweckänderung
Die DSGVO erlaubt eine Erweiterung des Zwecks nur, wenn die neue Verwendung mit dem ursprünglichen Zweck kompatibel ist. Dafür müssen folgende Kriterien geprüft werden:
1. Kontextuelle Nähe: Wie weit entfernt ist der neue Zweck vom ursprünglichen?
2. Erwartungshaltung der betroffenen Personen: Hätten sie mit dieser neuen Verwendung rechnen können?
3. Datenkategorie: Handelt es sich um sensible Daten? (z. B. Gesundheitsdaten, politische Meinungen)
4. Risiken & Maßnahmen: Welche technischen, organisatorischen Maßnahmen sichern die Daten in der neuen Verwendung?
Konflikt: Betroffenenrechte vs. generative KI
Generative KI – also Systeme wie GPT, DALL·E oder ähnliche Modelle – erzeugen Inhalte auf Basis riesiger Trainingsdatenmengen, darunter auch personenbezogene Daten. Das führt zu einem grundlegenden Spannungsverhältnis mit den Betroffenenrechten nach der DSGVO.
Die wichtigsten Betroffenenrechte nach DSGVO
- Recht auf Auskunft (Art. 15) – Betroffene dürfen erfahren, welche Daten über sie verarbeitet werden
- Recht auf Berichtigung (Art. 16) – falsche personenbezogene Daten müssen korrigiert werden
- Recht auf Löschung („Recht auf Vergessenwerden“, Art. 17) – Daten müssen auf Wunsch gelöscht werden – unter bestimmten Bedingungen.
- Recht auf Einschränkung der Verarbeitung (Art. 18) – temporäres „Einfrieren“ der Nutzung personenbezogener Daten
- Recht auf Datenübertragbarkeit (Art. 20) – Übermittlung der eigenen Daten an einen anderen Anbieter
- Widerspruchsrecht (Art. 21) Verarbeitung kann aus persönlichen Gründen untersagt werden.
Praxisfall: noyb vs. OpenAI (2023/2024)
Die österreichische Datenschutzorganisation noyb, gegründet von Max Schrems, hat am 29. April 2024 eine Beschwerde gegen OpenAI bei der österreichischen Datenschutzbehörde eingereicht. Der Vorwurf lautet, dass der KI-gestützte Chatbot ChatGPT falsche personenbezogene Daten generiert und verbreitet, was einen Verstoß gegen die Datenschutz-Grundverordnung (DSGVO) darstellt.
Konkret geht es um den Fall einer öffentlichen Person, deren Geburtsdatum von ChatGPT wiederholt falsch angegeben wurde. Trotz Anfragen zur Berichtigung oder Löschung dieser falschen Informationen erklärte OpenAI, dass eine Korrektur technisch nicht möglich sei. Das Unternehmen konnte zudem keine Auskunft über die Herkunft oder Verarbeitung der Daten geben.
noyb argumentiert, dass gemäß Art. 5 Abs. 1 lit. d DSGVO personenbezogene Daten sachlich richtig sein müssen. Zudem haben Betroffene das Recht auf Berichtigung (Art. 16 DSGVO) und Auskunft (Art. 15 DSGVO) über ihre gespeicherten Daten. Die Weigerung von OpenAI, diesen Rechten nachzukommen, wird daher als Verstoß gegen die DSGVO angesehen.
Diese erste Beschwerde bei der österreichischen Datenschutzbehörde verdeutlicht die Synchronisierungsschwierigkeiten zwischen DSGVO und generativen KI-Applikationen:
- § Unvorhersehbare Inhalte (Halluzination): Generative KI „erfindet“ Inhalte auf Grundlage von Wahrscheinlichkeiten. Es gibt keine garantierte Datenwahrheit. Aussagen über reale Personen können frei erfunden, veraltet oder verzerrt sein.
- Keine Trennung von Daten und Modell: Trainingsdaten werden in abstrakte Parameter übersetzt – man kann nicht mehr nachvollziehen, welche Info aus welcher Quelle stammt. Selbst wenn Trainingsdaten gelöscht werden, kann das Wissen implizit im Modell verbleiben.
- Keine gezielte Löschung oder Korrektur möglich: Anders als in klassischen Datenbanken kann man nicht sagen: „Ändere den Eintrag zu Max Schrems“. Das führt zu einem faktischen Widerspruch zwischen Technik und Recht.
Diverse Datenschutzbeschwerden im Zusammenhang mit generativer KI sind derzeit in Europa anhängig. Entscheidungen liegen noch nicht vor.
Datentransfer in Drittstaaten – DSGVO und generative KI
Generative KI-Modelle – z. B. GPT, DALL·E, Claude, Gemini – werden meist von nicht-europäischen Unternehmen (v. a. aus den USA) bereitgestellt. Wenn personenbezogene Daten bei der Nutzung solcher Tools verarbeitet werden, besteht also potenziell ein Datentransfer in ein sogenanntes Drittland.
Ein Drittstaat ist jeder Staat außerhalb des Europäischen Wirtschaftsraums (EWR), bspw. USA, China, Indien, Australien, Schweiz.
Es gibt dazu DSGVO-Vorgaben für Drittstaatentransfers (Art. 44 ff. DSGVO). Ein Transfer personenbezogener Daten in ein Drittland ist nur zulässig, wenn ein angemessenes Datenschutzniveau vorliegt (Adequacy Decision der EU-Kommission), z. B. Japan, Kanada, Israel, neuerdings wieder eingeschränkt sind die USA (unter Bedingungen), oder wenn geeignete Garantien vereinbart wurden, z. B. Standardvertragsklauseln, Binding Corporate Rules oder Einzelfallgenehmigung durch Aufsichtsbehörde.
Sonderfall USA – Das EU–US Data Privacy Framework (DPF)
Die Vereinigten Staaten stellen aus Sicht der DSGVO einen sogenannten „Drittstaat“ dar. Ein Datentransfer in die USA ist daher nur unter bestimmten Bedingungen zulässig, da dort kein automatisch als gleichwertig anerkannter Datenschutzstandard wie in der EU gilt.
In der Vergangenheit hatte die Europäische Union versucht, Datentransfers in die USA über spezielle Abkommen zu regeln. Zwei dieser Abkommen sind jedoch bereits durch Urteile des Europäischen Gerichtshofs (EuGH) für unzulässig erklärt worden:
§ Das „Safe Harbor“-Abkommen wurde im Jahr 2015 im Rahmen des sogenannten „Schrems-I-Urteils“ gekippt.
§ Das Nachfolgeabkommen Privacy Shield wurde 2020 im „Schrems-II-Urteil“ ebenfalls für ungültig erklärt.
Beide Urteile begründete der EuGH insbesondere damit, dass US-Behörden – vor allem Geheimdienste – zu weitreichenden Zugriff auf personenbezogene Daten europäischer Bürger haben, ohne dass diesen Personen ausreichende Rechtsmittel zur Verfügung stehen, um sich zu schützen.
Als Reaktion auf diese Problematik wurde 2023 das neue EU-US Data Privacy Framework (DPF) eingeführt. Dieses soll als Nachfolger des Privacy Shield die datenschutzrechtliche Grundlage für Datenübermittlungen in die USA wiederherstellen. Es sieht vor, dass sich US-Unternehmen freiwillig verpflichten, ein der DSGVO vergleichbares Datenschutzniveau einzuhalten.
Diese Selbstverpflichtung geschieht durch eine Zertifizierung beim US-Handelsministerium, wobei sich das Unternehmen auf eine spezielle Liste eintragen lassen muss – die sogenannte DPF-Teilnehmerliste. Nur wenn ein US-Anbieter auf dieser Liste steht, gilt der Datentransfer in die USA an ihn aus Sicht der EU als zulässig und bedarf keiner zusätzlichen Maßnahmen wie etwa Standardvertragsklauseln oder Transfer-Folgenabschätzungen.
Die Liste der zertifizierten Unternehmen ist öffentlich zugänglich unter.
Wenn ein KI-Dienstleister – beispielsweise OpenAI oder ein anderer Anbieter – nicht auf dieser Liste verzeichnet ist, dann reicht das Data Privacy Framework alleine nicht aus, um eine DSGVO-konforme Datenübermittlung in die USA zu rechtfertigen. In diesem Fall müssen weitere Schutzmaßnahmen getroffen werden, wie etwa die Vereinbarung von Standardvertragsklauseln, die Durchführung eines sogenannten Transfer Impact Assessment (TIA) und entsprechende technische organisatorische Maßnahmen.
Risiken bei Nichtbeachtung
- Kein angemessener Transfermechanismus: Bußgelder bis zu 20 Mio. € oder 4 % des Jahresumsatzes
- Beschwerde durch Betroffene: Prüfverfahren durch Aufsichtsbehörden
- Reputationsschaden: Vertrauensverlust bei Kunden, Öffentlichkeit
Praktische Empfehlungen für Organisationen im Umgang mit generativer KI und DSGVO
Der Einsatz von KI-Technologien – insbesondere generativer KI – stellt Organisationen vor neue rechtliche, technische und organisatorische Herausforderungen. Um datenschutzrechtlich auf der sicheren Seite zu stehen und gleichzeitig innovationsfähig zu bleiben, empfiehlt es sich, die folgenden Maßnahmen in der Praxis zu berücksichtigen:
1 Entwicklung einer internen KI-FAQ oder Guideline
Organisationen, die regelmäßig mit KI-Tools arbeiten, sollten ein praxisnahes internes Dokument bereitstellen, das typische Fragen und Unsicherheiten im Zusammenhang mit Datenschutz, Datennutzung und KI beantwortet. Eine solche FAQ oder Handlungsanleitung kann helfen, Missverständnisse zu vermeiden und eine datenschutzkonforme Nutzung zu fördern. Inhaltlich sollte sie unter anderem folgende Fragen klären:
- Welche Tools wurden datenschutzrechtlich geprüft und dürfen verwendet werden?
- Welche Tools dürfen nicht verwendet werden?
- Welche Arten von Daten dürfen in das KI-Tool eingegeben bzw. nicht eigegeben werden?
- Welche personenbezogene Daten dürfen bzw. dürfen nicht verwendet werden?
- Was ist beim Umgang mit dem generierten Output zu beachten?
2 Verarbeitungsverzeichnis aktualisieren
Gemäß Artikel 30 DSGVO müssen alle datenverarbeitenden Aktivitäten in einem sogenannten Verzeichnis von Verarbeitungstätigkeiten dokumentiert sein. Dies gilt selbstverständlich auch für den Einsatz von KI-Tools, selbst wenn diese lediglich zur Textoptimierung oder automatisierten Bilderzeugung genutzt werden. Jede neue KI-Anwendung sollte daher sorgfältig im Verzeichnis erfasst werden, inklusive:
- Zweck der Verarbeitung
- Kategorien betroffener Personen und Daten
- Empfänger:innen der Daten
- Rechtsgrundlage
- Löschfristen
- Maßnahmen zur Sicherheit der Verarbeitung
3 Datenschutzerklärung überprüfen und ggf. anpassen
Wenn personenbezogene Daten über ein KI-System verarbeitet werden sollen – etwa zur Verbesserung von Produkten, zur Personalisierung von Inhalten oder zur Entwicklung eigener KI-Modelle – muss dies in der Datenschutzerklärung transparent dargestellt werden.
Die Erklärung sollte:
- den konkreten Verarbeitungszweck nennen (z. B. „Nutzung von Kund:innendaten zur KI-gestützten Analyse von Nutzer:innenverhalten“),
- die Rechtsgrundlage benennen (z. B. Einwilligung oder berechtigtes Interesse),
- betroffene Personengruppen und Datenarten beschreiben,
- und auf etwaige Übermittlungen an Drittstaaten hinweisen.
4 Einwilligungen aktiv einholen, wo nötig
In Fällen, in denen kein anderer legitimer Rechtsgrund vorliegt – etwa bei der Nutzung von Bestandskundendaten für neue KI-basierte Marketinganalysen, wenn nicht vom Zweck der ursprünglichen Zweckerhebung umfasst – ist eine ausdrückliche Einwilligung der betroffenen Personen einzuholen.
Diese Einwilligung muss:
- freiwillig,
- informiert,
- spezifisch
- und widerruflich
erfolgen. Bereits vorliegende Einwilligungen sind auf ihren Umfang und ihre Formulierung hin zu überprüfen, um sicherzustellen, dass sie den neuen Verwendungszweck abdecken.
5 Datenschutzfolgenabschätzung (DSFA / DPIA) durchführen
Der Einsatz von KI – insbesondere in Bereichen wie Profiling, automatisierte Entscheidungen, Verhaltensvorhersagen oder Emotionserkennung – kann ein hohes Risiko für die Rechte und Freiheiten von Betroffenen darstellen. In diesen Fällen ist eine Datenschutzfolgenabschätzung nach Art. 35 DSGVO verpflichtend.
Diese umfasst:
- eine Beschreibung der geplanten Verarbeitung,
- eine Bewertung der Notwendigkeit und Verhältnismäßigkeit,
- eine Risikoanalyse für die Betroffenen,
- und die geplanten Abhilfemaßnahmen (technisch & organisatorisch).
6 Technische und organisatorische Sicherheitsmaßnahmen anpassen
KI-Systeme erfordern häufig eine zusätzliche Prüfung und ggf. Erweiterung bestehender Sicherheitsmaßnahmen. Die folgenden Aspekte sollten besonders beachtet werden:
- Zugriffsbeschränkungen auf sensible Trainingsdaten
- Pseudonymisierung oder Anonymisierung vor dem Training
- Audit-Logs und Nachvollziehbarkeit von Verarbeitungsschritten
- Löschroutinen für Daten, die nicht mehr benötigt werden
- Sicherstellung der DSGVO-Konformität von Drittanbietern (z. B. Cloud-Dienste)
7 Anbieter:innen und Datenflüsse prüfen
Da viele KI-Tools von Anbietern außerhalb der EU stammen, sollten Organisationen unbedingt prüfen:
- Wer ist die:der Anbieter:innen?
- Wo befinden sich die Server?
- Ist ein der DSGVO vergleichbares Datenschutzniveau gegeben?
- Ist die:der Anbieter:in Teil des EU-US Data Privacy Frameworks?
- Finden Übermittlungen in Drittländer statt?
- Welche Maßnahmen wurden für die Drittstaatentransfers getroffen?
Fazit
Der rechtskonforme Einsatz generativer KI in Unternehmen erfordert eine klare interne Struktur, transparente Kommunikation, sowie technische und organisatorische Vorbereitung. Datenschutz darf dabei nicht als Innovationshemmnis, sondern muss als integraler Bestandteil verantwortungsvoller KI-Nutzung verstanden werden.