KI-Compliance in der EU: Vorbereitung auf die EU-Gesetze zu KI und Datenlokalisation
- By Gcore
- November 20, 2024
- 5 min read

Die rasche Entwicklung der KI hat viele Behörden dazu veranlasst, sich um die rasche Ausarbeitung eines Regulierungsrahmens zu bemühen, der alle potenziellen Anwendungen und die für den Betrieb erforderlichen Daten berücksichtigt. Die Europäische Union hat das KI-Gesetz erlassen, um strenge ethische Richtlinien für den Einsatz von KI festzulegen. Während sich sowohl die Industrie als auch die Regierungen mit den Chancen und Herausforderungen von KI befassen, wird ein sehr starkes Regulierungssystem immer wichtiger. Das Gesetz zielt darauf ab, KI-Risiken zu reduzieren und gleichzeitig Innovationen voranzutreiben und Grundrechte zu schützen. Die Unternehmen müssen diese Regeln verstehen, wenn sie sich an die sich ändernden Bedingungen anpassen.
In diesem Artikel werfen wir einen genaueren Blick auf die wichtigsten Vorschriften, erläutern ihre Auswirkungen und schlagen umsetzbare Maßnahmen vor, die Unternehmen ergreifen können, um die Vorschriften einzuhalten, ohne die Innovation im Bereich KI zu behindern.
Was versteht man unter dem KI-Gesetz der EU?
Die EU hat mit ihrem Regelwerk eine strikte Haltung eingenommen. Das KI-Gesetz der EU wurde 2024 ausgearbeitet und wird 2026 wirksam. Diese Lücke gibt den Regierungen, Unternehmen und anderen Einrichtungen Zeit, sich auf die Umsetzung vorzubereiten. Es ist auch möglich, dass das Gesetz vor seiner vollständigen Umsetzung weiterentwickelt wird, da einige Bestimmungen noch nicht endgültig festgelegt sind.
Der neue Gesetzesentwurf wird die DSGVO ergänzen, die bereits erheblichen Handlungsdruck auf Unternehmen ausübt, die personenbezogene Daten verarbeiten. Das Gesetz richtet sich in erster Linie an Anbieter (Entwickler) von KI-Systemen mit hohem Risikopotenzial, insbesondere an solche, die solche Systeme in der EU in Verkehr bringen oder nutzen wollen. Diese Verpflichtung erstreckt sich auch auf Drittlandanbieter, wenn deren Systeme in der EU genutzt werden. Die Nutzer (Anwender) dieser Systeme sind ebenfalls in der Verantwortung, allerdings in geringerem Maße als die Anbieter.
Dieser Rahmen spiegelt die wachsende Erkenntnis wider, dass die weit verbreitete Einführung von KI von soliden Regulierungsmaßnahmen begleitet werden muss, um potenzielle Risiken zu mindern, ohne den technologischen Fortschritt zu behindern. Tatsächlich wird der globale KI-Markt im Jahr 2024 einen voraussichtlichen Wert von 184 Milliarden US-Dollar erreichen, mit einer prognostizierten jährlichen Wachstumsrate von fast 30 %. Das KI-Gesetz soll diese Expansion verantwortungsvoll steuern und sicherstellen, dass sowohl Innovation als auch öffentliche Sicherheit Vorrang haben.
Das KI-Gesetz kategorisiert Systeme in drei Stufen: unannehmbares Risiko, hohes Risiko und geringes oder minimales Risiko. Werfen wir einen genaueren Blick darauf.
Unzumutbares Risiko
KI-Systeme, die eine Gefahr für die Sicherheit oder die Grundrechte der Menschen darstellen, werden verboten. Zu diesen verbotene Systemen gehören Technologien, die für Social Scoring eingesetzt werden, manipulative KI, die darauf ausgelegt ist, das Verhalten zu verzerren, wahllose staatliche Überwachung und Systeme, die Schwachstellen aufgrund von Alter, Behinderung oder sozioökonomischem Status ausnutzen.
Hohes Risiko
Alle KI-Anwendungen, die die Rechte oder die Sicherheit von Personen erheblich beeinträchtigen können, fallen in diese Kategorie. Anbieter von Produkten, die KI-Systeme mit hohem Risiko verwenden, sind dafür verantwortlich, ein geeignetes Risikomanagementsystem einzurichten, die Anforderungen an die Datenverwaltung zu erfüllen, eine Compliance-Dokumentation bereitzustellen, eine menschliche Aufsicht zu ermöglichen und ein angemessenes Maß an Genauigkeit und Cybersicherheit zu erreichen.
Das KI-Gesetz enthält eine Liste mit einer Reihe von Anwendungen mit hohem Risiko, darunter biometrische Identifizierung, KI für kritische Infrastrukturdienste, Bildungsanwendungen, Einstellungs- und Leistungsbewertungsinstrumente, Eignungsprüfung für den öffentlichen Dienst und Strafverfolgungssysteme zur Risikobewertung kriminellen Verhaltens. Ein hohes Risiko besteht auch bei allen KI-Anwendungen, die sich erheblich auf die Rechte oder die Sicherheit von Personen auswirken können.
Geringes oder minimales Risiko
Allzweck-KI-Systeme mit minimalem Schadenspotenzial, wie Chatbots, werden weniger strengen regulatorischen Anforderungen unterliegen, auch wenn einige grundlegende Compliance-Verpflichtungen weiterhin gelten können. Das Gesetz legtspezifische Anforderungen für Allzweck-KI-Modelle fest und schreibt vor, dass Anbieter technische Dokumentationen erstellen und Informationen über die für das Training verwendeten Inhalte offenlegen müssen. Diejenigen, die systemische Risiken darstellen, müssen Modellbewertungen durchlaufen, schwerwiegende Vorfälle rückverfolgen und sicherstellen, dass robuste Cybersicherheitsmaßnahmen vorhanden sind.
DSGVO und KI: Herausforderungen für den Datenschutz
Seit der Einführung im Jahr 2018 hat sich die Datenschutz-Grundverordnung schnell zu einem Maßstab im Bereich des Datenschutzes innerhalb der EU und darüber hinaus entwickelt. Die Verordnung legt fest, wie Unternehmen personenbezogene Daten erheben, verarbeiten und speichern, und ihre Einhaltung ist für Entwickler von KI-Systemen von entscheidender Bedeutung. Die Nichteinhaltung kann erhebliche finanzielle Strafen und einen Reputationsverlust nach sich ziehen.
Im Mittelpunkt der DSGVO steht der Grundsatz der Datenminimierung. Das Prinzip besagt, dass die Menge der von einem Unternehmen gesammelten Daten nicht größer sein sollte als für bestimmte Zwecke erforderlich. Dies ist eine ziemlich anspruchsvolle Aufgabe für die KI, wenn man bedenkt, dass groß angelegte Datensätze im Allgemeinen für ein angemessenes maschinelles Lernen von entscheidender Bedeutung sind. Unternehmen müssen sich bewusst dafür entscheiden, so wenig personenbezogene Daten wie möglich zu erheben und mehr Wert auf Anonymisierung und Pseudonymisierung zu legen, um die Daten der Nutzer zu schützen und rechtliche Konsequenzen zu minimieren.
Ein weiterer wichtiger Aspekt der DSGVO ist das „Recht auf Vergessenwerden“. Es stellt sicher, dass Einzelpersonen um jeden Preis die Löschung personenbezogener Daten verlangen können, einschließlich solcher, die möglicherweise zur Schulung von KI-Modellen verwendet wurden. Dies stellt eine Herausforderung für KI-Entwickler dar: Daten müssen nicht nur aus aktiven Datenbanken, sondern auch aus den Sicherungssystemen gelöscht werden. Da die Zahl der Anfragen zur Datenlöschung zunimmt, wird diese Anforderung noch komplexer, insbesondere bei Altsystemen, die keine einfache Datenlöschung ermöglichen.
Unternehmen sollten darauf vorbereitet sein, verschiedene Anfragen von Einzelpersonen zu bearbeiten in Bezug auf Datenzugriff, Datenkorrektur sowie Einwände gegen Datenverarbeitung. Noch komplizierter wird es, wenn das KI-System eine verteilte Datenverarbeitung verwendet. Alles muss transparent sein und die Benutzer müssen Klarheit darüber haben, wie ihre Daten die KI-Entscheidungen beeinflussen.
Die globalen Auswirkungen der DSGVO
Die DSGVO regelt zwar nicht ausdrücklich die Übermittlung personenbezogener Daten außerhalb der EU, stellt jedoch strenge Bedingungen an dieVerarbeitung und Übermittlung. Dies ist besonders wichtig für global agierende Unternehmen. Sie müssen angemessene Sicherheitsvorkehrungen für Datenübertragungen treffen. Das Urteil von 2020 in der Rechtssache Schrems II erschwerte die Datenübertragung in die Vereinigten Staaten, was zu einer genaueren Prüfung und einer Neubewertung der Übertragungsstrategien führte.
Während die DSGVO heute nur ein wichtiger Maßstab für KI-Unternehmen in der EU ist, werden ihre Grundsätze weltweit schnell zur Norm. Unternehmen müssen nicht nur die jeweils geltenden Vorschriften kennen, sondern auch zukünftige Änderungen, die sich auf ihre Geschäftstätigkeit auswirken könnten. Die Integration von Datenschutz und Sicherheit in die Gestaltung von KI-Systemen schafft Vertrauen und minimiert das Risiko zukünftiger Bußgelder aufgrund möglicher Verstöße. Die Nichteinhaltung dieser Vorschriften wird mit erheblichen Strafen geahndet: Die Geldbußen können bis zu 10 Millionen Euro oder 2 % des weltweiten Umsatzes betragen.
Nationale Unterschiede bei KI-Vorschriften
Während das EU-KI-Gesetz darauf abzielt, die KI-Vorschriften in ganz Europa zu vereinheitlichen, können einzelne Mitgliedstaaten ihre eigenen Richtlinien einführen. Deutschland ist dabei eines der proaktivsten Länder. Die Datenschutzkonferenz (DSK) in Deutschland gab spezifische Leitlinien heraus, die sich auf Large Language Models (LLMs) und andere KI-Systeme konzentrieren. Diese Regeln sind strenger als der EU-weite Rahmen und betonen die Einhaltung der DSGVO, insbesondere in Bezug auf Datenschutz und Transparenz.
Die deutsche KI-Richtlinie verlangt, dass Unternehmen, die KI zur Verarbeitung personenbezogener Daten einsetzen, insbesondere in sensiblen Bereichen wie Gesundheit und Personalwesen, die gesetzlichen Anforderungen einhalten und Transparenz bieten müssen. Die Benutzer müssen das Recht haben, die Datennutzung nachzuverfolgen und die Verwendung ihrer personenbezogenen Daten für das KI-Training abzulehnen. Automatisierte Entscheidungen, die sich erheblich auf Einzelpersonen auswirken, müssen von Menschen überwacht werden, um Verstöße gegen DSGVO-Artikel 22 zu vermeiden. Unternehmen müssen außerdem Datenschutz-Folgenabschätzungen durchführen und Datenschutzbeauftragte hinzuziehen, um sicherzustellen, dass KI-Systeme korrekt, nachvollziehbar und neutral sind.
Für Unternehmen, die in mehreren EU-Ländern tätig sind, bedeuten diese nationalen Unterschiede, dass die Einhaltung der Vorschriften einen maßgeschneiderten Ansatz erfordert. Deutschlands Fokus auf Datenschutz und Regulierung zeigt, dass Unternehmen wachsam bleiben und Rechtsexperten konsultieren müssen, um sich in den EU-weiten und länderspezifischen KI-Vorschriften zurechtzufinden.
Gcore macht aus Compliance-Herausforderungen Chancen
Auch wenn die Einhaltung des KI-Gesetzes und der DSGVO zunächst überwältigend erscheinen mag, bringen sie für ein Unternehmen auch etwas Wertvolleres mit sich: die Chance, bei Transparenz, Fairness und Ethik im Rahmen von KI-Systemen eine Vorreiterrolle einzunehmen und sich gleichzeitig zu einem Vorreiter für verantwortungsvolle KI-Innovationen zu entwickeln. Die Einhaltung der strengen EU-Vorschriften könnte zu einem Wettbewerbsvorteil werden und Verbrauchern und Partnern signalisieren, dass das Unternehmen ethischen und sicheren KI-Systemen Priorität einräumt.
Unternehmen können den Compliance-Prozess vereinfachen, indem sie mit Dienstleistern zusammenarbeiten, die maßgeschneiderte Lösungen für das KI-Datenmanagement anbieten. Gcore bietet beispielsweise eine Reihe von Cloud-Lösungen an, die Unternehmen dabei unterstützt, sich nahtlos im komplexen EU-Regulierungsumfeld zurechtzufinden, auch im Bereich KI. Durch die Nutzung lokaler Rechenzentren, die von Gcore bereitgestellt werden, können Unternehmen ihre Daten innerhalb der EU speichern und dabei die DSGVO und das kommende EU-KI-Gesetz einhalten. Für weltweit tätige Unternehmen macht die Präsenz von Gcore in über 95 Ländern die Einhaltung von Vorschriften einfach. Wir erzählen Ihnen gerne mehr dazu.
Related Articles
Subscribe
to our newsletter
Get the latest industry trends, exclusive insights, and Gcore updates delivered straight to your inbox.