Zum Hauptinhalt springen Skip to page footer

EU AI Act, DSGVO, NIS2: Was IT-Leiter jetzt konkret tun müssen

Spätestens 2026 ist klar: KI ist kein Experiment mehr, sondern Teil der kritischen IT-Infrastruktur. Doch mit ihr kommen neue Pflichten – von Transparenz über Logging bis hin zu Lieferkettenrisiken. Dieser Artikel zeigt, welche Anforderungen wirklich gelten und welche konkreten Schritte IT-Leiter jetzt gehen müssen.

Ein Man mit einem Laptop in der Hand, vor einem digitalem Gehirn.

Drei Regelwerke, ein Befund: Die Hosting-Entscheidung ist keine IT-Frage mehr.

 

Compliance als Infrastrukturfrage

Im ersten Artikel dieser Serie haben wir die strategische Ausgangslage beschrieben: KI ist im Mittelstand zur kritischen Infrastruktur geworden, und die Hosting-Entscheidung hat sich damit von einer technischen Beschaffungsfrage zu einer Governance-Entscheidung entwickelt. In diesem zweiten Artikel werden wir konkreter. Wir schauen uns an, welche regulatorischen Anforderungen heute tatsächlich gelten, was sie für den Betrieb von KI-Systemen bedeuten, und welche praktischen Handlungsfelder sich daraus ergeben.

Vorab eine wichtige Einschätzung: Die Regulatorik rund um KI ist nicht dazu da, Innovation zu verhindern. Sie ist dazu da, einen verlässlichen Rahmen zu schaffen, in dem KI-Systeme vertrauenswürdig, sicher und fair betrieben werden. Wer das versteht, erkennt in den Anforderungen nicht nur Pflichten, sondern auch einen Kompass für bessere Architekturentscheidungen.

Drei Regelwerke prägen den Rahmen besonders stark: der EU AI Act, die DSGVO in ihrer KI-spezifischen Auslegung und die NIS2-Richtlinie. Sie überlappen sich in Teilen, verstärken sich gegenseitig und erzeugen gemeinsam ein Anforderungsprofil, das direkte Konsequenzen für die Frage hat, wo und wie KI-Systeme im Mittelstand gehostet werden dürfen und sollen.


Dieser Artikel ist keine Rechtsberatung. Er bietet eine technisch-organisatorische Orientierung für IT-Verantwortliche und Entscheider. Für verbindliche rechtliche Einschätzungen empfehlen wir die Hinzuziehung spezialisierter Rechtsberater.


 

1. Der EU AI Act: Was gilt ab wann und für wen?

Der EU AI Act (Verordnung EU 2024/1689) ist das weltweit erste umfassende Regelwerk für Künstliche Intelligenz. Er verfolgt einen risikobasierten Ansatz: Je höher das Risiko eines KI-Systems für Grundrechte, Sicherheit oder gesellschaftliche Prozesse eingestuft wird, desto strenger sind die Anforderungen. Für mittelständische Unternehmen ist entscheidend, die eigene Rolle im Regelwerk zu verstehen – und was das für die Infrastruktur bedeutet.

1.1 Der Zeitplan: Was gilt bereits, was kommt noch?

Der AI Act wird schrittweise wirksam. Für das Jahr 2026 sind folgende Meilensteine relevant:

 

DatumWas gilt ab dann?
02.02.2025Definitionen, verbotene KI-Praktiken (Art. 5), AI-Literacy-Pflicht (Art. 4)
02.08.2025Pflichten für Anbieter von General-Purpose AI (GPAI), Governance-Strukturen
02.08.2026Hochrisiko-KI (Annex III), Transparenzpflichten Art. 50, Enforcement startet
02.08.2027Hochrisiko-KI in regulierten Produkten (z.B. Medizinprodukte, Fahrzeuge)

 

Für die meisten mittelständischen Unternehmen ist der August 2026 der entscheidende Stichtag: Ab dann gilt der große Teil der Anforderungen für Hochrisiko-KI-Systeme, und Aufsichtsbehörden können Verstöße sanktionieren.

1.2 Die Rollenklärung: Wer sind Sie nach AI Act?

Eine der häufigsten Fehlerquellen in der Vorbereitung auf den AI Act ist das Übersehen der Rollenklärung. Das Regelwerk unterscheidet verschiedene Akteure – und jeder hat unterschiedliche Pflichten. Für KI-Hosting-Entscheidungen sind drei Rollen besonders relevant:

  • Anbieter (Provider): Wer ein KI-System entwickelt oder entwickeln lässt und es unter eigenem Namen oder eigener Marke auf dem Markt bereitstellt oder in Betrieb nimmt. Das betrifft Unternehmen, die KI-Produkte an Kunden verkaufen oder lizenzieren – auch intern entwickelte Tools, die extern eingesetzt werden.
  • Betreiber (Deployer): Wer ein KI-System im Rahmen beruflicher Tätigkeit nutzt – also der typische Mittelständler, der ChatGPT, Copilot oder ein anderes KI-Werkzeug intern einsetzt. Als Deployer sind die Pflichten geringer als als Anbieter, aber nicht trivial.
  • Importeur / Bevollmächtigter: Relevant für Unternehmen, die KI-Systeme von außerhalb der EU einsetzen oder vertreiben. In solchen Fällen können zusätzliche Pflichten entstehen, die in der Praxis oft übersehen werden.

Praxishinweis: Erstellen Sie für jeden produktiven KI-Use-Case eine explizite Rollenzuordnung, bevor Sie Infrastrukturentscheidungen treffen. Die Rolle bestimmt, welche Dokumentations-, Logging- und Transparenzpflichten Sie erfüllen müssen – und damit, welche Anforderungen Ihre Hosting-Infrastruktur erfüllen muss.


1.3 Hochrisiko-KI: Bin ich betroffen?

Die strengsten Anforderungen des AI Act gelten für sogenannte Hochrisiko-KI-Systeme. Diese sind in Annex III der Verordnung aufgelistet. Für den Mittelstand besonders relevant sind:

  • KI-Systeme in der Personalverwaltung und -rekrutierung (z.B. automatisiertes Screening von Bewerbungen, Leistungsbewertung)
  • KI-Systeme für den Zugang zu wesentlichen privaten und öffentlichen Dienstleistungen (z.B. Kreditwürdigkeitsprüfung, Versicherungseinstufung)
  • KI-Systeme in der Strafverfolgung, Grenzkontrolle und Justiz – relevant für Zulieferer dieser Sektoren
  • KI-Systeme für kritische Infrastruktur (Energie, Wasser, Verkehr) – relevant für Betreiber und Zulieferer
  • KI-Systeme im Bildungsbereich (z.B. automatisierte Prüfungsbewertung, Zugangsentscheidungen)

 

Wer als Hochrisiko-KI eingestufte Systeme betreibt, muss unter anderem nachweisen: ein funktionierendes Risikomanagementsystem, Datenverwaltungs- und Governance-Praktiken, technische Dokumentation, automatische Protokollierung (Logging), Transparenz gegenüber Nutzern, menschliche Aufsichtsmechanismen sowie Genauigkeits- und Robustheitsnachweise.

Diese Anforderungen sind keine Bürokratieübung. Sie sind architektonische Anforderungen: Ein KI-System, das keine Logs produziert, das keine Versionierung seiner Modelle kennt, das keine Zugriffskontrollen auf Eingabedaten hat, kann diese Pflichten nicht erfüllen. Die Hosting-Infrastruktur muss diese Fähigkeiten technisch unterstützen.

1.4 Transparenzpflichten nach Artikel 50 – oft unterschätzt

Auch wer keine Hochrisiko-KI betreibt, ist nicht pflichtenfrei. Artikel 50 des AI Act verpflichtet Betreiber von KI-Systemen, die mit natürlichen Personen interagieren, zur Offenlegung: Nutzer müssen wissen, dass sie mit einem KI-System kommunizieren – es sei denn, das ist offensichtlich.

Für Unternehmen mit KI-gestütztem Kundensupport, internen Assistenzsystemen oder automatisierten Kommunikationstools bedeutet das: Kennzeichnungspflichten, transparente Nutzungsbedingungen und in manchen Fällen erweiterte Auskunftsrechte. Auch das ist eine Anforderung, die sich in der Systemarchitektur niederschlägt – und die leichter nachweisbar ist, wenn Infrastruktur und Logging in einer kontrollierten Umgebung liegen.


Merksatz: Der EU AI Act ist kein Papiertiger. Die Bußgelder können bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes betragen – je nachdem, welcher Wert höher ist. Auch Deployer, also Anwenderunternehmen, können sanktioniert werden.


 

2. DSGVO: Die KI-Linse, die vielen noch fehlt

Die DSGVO ist vielen Unternehmen vertraut – als Rahmen für Kundendaten, Newsletter und Cookie-Banner. Was viele noch nicht vollständig durchdrungen haben: Wie die DSGVO auf KI-Systeme wirkt und welche spezifischen Anforderungen sich daraus für das Hosting ergeben.

Die Datenschutzkonferenz (DSK), das Gremium der deutschen Datenschutzbehörden, hat dies in mehreren Orientierungshilfen präzisiert – zur KI und zum Datenschutz allgemein (Mai 2024) sowie spezifisch zu RAG-Systemen (Oktober 2025). Diese Dokumente sind keine unverbindlichen Empfehlungen. Sie sind der Maßstab, nach dem deutsche Aufsichtsbehörden urteilen.

2.1 Wo DSGVO-Pflichten bei KI oft übersehen werden

Die DSGVO wird bei KI-Systemen an Stellen wirksam, die auf den ersten Blick nicht offensichtlich sind:

  • Prompts und Chatverläufe: Jede Anfrage eines Mitarbeiters an ein internes KI-System kann personenbezogene Daten enthalten – über Kunden, Kollegen, Vertragspartner. Diese Daten werden verarbeitet, geloggt und möglicherweise für Modell-Verbesserungen genutzt. Wer genehmigt das? Auf welcher Rechtsgrundlage?
  • Vektorindizes in RAG-Systemen: Wenn Unternehmensdokumente für ein RAG-System indexiert werden, entstehen Vektoren – mathematische Repräsentation von Textinhalten. Diese Vektoren können personenbezogene Informationen repräsentieren. Das Löschrecht (Art. 17 DSGVO) muss auch für den Index gelten: Wenn ein Dokument gelöscht werden muss, muss das auch den Vektorindex betreffen.
  • Trainingsdaten und Fine-Tuning: Wer Modelle mit internen Daten feinabstimmt, verarbeitet diese Daten im Rahmen des Trainings. Das erfordert eine Rechtsgrundlage, eine Zweckbindung und technische Maßnahmen, die sicherstellen, dass Trainingsdaten nicht unkontrolliert im Modell 'gespeichert' bleiben (Stichwort: Membership Inference).
  • Logging und Telemetriedaten: Produktive KI-Systeme erzeugen große Mengen an Logs und Telemetriedaten. Wenn diese Daten Informationen über Nutzer oder deren Verhalten enthalten, sind sie personenbezogen – und unterliegen Löschfristen, Zugriffskontrollen und Verarbeitungszwecken.

 

2.2 Auftragsverarbeitung: Der AVV, der tatsächlich passt

Wer KI-Workloads bei einem externen Anbieter hosten lässt, ist in der Regel in einer Auftragsverarbeitungsbeziehung nach Artikel 28 DSGVO. Das bedeutet: Es braucht einen Auftragsverarbeitungsvertrag (AVV) – und zwar einen, der die spezifischen KI-Verarbeitungen tatsächlich abdeckt.

Ein Standard-Cloud-AVV für allgemeine Infrastrukturleistungen genügt dabei oft nicht. Ein vollständiger AVV für KI-Hosting muss mindestens folgendes adressieren:

  • Gegenstand und Zweck: Welche KI-Workloads werden verarbeitet? Training, Inferenz, RAG, Logging?
  • Kategorien von Daten und betroffenen Personen: Kunden, Mitarbeiter, Dritte?
  • Subunternehmerliste: Alle Sub-Auftragsverarbeiter müssen benannt und genehmigt sein – inklusive Rechenzentrum-Betreiber, GPU-Hardware-Hersteller (wenn relevant), Netzwerk-Anbieter
  • Datenlösch- und Rückgabepflichten: Was passiert mit Daten, Modellen und Logs am Ende der Laufzeit?
  • Unterstützung bei Betroffenenrechten: Wie unterstützt der Anbieter bei Auskunfts-, Löschungs- und Berichtigungsanfragen?
  • Unterstützung bei Sicherheitsvorfällen: Meldepflichten, Forensikunterstützung, Benachrichtigungsfristen

Wichtig: Die 72-Stunden-Frist für die Meldung von Datenpannen an die Aufsichtsbehörde (Art. 33 DSGVO) gilt auch bei KI-Vorfällen. Wenn ein Hosting-Anbieter nicht vertraglich verpflichtet ist, Sie innerhalb von 24 Stunden zu informieren, können Sie diese Frist nicht einhalten.


2.3 Datenschutz-Folgenabschätzung: Wann sie ausgelöst wird

Die Datenschutz-Folgenabschätzung (DSFA) nach Artikel 35 DSGVO ist für viele KI-Anwendungen Pflicht – nicht Kür. Sie ist erforderlich, wenn eine Verarbeitungsform voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen mit sich bringt.

KI-Systeme lösen die DSFA-Pflicht typischerweise aus, wenn:

  • Profiling oder automatisierte Entscheidungsfindung stattfindet (Art. 22 DSGVO) – also wenn KI-Ausgaben direkte Konsequenzen für Personen haben
  • Umfangreiche Verarbeitung besonderer Datenkategorien erfolgt (Gesundheitsdaten, politische Meinungen, biometrische Daten)
  • Neue Technologien eingesetzt werden, bei denen Risiken noch nicht vollständig beurteilbar sind – was auf generative KI zutrifft
  • Systematisches Monitoring von Personen stattfindet

 

Eine DSFA ist kein einmaliges Dokument. Sie muss regelmäßig überprüft und aktualisiert werden – insbesondere wenn sich das KI-System, die Datenbasis oder der regulatorische Rahmen ändern. Hosting-Entscheidungen sind Teil der DSFA: Die Frage, wo Daten verarbeitet werden und welche Schutzmaßnahmen vorliegen, ist ein zentrales Element der Risikobeurteilung.

2.4 Drittlandtransfers: Die Grauzone, die viele nicht sehen

Für das Hosting-Thema besonders relevant ist die Frage der Datenübermittlung in Drittländer außerhalb der EU/EWR. Solche Übermittlungen sind nicht automatisch verboten, aber sie erfordern eine Rechtsgrundlage und – je nach Situation – ergänzende Maßnahmen.

Der EU-U.S. Data Privacy Framework (DPF), ein Angemessenheitsbeschluss der EU-Kommission von 2023, erleichtert Datentransfers in zertifizierte US-Unternehmen. Aber er löst nicht alle Probleme: Er gilt nur für zertifizierte Unternehmen, er ersetzt nicht die Notwendigkeit einer Governance für Subunternehmerketten, und er schützt nicht vor dem US CLOUD Act.

Wer 'Made in Germany' als Hosting-Ansatz wählt, muss dennoch prüfen: Gibt es Support-Zugriffe aus Drittstaaten? Nutzt der Anbieter Subunternehmer außerhalb der EU? Sind Telemetrie- oder Metadaten an außereuropäische Muttergesellschaften weitergegeben? Erst wenn diese Fragen mit 'Nein' beantwortet sind, ist der Drittlandtransfer-Risiko tatsächlich eliminiert.


Merksatz zur DSGVO: 'In Deutschland gehostet' ist eine notwendige, aber keine hinreichende Bedingung für DSGVO-Konformität. Entscheidend sind Verträge, Subunternehmerketten, technische Maßnahmen und nachweisbare Prozesse.


 

3. NIS2: Die Lieferketten-Anforderung, die KI-Hosting trifft

Die NIS2-Richtlinie (Richtlinie EU 2022/2555), in Deutschland umgesetzt durch das NIS2-Umsetzungs- und Cybersicherheitsstärkungsgesetz (NIS2UmsuCG), erweitert den Kreis der betroffenen Unternehmen erheblich und verschärft die Anforderungen an Cybersicherheit und Risikomanagement.

3.1 Wer ist betroffen?

NIS2 unterscheidet zwischen 'wesentlichen Einrichtungen' und 'wichtigen Einrichtungen'. Wesentliche Einrichtungen unterliegen strengeren Anforderungen und häufigeren Aufsichtsmaßnahmen. Für den Mittelstand relevant: Die Schwellenwerte wurden gegenüber NIS1 erheblich abgesenkt. Betroffen sind nun unter anderem Unternehmen ab 50 Mitarbeitern oder 10 Millionen Euro Jahresumsatz in bestimmten Sektoren:

  • Energie (Strom, Gas, Öl, Wasserstoff, Fernwärme)
  • Transport und Verkehr (Luft, Schiene, Wasser, Straße)
  • Bankwesen und Finanzmarktinfrastruktur
  • Gesundheitswesen und Pharmazie
  • Trinkwasser und Abwasser
  • Digitale Infrastruktur und IT-Dienstleistungen
  • Öffentliche Verwaltung
  • Raumfahrt sowie Post- und Kurierdienste
  • Chemie, Lebensmittel und verarbeitendes Gewerbe (als wichtige Einrichtungen)

 

Viele mittelständische Unternehmen, die sich bisher nicht als 'Betreiber kritischer Infrastruktur' verstanden haben, sind durch NIS2 erstmals direkt reguliert.

3.2 Was NIS2 konkret fordert

Die Anforderungen von NIS2 sind umfangreich, aber in ihrer Grundstruktur klar. Für den KI-Hosting-Kontext besonders relevant:

  • Risikomanagement für IKT-Drittanbieter: NIS2 fordert explizit, dass betroffene Unternehmen die Risiken ihrer Informations- und Kommunikationstechnologie-Lieferkette managen. Ein KI-Hosting-Anbieter ist ein IKT-Drittanbieter im Sinne des Gesetzes. Das bedeutet: Sicherheitsanforderungen müssen vertraglich vereinbart, Zertifizierungen geprüft und Audits möglich sein.
  • Vorfallsmanagement und Meldepflichten: Erhebliche Sicherheitsvorfälle müssen innerhalb von 24 Stunden an die zuständige nationale Behörde (in Deutschland: BSI) gemeldet werden - mit einem vollständigen Bericht innerhalb von 72 Stunden. Auch hier gilt: Wenn der Hosting-Anbieter nicht vertraglich zur zeitnahen Benachrichtigung verpflichtet ist, sind diese Fristen nicht haltbar.
  • Zugangskontrollen und Verschlüsselung: NIS2 fordert 'angemessene und verhältnismäßige technische und organisatorische Maßnahmen'. Für KI-Systeme bedeutet das: Zugriffskontrollen auf Modelle, Trainingsdaten und Inferenz-Logs, Verschlüsselung in Ruhe und in Transit, Protokollierung aller administrativen Zugriffe.
  • Business Continuity und Krisenmanagement: Ausfälle von KI-Systemen, die in kritische Prozesse integriert sind, können unter NIS2 als meldepflichtige Vorfälle zu bewerten sein. Backup- und Wiederherstellungskonzepte müssen auch für KI-Komponenten (Modelle, Vektorindizes, Pipeline-Konfigurationen) existieren.

 

3.3 Die Lieferketten-Konsequenz für KI-Hosting

Die NIS2-Anforderungen an das Lieferkettenmanagement haben eine direkte Konsequenz für die Auswahl von KI-Hosting-Anbietern: Es genügt nicht mehr, einen Anbieter zu wählen, der 'gut klingt' oder 'schon immer genutzt wird'. Betroffene Unternehmen müssen nachweisen können, dass sie die Sicherheitslage ihrer IKT-Zulieferer systematisch geprüft haben.

Das bedeutet praktisch: Security-Zertifizierungen des Anbieters (idealerweise BSI C5-Testat oder ISO 27001), vertragliche Sicherheitsanforderungen, Incident-Response-Pflichten und Auditrechte sind keine netten Extras mehr – sie sind regulatorische Pflichtbestandteile des Beschaffungsprozesses.


NIS2-Bußgelder können bis zu 10 Millionen Euro oder 2% des weltweiten Jahresumsatzes betragen. Für wesentliche Einrichtungen können Geschäftsleitungsmitglieder persönlich haftbar gemacht werden – ein Aspekt, der die Aufmerksamkeit auf Vorstandsebene deutlich erhöhen sollte.


 

4. Das Zusammenspiel der Regelwerke: Synergie statt Parallelwelten

Ein häufiges Missverständnis in der Praxis: Unternehmen behandeln EU AI Act, DSGVO und NIS2 als drei separate Projekte mit drei separaten Arbeitsgruppen. Das ist ineffizient und verkennt, dass die drei Regelwerke aufeinander aufbauen und sich in wesentlichen Bereichen verstärken.

 

AnforderungDSGVOEU AI ActNIS2
RisikoanalyseDSFA (Art. 35)Risikomanagement (Art. 9)Sicherheitsrisikobewertung
DokumentationVerzeichnis VerarbeitungstätigkeitenTechnische DokumentationSicherheitsrichtlinien
ZugriffskontrollenTOMs (Art. 32)Human Oversight (Art. 14)Zugangskontrolle
Logging / MonitoringProtokollierungAutomatisches Logging (Art. 12)Ereignisaufzeichnung
Lieferkette / AnbieterAVV (Art. 28)AnbieterpflichtenIKT-Drittanbieter-Risiko
Vorfallsmeldung72h-Meldung (Art. 33)Marktaufsicht / Behörden24h / 72h-Meldung
Durchsetzung / Bußgelder4% Jahresumsatz7% Jahresumsatz2% Jahresumsatz

 

Wer die Anforderungen intelligent konsolidiert – eine gemeinsame Risikoanalyse, ein zentrales Dokumentationssystem, einheitliche Logging-Architektur, ein koordiniertes Incident-Response-Verfahren – spart nicht nur Aufwand, sondern schafft eine belastbarere Compliance-Posture.

Hosting-Entscheidungen sind dabei der Hebel: Eine KI-Infrastruktur, die in einem kontrollierten deutschen oder europäischen Rechenzentrum betrieben wird, mit klarer Subunternehmerkette, BSI-C5-Testat und Customer Managed Keys, erleichtert die Erfüllung aller drei Regelwerke gleichzeitig. Wer hingegen auf komplexe Hyperscaler-Konfigurationen mit opaken Subunternehmerketten und unklaren Drittlandtransfers setzt, multipliziert seinen Compliance-Aufwand.


Kernaussage: Souveränes KI-Hosting in Deutschland ist nicht primär ein politisches Statement – es ist eine Compliance-Vereinfachungsstrategie. Wer Infrastruktur so wählt, dass sie regulatorische Anforderungen strukturell unterstützt, spart langfristig erheblichen Nachweis- und Dokumentationsaufwand.


 

5. Konkrete Handlungsfelder: Was jetzt zu tun ist

Aus den drei Regelwerken und ihrem Zusammenspiel lassen sich fünf konkrete Handlungsfelder ableiten, die IT-Leiter und CISOs in den nächsten sechs bis zwölf Monaten adressieren sollten.

Handlungsfeld 1: Bestandsaufnahme und Klassifizierung

Verschaffen Sie sich einen vollständigen Überblick über alle KI-Systeme im Unternehmen – produktiv betriebene, experimentelle und geplante. Klassifizieren Sie jeden Use Case entlang von drei Dimensionen: Risikokategorie nach EU AI Act (verboten, Hochrisiko, begrenzt, minimal), DSGVO-Relevanz (personenbezogene Daten ja/nein, Kategorien, DSFA-Pflicht) sowie NIS2-Relevanz (Teil kritischer Prozesse ja/nein).

Das Ergebnis ist eine KI-Landkarte, die als Grundlage für alle weiteren Entscheidungen dient – und die gegenüber Datenschutzbeauftragten, Wirtschaftsprüfern und Aufsichtsbehörden vorlegbar ist.

Handlungsfeld 2: Rollenmapping nach EU AI Act

Klaren Sie für jeden Use Case, ob Ihr Unternehmen als Anbieter oder Deployer agiert. Die Unterscheidung hat erhebliche Konsequenzen für den Aufwand: Als Deployer sind die Pflichten handhabbarer – aber auch hier sind Dokumentation, Logging und menschliche Aufsichtsmechanismen Pflicht bei Hochrisiko-Systemen.

Wenn Sie feststellen, dass Sie de facto als Anbieter agieren – etwa weil Sie ein intern entwickeltes KI-Tool anderen Unternehmen zur Verfügung stellen –, dann gelten die wesentlich umfangreicheren Anbieterpflichten inklusive Konformitätsbewertung und CE-Kennzeichnung.

Handlungsfeld 3: Vertragsaudits beim Hosting-Anbieter

Prüfen Sie bestehende Verträge mit KI-Hosting- und Cloud-Anbietern auf Vollständigkeit. Checkliste für den Vertragsaudit:

  • AVV nach Art. 28 DSGVO vorhanden und spezifisch genug für KI-Workloads?
  • Subunternehmerliste vollständig und aktuell?
  • Meldepflichten bei Sicherheitsvorfällen innerhalb von 24 Stunden vertraglich verankert?
  • Auditrechte (C5-Testat, ISO-27001-Zertifikat, Penetrationstest-Ergebnisse) vorhanden?
  • Datenlösch- und Rückgabepflichten am Vertragsende definiert?
  • Exit-Klauseln und Portabilitätsrechte für Daten und Modelle geregelt?
  • Remote-Zugriff aus Drittstaaten: ausgeschlossen oder mit welchen Einschränkungen?

 

Handlungsfeld 4: Technische Maßnahmen als Compliance-Enabler

Compliance ist kein reines Dokumentationsthema. Viele Anforderungen erfordern technische Implementierungen, die in der Infrastruktur verankert sein müssen:

  • Logging-Architektur: Wer hat wann auf welche Daten und Modelle zugegriffen? Immutable Logs mit tamper-evident Speicherung.
  • Schlüsselmanagement: Customer Managed Keys für alle verschlüsselten Daten – Nachweis der Schlüsselhoheit.
  • Zugriffskontrolle: Role-Based Access Control (RBAC), Least-Privilege-Prinzip, Multi-Faktor-Authentifizierung für administrative Zugriffe.
  • Datenisolation: Technische Trennung von Mandanten, Projekten und Sensitivitätsstufen – besonders relevant bei Managed Hosting.
  • Löschbarkeit: Technische Fähigkeit, personenbezogene Daten auch aus Vektorindizes und Modell-Caches zu löschen.

 

Handlungsfeld 5: AI Literacy als organisatorische Pflicht

Artikel 4 des EU AI Act verpflichtet Anbieter und Betreiber von KI-Systemen, sicherzustellen, dass ihr Personal über ausreichende KI-Kenntnisse verfügt, um die ihnen anvertrauten KI-Systeme verstehen und korrekt einsetzen zu können. 'AI Literacy' ist damit keine freiwillige Weiterbildungsmaßnahme, sondern rechtliche Pflicht.

Für IT-Leiter bedeutet das: Schulungskonzepte für Nutzer von Hochrisiko-KI-Systemen, Sensibilisierung von Entscheidern für KI-spezifische Risiken und Compliance-Anforderungen sowie Aufbau interner Expertise für den laufenden Betrieb und die Governance von KI-Infrastruktur.


Für einen vollständigen Compliance-Leitfaden mit konkreten Checklisten zu DSGVO-Anforderungen, BSI C5-Pruefkriterien und Provider-Due-Diligence steht das Whitepaper 'KI-Hosting Made in Germany' zum Download bereit. Es enthalt unter anderem einen strukturierten Fragenkatalog für die Anbieterauswahl und eine vollständige RAG-Datenschutz-Checkliste.

Jetzt kostenlos downloaden


 

6. Der Zeitstrahl: Was bis wann zu tun ist

Um die regulatorischen Anforderungen geordnet zu erfüllen, hilft ein strukturierter Zeitplan. Die folgende Übersicht orientiert sich an den gesetzlichen Fristen und der typischen Implementierungsrealität im Mittelstand:

 

ZeitraumPrioritätMaßnahme
Sofort (Q2 2026)HochBestandsaufnahme aller KI-Use-Cases, Rollenmapping AI Act, Vertragsaudit Hosting-Anbieter
Q3 2026HochDSFA für Hochrisiko-Use-Cases, AVV-Aktualisierung, Logging-Architektur prüfen
Q3-Q4 2026MittelAI-Literacy-Schulungen, Incident-Response-Prozesse für KI, NIS2-Lieferantencheck
Q4 2026MittelHosting-Entscheidung für kritische Workloads, Pilotprojekt starten (siehe Artikel 6)
Q1 2027MittelReview und Aktualisierung DSFA, Auditrechte beim Anbieter nutzen, Dokumentation konsolidieren
LaufendDaueraufgabeRegulatory Watch, Modell-Governance, Incident-Monitoring, AI-Literacy aktuell halten

 

Fazit: Compliance als Architekturprinzip

Die Botschaft dieses Artikels lässt sich in einem Satz zusammenfassen: Regulatorische Anforderungen sind keine Aufgabe für die Rechtsabteilung, die am Ende prüft, ob alles passt. Sie sind Architekturprinzipien, die von Anfang an in die Gestaltung von KI-Systemen und ihrer Hosting-Infrastruktur einfließen müssen.

EU AI Act, DSGVO und NIS2 verlangen in ihrem Zusammenspiel Dinge, die technisch implementierbar sind – wenn die Infrastruktur dafür ausgelegt ist. Protokollierung, Schlüsselhoheit, Zugriffskontrolle, Löschbarkeit, Auditierbarkeit: Das sind keine abstrakten Anforderungen, sondern konkrete Systemfähigkeiten. Und ein KI-Hosting-Modell, das diese Fähigkeiten strukturell unterstützt, ist nicht nur compliant – es ist auch betrieblich robuster, transparenter und vertrauenswürdiger.

Für mittelständische Unternehmen, die nicht über die Ressourcen großer Konzerne verfügen, um parallele Compliance-Projekte für drei Regelwerke zu fahren, lautet die wichtigste Empfehlung: Wählen Sie Hosting-Infrastruktur, die regulatorische Anforderungen strukturell erleichtert – und investieren Sie die gesparte Compliance-Energie in das, was wirklich zählt: Gute KI-Systeme, die echten Mehrwert schaffen.

Souveränes Hosting ist kein Luxus. Es ist Compliance-Hygiene.

Nächster Artikel der Serie:

Hyperscaler oder 'Made in Germany'? Ein ehrlicher Vergleich für KI-Workloads

Wann Hyperscaler die richtige Wahl sind – und wann nicht. Mit Entscheidungsmatrix und konkreten Empfehlungen für den Mittelstand.