Swiss Room · Leitfaden 1 von 15

EU AI ACT

Praxisleitfaden für Schweizer KMU

20–25 Min Vertiefung Alle Branchen · KI-Einsatz

Was dieser Leitfaden Ihnen gibt

Vorbemerkung

Diese Leitfadenreihe ist aus einer spezifischen Perspektive heraus geschrieben: der einer General Counsel / Senior Vice President, die über viele Jahre in leitender Inhouse-Funktion in regulierten Unternehmen gearbeitet hat – in der Schweiz und in der EU. Die Autorin verfügt über eine juristische und betriebswirtschaftliche Ausbildung in der Schweiz und in Deutschland sowie über langjährige operative Erfahrung als interne Rechts- und Compliance-Verantwortliche in internationalen Konzernen und KMU-Umfeldern.

Diese Kombination – juristische Tiefe, operatives Management-Know-how und direkte Erfahrung mit den Realitäten von Lieferketten, Vertragsverhandlungen und Aufsichtsbehörden – ist der Grund, warum die Texte so geschrieben sind, wie sie sind: nicht als formale Gesetzeskommentare, sondern als Arbeitsinstrumente. Sie richten sich gleichzeitig an Führungskräfte, die schnell einordnen müssen, was eine Regulierung für ihr Unternehmen bedeutet, und an Fachabteilungen, die wissen müssen, was operativ zu tun ist.

Der interdisziplinäre Ansatz ist bewusst: Digitale Regulierung berührt gleichzeitig IT, Recht, Procurement, Geschäftsführung, HR und Lieferkette. Eine Perspektive, die nur eine dieser Dimensionen kennt, liefert unvollständige Antworten. Die Leitfäden versuchen, alle relevanten Dimensionen gleichzeitig zu adressieren – mit dem Bewusstsein, dass in der Praxis selten ein Team allein zuständig ist und die wirklichen Herausforderungen meistens an den Schnittstellen entstehen.

Die Perspektive «Schweizer KMU im EU-Kontext» ist nicht zufällig. Sie spiegelt langjährige Arbeit an der Schnittstelle zwischen Schweizer Geschäftspraxis und europäischem Regulierungsrahmen: die Erfahrung, was es konkret bedeutet, wenn ein EU-Kundenvertrag plötzlich DORA-Klauseln enthält, wenn ein Procurement-Fragebogen AI-Act-Anforderungen stellt oder wenn ein Lieferant keine NIS2-konformen Sicherheitsnachweise liefern kann. Diese Leitfäden sind aus genau diesen Situationen heraus entstanden – nicht aus dem Lesen von Gesetzestexten, sondern aus der Erfahrung ihrer Auswirkungen.

Hinweis
Diese Leitfäden ersetzen keine Rechtsberatung. Sie sind Orientierungsinstrumente aus der Praxis und können keine auf den Einzelfall bezogene juristische, steuerliche oder technische Beratung ersetzen. Bei konkreten Fragen zu Ihrer Situation wenden Sie sich an qualifizierte Fachleute – gerne auch an das Team von NBK Legal: www.nbklegal.online

Vorwort: Wie man diesen Leitfaden benutzt

Dieser Leitfaden ist kein Kommentar zum EU AI Act. Er ist ein Arbeitsinstrument.

Er enthält Entscheidungsbäume, Vertragskommentare, Branchenprofile und eine Liste typischer Fehler aus der Praxis – Dinge, die in keinem Anwaltsleitfaden stehen, weil sie Festlegungen erfordern, die rechtlich riskant sind. Als erfahrene Practitioners können wir diese Festlegungen treffen.

So lesen Sie diesen Leitfaden Beginnen Sie mit Abschnitt 1 (Bin ich betroffen?). Wenn ja, gehen Sie zu Abschnitt 2 (Was wird von mir verlangt?). Abschnitt 3 zeigt, was Sie umgekehrt von Ihren EU-Kunden verlangen können. Abschnitt 4 behandelt die häufigsten Fehler. Abschnitt 5 zeigt Branchenprofile mit konkreten Konsequenzen.

1. Bin ich betroffen? – Entscheidungslogik

Stopp. Bevor Sie weiterlesen: Beantworten Sie die folgenden Fragen der Reihe nach. Sie ersparen sich damit den Rest des Leitfadens – oder wissen genau, welche Teile relevant sind.

1.1 Der Schnelltest in vier Schritten

❓ Haben Sie mindestens einen Kunden in der EU, dem Sie Software, Daten, Modelle oder KI-nahe Dienstleistungen liefern? JA → Weiter zu Frage 2. NEIN → Der AI Act ist für Sie derzeit nicht direkt relevant. Beobachten Sie die Lage, falls Sie EU-Geschäft aufbauen.
❓ Entwickeln, betreiben oder vermarkten Sie ein KI-System – auch als Komponente, White-Label oder API? JA → Sie sind wahrscheinlich Provider. Lesen Sie Abschnitt 2 vollständig. NEIN → Weiter zu Frage 3.
❓ Setzen Sie ein KI-System im eigenen Betrieb ein – für Ihre EU-Kunden sichtbar oder für deren Prozesse relevant? JA → Sie sind wahrscheinlich Deployer. Abschnitt 2.2 ist Ihr Einstiegspunkt. NEIN → Weiter zu Frage 4.
❓ Liefern Sie Daten, Modelle oder Infrastruktur an EU-Unternehmen, die selbst KI-Systeme betreiben? JA → Sie sind Teil einer KI-Lieferkette. Abschnitt 2.3 erklärt die Konsequenzen. NEIN → Kein direkter AI-Act-Bezug aktuell – aber Marktbeobachtung empfohlen.
Wichtig
Viele Schweizer KMU starten als 'Zulieferer' und werden durch Re-Branding, wesentliche Systemänderungen oder vollständige Betriebsübernahme unbemerkt zum Provider. Das ist kein theoretisches Risiko – es passiert regelmässig. Prüfen Sie Ihre Rolle pro Use Case, nicht pauschal für das gesamte Unternehmen.

1.2 Rollen im Überblick

RolleKurzdefinitionTypisches CH-KMU-BeispielHauptrisiko
ProviderEntwickelt KI-System oder bringt es unter eigenem Namen auf den MarktSaaS-Anbieter mit KI-Funktion, White-Label-LösungUmfassendste Pflichten; Rollenübernahme oft unbewusst
DeployerSetzt fremdes KI-System im eigenen Betrieb einHR-Tool mit KI-Scoring, KI-Chatbot im KundensupportEinsatzprozesse, Human Oversight, Monitoring
Importer / DistributorBringt Nicht-EU-KI in den EU-Markt oder vertreibt sieCH-Unternehmen resellt US-KI-Tool in die EUVerantwortungszuordnung, Dokumentationspflichten
LieferkettenakteurLiefert Daten, Modelle oder Komponenten für EU-KIDatenannotation, Modell-API, Cloud-HostingVertragliche Flow-Downs, Incident-Informationspflichten

1.3 Risikoklassen – was sie für Sie bedeuten

Der AI Act unterscheidet vier Risikoklassen. Entscheidend ist nicht, welche Technologie Sie einsetzen, sondern wofür.

KlasseWas ist verboten / geregeltTypische Use CasesKonsequenz für CH-KMU
UnacceptableSocial Scoring, manipulative Verhaltenssteuerung, biometrische Echtzeitüberwachung öffentlicher RäumeSelten direkt relevant, aber: prüfen Sie Recruiting-Tools und Scoring-Systeme kritischUse Case sofort stoppen. Keine Übergangsregelung. Seit Februar 2025 in Kraft.
High RiskAuswirkungsstarke KI in Bereichen wie HR, Kreditvergabe, Bildung, kritische InfrastrukturRecruiting-Systeme, Kreditwürdigkeitsprüfung, Medizinprodukte mit KI-KomponenteVollständige Compliance-Pflichten (Doku, Risikomanagement, Human Oversight, Logging, CE)
TransparenzKI muss als KI erkennbar sein; synthetische Inhalte müssen gekennzeichnet werdenChatbots, generative KI, Deepfakes, KI-generierte TexteKennzeichnungspflichten in UI und Kommunikation; verhältnismässig einfach umzusetzen
Minimal RiskKeine spezifischen PflichtenSpamfilter, interne Analysetools, Assistenzsysteme ohne EntscheidungsrelevanzKeine Pflichten – aber Dokumentation der Einstufung empfohlen

2. Was wird von mir verlangt?

Dieser Abschnitt ist nach Rolle strukturiert. Lesen Sie nur den für Sie relevanten Teil.

2.1 Provider-Pflichten (Sie entwickeln oder vermarkten KI)

Bevor Sie mit diesem Abschnitt starten Wenn Sie kein EU-Unternehmen sind und keine EU-Niederlassung haben, greifen die Provider-Pflichten des AI Acts für Sie typischerweise nicht direkt. Der Druck kommt dennoch – über Ihre EU-Kunden und deren Vertragsanforderungen. Das ändert nichts an den folgenden Anforderungen in der Praxis.

Technische Dokumentation

Was Sie haben müssen – nicht als Selbstzweck, sondern weil EU-Kunden es verlangen:

AI System Card: Zweck, Funktionsweise, Trainingsdaten, Grenzen, bekannte Risiken, Einsatzbedingungen

Model Card: Architektur, Performance-Metriken, Bias-Tests, Evaluationsverfahren

Architekturübersicht: Schnittstellen, Datenflüsse, Abhängigkeiten von Drittkomponenten (Cloud, APIs)

Risikomanagement-Dokumentation: Identifizierte Risiken, Maßnahmen, Testprotokolle

Logging und Monitoring

Für High-Risk-KI gesetzlich vorgeschrieben; für alle anderen von EU-Kunden faktisch verlangt:

Eingaben und Ausgaben des Systems müssen protokolliert werden

Performance-Monitoring muss nachweisbar sein

Anomalien müssen erkennbar und eskalierbar sein

Aufbewahrungspflicht: Logs mindestens 1 Jahr (High Risk), empfohlen 3 Jahre

Human Oversight

Das ist der Punkt, bei dem viele KMU zu wenig konkret sind. 'Human Oversight' bedeutet nicht, dass ein Mensch dabei sitzt – es bedeutet, dass ein Mensch die KI-Entscheidung korrigieren oder stoppen kann, bevor sie Wirkung entfaltet.

Freigabeprozesse für KI-Entscheidungen mit hoher Auswirkung dokumentieren

Eskalationspfade definieren und testen

Zuständigkeiten namentlich zuordnen, nicht nur rollenbasiert

2.2 Deployer-Pflichten (Sie setzen fremde KI ein)

Als Deployer tragen Sie weniger Pflichten als ein Provider – aber mehr als die meisten KMU annehmen.

Einsatz gemäss Anweisungen: Sie müssen die Nutzungsbedingungen des Providers einhalten. Abweichungen können Sie zum Provider machen.

Zweckbindung: KI-Systeme dürfen nicht für andere als die vorgesehenen Zwecke eingesetzt werden.

Mitarbeiterinformation: Betroffene Mitarbeitende müssen informiert werden, wenn KI Entscheidungen über sie trifft.

Kundentransparenz: Kunden müssen wissen, wenn sie mit einem KI-System interagieren.

Incident-Meldung: Schwerwiegende Vorfälle müssen an den Provider und – je nach Setup – an zuständige Stellen kommuniziert werden.

2.3 Lieferkettenakteur-Pflichten

Wenn Sie Daten, Modelle oder Infrastruktur für EU-Kunden bereitstellen, die selbst KI-Systeme betreiben:

Data Governance: Herkunft, Qualität und Nutzungsrechte Ihrer Daten müssen nachvollziehbar sein

Bias-Prüfung: Wenn Ihre Daten in KI-Entscheidungen einfließen, erwarten EU-Kunden Nachweise zur Verzerrungskontrolle

Incident-Kommunikation: Wenn ein Datenproblem einen Vorfall beim Kunden auslöst, müssen Sie schnell und strukturiert informieren können

Subdienstleister-Transparenz: Wenn Sie selbst auf Cloud-Provider oder Drittmodelle angewiesen sind, müssen Sie das offenlegen und in Ihre Governance einbinden

3. Was können Sie von Ihren EU-Kunden verlangen?

Dieser Abschnitt fehlt in jedem anderen Leitfaden. Die meisten Compliance-Dokumente behandeln Schweizer KMU als passive Empfänger von Anforderungen. Das ist falsch. Sie haben eigene Rechte – und die müssen Sie aktiv einfordern.

3.1 Informationen, die Sie brauchen – und verlangen können

Um Ihren Teil der AI-Act-Compliance zu erfüllen, brauchen Sie von Ihren EU-Kunden folgende Informationen. Wenn diese nicht geliefert werden, können Sie Ihre eigenen Pflichten nicht erfüllen – und das ist ein Vertragsrisiko für den Kunden, nicht für Sie.

Was Sie brauchenWarum Sie es verlangen dürfenWas Sie tun, wenn es verweigert wird
Risikoklassifizierung des Use Cases durch den EU-KundenOhne Klassifizierung können Sie Ihre eigene Rolle nicht bestimmenSchriftlich nachfragen; fehlende Auskunft als Vertragsrisiko dokumentieren
Klare Rollenzuordnung (wer ist Provider, wer Deployer)Rollenunklarheit kann Sie unbeabsichtigt zum Provider machenRollenzuordnung ausdrücklich im Vertrag festlegen lassen
Instructions for Use des eingesetzten KI-SystemsDeployer müssen gemäss Anweisungen handeln – ohne diese ist das unmöglichDeployment bis zur Lieferung zurückstellen
Incident-Meldewege und Fristen auf KundenseiteIhre eigene Incident-Response hängt von den Fristen des Kunden abEigene Standardfristen vorschlagen (24h/72h/1 Monat)
Scope und Umfang von Audit-RechtenUnbegrenzte Audit-Rechte sind unzumutbar; Umfang muss definiert seinGegenvorschlag mit zeitlicher und inhaltlicher Begrenzung einreichen

3.2 Vertragsklauseln: Was ist akzeptabel, was nicht

Hier folgen typische Klauseltypen aus der Praxis – mit einer klaren Einschätzung, wo die Verhandlungslinie liegt.

Audit-Klauseln

Akzeptabel
«Der Lieferant gewährt dem Auftraggeber das Recht, einmal jährlich auf eigene Kosten eine Prüfung der KI-bezogenen Dokumentation durchzuführen, mit 30 Tagen Vorlauf und beschränkt auf die in Anhang X definierten Bereiche.»
Problematisch
Überzogen – hier verhandeln «Der Auftraggeber kann jederzeit und ohne Voranmeldung vollständige Einsicht in alle Systeme, Daten und Prozesse verlangen.» – Das ist operativ nicht handhabbar und geht über AI-Act-Anforderungen hinaus. Gegenvorschlag: Vorlauf, Scope-Begrenzung, Kosten beim Auftraggeber.

Flow-Down-Klauseln (Weitergabe an Ihre Subdienstleister)

Akzeptabel
«Der Lieferant verpflichtet seine wesentlichen Subdienstleister, die für die Leistungserbringung relevant sind, zu gleichwertigen Sicherheits- und Dokumentationsstandards.» – ‹Wesentlich› und ‹gleichwertig› sind die entscheidenden Einschränkungen.
Problematisch
Überzogen – hier verhandeln «Der Lieferant stellt sicher, dass alle seine Subdienstleister vollständig AI-Act-konform sind und dies durch Zertifikate nachweisen.» – Das ist unrealistisch und verlegt das Haftungsrisiko vollständig auf Sie. Gegenvorschlag: ‹zumutbare Sorgfalt› statt ‹vollständige Konformität›.

Incident-Meldepflichten

Akzeptabel
«Der Lieferant informiert den Auftraggeber innerhalb von 24 Stunden nach Kenntnisnahme über schwerwiegende Vorfälle, die den KI-Betrieb beeinträchtigen, mit einer vorläufigen Einschätzung von Ursache und Auswirkung.»
Problematisch
«Der Lieferant haftet für alle Schäden, die dem Auftraggeber durch Vorfälle entstehen, die ihren Ursprung beim Lieferanten haben.» – ‹Ursprung› ist rechtlich unscharf. Bestehen Sie auf Kausalitätsnachweis und Haftungsobergrenze.

4. Die fünf häufigsten Fehler in der Praxis

Diese Fehler wiederholen sich in Mandantengesprächen regelmässig. Sie kosten Zeit, Geld und Verhandlungsposition.

Fehler 1: Rolle pauschal statt use-case-spezifisch bestimmen

Viele KMU entscheiden einmalig: «Wir sind Deployer.» Das ist falsch. Die Rolle hängt vom konkreten Use Case ab. Dasselbe Unternehmen kann für Produkt A Deployer sein und für Produkt B – weil es dort unter eigenem Namen vermarktet – Provider.

Was zu tun ist
Führen Sie eine Use-Case-Liste. Weisen Sie jedem Use Case eine Rolle zu. Überprüfen Sie diese Liste bei jeder wesentlichen Produktänderung.

Fehler 2: Compliance-Dokumentation als einmalige Aufgabe behandeln

Die AI System Card, die Rollenmatrix und das Risikomanagement-Dokument werden erstellt – und dann vergessen. EU-Kunden merken das bei der ersten Nachfrage: veraltete Dokumente sind schlechter als gar keine, weil sie Vertrauen zerstören.

Was zu tun ist
Verankern Sie eine jährliche Review-Pflicht in Ihrer internen Governance. Beim Launch neuer KI-Funktionen oder bei Systemänderungen sofort aktualisieren.

Fehler 3: Audit-Rechten pauschal zustimmen

Unter Zeitdruck werden Vertragsanhänge mit unbeschränkten Audit-Rechten unterschrieben. Das erzeugt operative Dauerbelastung und ist rechtlich riskant, weil Betriebsgeheimnisse kaum mehr schützbar sind.

Was zu tun ist
Nie ohne Scope, Frequenz, Vorlauf und Kostentragungsregel zustimmen. Das ist Verhandlungsstandard – kein EU-Kunde wird einen seriösen Lieferanten deswegen abweisen.

Fehler 4: Over-Compliance aus Unsicherheit

Das Gegenteil von Fehler 3: Manche KMU implementieren High-Risk-Compliance-Prozesse für Use Cases, die klar in die Kategorie «Minimal Risk» fallen – weil sie nicht sicher sind und lieber zu viel tun. Das kostet Ressourcen und macht die eigene Dokumentation unglaubwürdig, weil alles gleich behandelt wird.

Was zu tun ist
Risikoklassifizierung explizit und begründet dokumentieren. Ein Spamfilter ist Minimal Risk – und das sollte in Ihrer Dokumentation genauso klar stehen wie die High-Risk-Einstufung eines Recruiting-Tools.

Fehler 5: Lieferkette nicht einbinden

Das eigene KI-Governance-Konzept ist erstellt – aber der Cloud-Provider, der das Modell hostet, der Annotationsdienstleister und die API, die das Modell antreibt, sind nicht eingebunden. EU-Kunden wollen End-to-End-Nachweise. Wenn Ihre Subdienstleister nicht auskunftsfähig sind, sind Sie es auch nicht.

Was zu tun ist
Erstellen Sie eine Lieferantenmatrix für alle KI-relevanten Subdienstleister. Stellen Sie sicher, dass Sie von jedem die notwendigen Informationen für Ihre eigene Dokumentation erhalten können.

5. Branchenprofile: Was bedeutet das konkret für Sie?

Abstrakte Regulierung wird erst nützlich, wenn sie auf konkrete Situationen angewendet wird. Hier sind vier Profile, die typische Schweizer KMU-Konstellationen abbilden.

Profil A: Schweizer SaaS-Anbieter mit KI-Funktion, EU-Kunden im Mittelstand

Ihre RolleProvider – Sie bringen ein KI-System unter eigenem Namen auf den Markt
RisikoklasseAbhängig vom Use Case: Qualitätsprüfung → wahrscheinlich Minimal Risk. HR-Screening → wahrscheinlich High Risk
Was EU-Kunden verlangenAI System Card, Rollenbestätigung Provider, Transparenzhinweise in Ihrer UI, Incident-Eskalationsweg
Priorität jetztUse-Case-Liste erstellen, pro Use Case Risikoklasse bestimmen, AI System Card für jeden High-Risk-Use-Case erstellen
Typisches ProblemKunde klassifiziert Ihren Use Case als High Risk, obwohl Sie ihn als Minimal Risk eingestuft haben. Lösung: Risikoklassifizierung gemeinsam in der Vertragsvorbereitung klären, nicht erst bei der Implementierung.

Profil B: Schweizer IT-Dienstleister, der KI-Tools für EU-Finanzinstitute integriert

Ihre RolleIntegrator / potenzieller Deployer – Sie konfigurieren und betreiben fremde KI-Systeme
RisikoklasseOft High Risk, da Finanzentscheidungen betroffen sind. Zusätzlich DORA-Relevanz (→ separater Leitfaden)
Was EU-Kunden verlangenDokumentierter Betriebsprozess, Human Oversight Nachweis, Logging-Architektur, Subdienstleister-Transparenz (Cloud, APIs)
Priorität jetztBetriebshandbuch für KI-Systeme erstellen, Human-Oversight-Prozesse schriftlich fixieren, Eskalationspfade testen
Typisches ProblemSie werden faktisch zum Provider, weil Sie das System so stark anpassen, dass es als Ihre Lösung gilt. Prüfen Sie: Vermarkten Sie es unter eigenem Namen? Wenn ja → Provider-Pflichten.

Profil C: Schweizer Datenspezialist, der Trainingsdaten für EU-KI-Systeme liefert

Ihre RolleLieferkettenakteur – kein direkter AI-Act-Adressat, aber vertraglich stark exponiert
RisikoklasseDie Risikoklasse des Systems Ihres Kunden ist entscheidend – Sie müssen sie kennen
Was EU-Kunden verlangenDatenherkunftsnachweise, Bias-Analyse, Nutzungsrechtsdokumentation, Qualitätsprotokolle
Priorität jetztData Sheet für Ihre wichtigsten Datensätze erstellen (Herkunft, Aufbereitung, bekannte Limitierungen, Lizenz)
Typisches ProblemKunde verlangt Garantien zu Bias-Freiheit, die Sie nicht geben können. Lösung: Dokumentieren Sie, was Sie getan haben (Tests, Aufbereitungsverfahren), nicht was das Ergebnis garantiert ist.

Profil D: Schweizer Unternehmen, das intern KI-Tools (z.B. LLMs) einsetzt und EU-Kunden hat

Ihre RolleDeployer – für interne Tools ohne Kundenkontakt meist kein AI-Act-Thema. Sobald KI-Output an EU-Kunden geht: relevant.
RisikoklasseMeist Transparenz oder Minimal Risk – aber prüfen Sie, ob KI-Output Entscheidungen über Personen beeinflusst
Was EU-Kunden verlangenTransparenzhinweise wenn KI-generierte Inhalte geliefert werden, Einhaltung der Provider-Nutzungsbedingungen
Priorität jetztInterne KI-Nutzungsrichtlinie erstellen, klären wo KI-Output in Kundenleistungen einfließen, Kennzeichnungsregeln definieren
Typisches ProblemMitarbeitende nutzen KI-Tools ad hoc ohne Policy. Das macht Nachweise unmöglich. Eine interne Policy, die in zwei Stunden erstellt werden kann, löst dieses Problem.

6. Wenn AI Act, NIS2 und DORA gleichzeitig gelten

Für Schweizer KMU, die EU-Kunden im Finanzsektor oder in kritischen Infrastrukturen bedienen, sind häufig alle drei Regime gleichzeitig relevant. Das ist kein Zufall: Sie adressieren verschiedene Aspekte derselben digitalen Wertschöpfungskette.

ThemaAI ActNIS2DORA
KernfrageIst die KI sicher und transparent?Ist die digitale Infrastruktur resilient?Ist der Finanzbetrieb bei Störungen aufrechtzuerhalten?
DokumentationAI System Card, RisikoklassifizierungSecurity Architecture, RisikomanagementICT Resilience Konzept, BCM/DR
Incident-PflichtenMeldung schwerwiegender Vorfälle durch Provider24h Early Warning, 72h NotificationMehrstufiges Reporting (initial/intermediate/final)
LieferketteFlow-Downs zu SubdienstleisternEnd-to-End SicherheitsanforderungenDrittanbieter-Management und Exit-Strategien
ÜberschneidungLogging-Anforderungen überlappenMonitoring-Anforderungen überlappenAlle drei verlangen strukturierte Incident-Response
Praktische Empfehlung
Erstellen Sie ein einziges Master-Governance-Dokument, das alle drei Regime abdeckt – mit expliziten Querverweisen. Das reduziert den Aufwand erheblich und verhindert Widersprüche zwischen den Einzeldokumenten. Ein gemeinsamer Incident-Response-Prozess kann gleichzeitig AI Act, NIS2 und DORA abdecken.

7. Was Sie jetzt tun – priorisiert

Nicht alles ist gleich dringend. Hier ist die Priorisierung nach Aufwand und Wirkung:

PrioMaßnahmeWarum jetzt
1Use-Case-Liste mit Rollenzuordnung erstellenGrundlage für alles andere. Aufwand: 2–4 Stunden. Ohne diese Liste ist jede weitere Compliance-Arbeit ineffizient.
2Laufende Verträge mit EU-Kunden auf AI-Act-Klauseln prüfenViele laufen bereits jetzt in Verträge, die AI-Act-Pflichten enthalten – oft unbemerkt.
3AI System Card für jeden High-Risk-Use-Case erstellenDas ist das Dokument, das EU-Kunden am häufigsten als Erstes verlangen.
4Interne KI-Nutzungsrichtlinie verabschiedenGilt für alle Mitarbeitenden. Verhindert unkontrollierten KI-Einsatz, der Ihre Compliance untergräbt.
5Lieferantenmatrix für KI-relevante Subdienstleister erstellenEU-Kunden fragen zunehmend nach Ihrer Sublieferantenkontrolle.
6Proaktives Governance-Dokument an Top-3-EU-Kunden kommunizierenVerlagert die Verhandlungsposition zu Ihren Gunsten.
Hinweis
Dieser Leitfaden ersetzt keine Rechtsberatung. Er ist ein Orientierungsinstrument aus der Praxis. Bei konkreten Fragen zu Ihrer Situation wenden Sie sich an nbklegal.online.

Kontakt & weitere Informationen

NBK Legal
Rechts- und Compliance-Beratung
EU-Digitalregulierung · Datenschutz · Cybersicherheit
Schweiz · EU
Website
www.nbklegal.online
Alle Leitfäden der Serie
www.nbklegal.online/leitfäden

Weiter vertiefen

← Alle Leitfäden