Swiss Room · Leitfaden 2 von 15

AI ACT

RISIKO-AMPEL

10–15 Min Einstieg Alle Branchen · KI-Einsatz

Was dieser Leitfaden Ihnen gibt

Use-Case-Klassifizierung · Grenzfälle · Vertragskonsequenzen · Entscheidungsbaum

Vorbemerkung

Diese Leitfadenreihe ist aus einer spezifischen Perspektive heraus geschrieben: der einer General Counsel / Senior Vice President, die über viele Jahre in leitender Inhouse-Funktion in regulierten Unternehmen gearbeitet hat – in der Schweiz und in der EU. Die Autorin verfügt über eine juristische und betriebswirtschaftliche Ausbildung in der Schweiz und in Deutschland sowie über langjährige operative Erfahrung als interne Rechts- und Compliance-Verantwortliche in internationalen Konzernen und KMU-Umfeldern.

Diese Kombination – juristische Tiefe, operatives Management-Know-how und direkte Erfahrung mit den Realitäten von Lieferketten, Vertragsverhandlungen und Aufsichtsbehörden – ist der Grund, warum die Texte so geschrieben sind, wie sie sind: nicht als formale Gesetzeskommentare, sondern als Arbeitsinstrumente. Sie richten sich gleichzeitig an Führungskräfte, die schnell einordnen müssen, was eine Regulierung für ihr Unternehmen bedeutet, und an Fachabteilungen, die wissen müssen, was operativ zu tun ist.

Der interdisziplinäre Ansatz ist bewusst: Digitale Regulierung berührt gleichzeitig IT, Recht, Procurement, Geschäftsführung, HR und Lieferkette. Eine Perspektive, die nur eine dieser Dimensionen kennt, liefert unvollständige Antworten. Die Leitfäden versuchen, alle relevanten Dimensionen gleichzeitig zu adressieren – mit dem Bewusstsein, dass in der Praxis selten ein Team allein zuständig ist und die wirklichen Herausforderungen meistens an den Schnittstellen entstehen.

Die Perspektive «Schweizer KMU im EU-Kontext» ist nicht zufällig. Sie spiegelt langjährige Arbeit an der Schnittstelle zwischen Schweizer Geschäftspraxis und europäischem Regulierungsrahmen: die Erfahrung, was es konkret bedeutet, wenn ein EU-Kundenvertrag plötzlich DORA-Klauseln enthält, wenn ein Procurement-Fragebogen AI-Act-Anforderungen stellt oder wenn ein Lieferant keine NIS2-konformen Sicherheitsnachweise liefern kann. Diese Leitfäden sind aus genau diesen Situationen heraus entstanden – nicht aus dem Lesen von Gesetzestexten, sondern aus der Erfahrung ihrer Auswirkungen.

Hinweis
Diese Leitfäden ersetzen keine Rechtsberatung. Sie sind Orientierungsinstrumente aus der Praxis und können keine auf den Einzelfall bezogene juristische, steuerliche oder technische Beratung ersetzen. Bei konkreten Fragen zu Ihrer Situation wenden Sie sich an qualifizierte Fachleute – gerne auch an das Team von NBK Legal: www.nbklegal.online

Warum dieser Leitfaden existiert

Die Risiko-Ampel des AI Acts klingt einfach: Rot, Gelb, Orange, Grün. In der Praxis ist die Einstufung alles andere als trivial. Dieselbe Technologie kann – je nach Einsatzzweck – Minimal Risk oder High Risk sein. Und eine falsche Einstufung hat Konsequenzen: zu wenig Compliance kostet Vertrauen und Verträge, zu viel kostet Ressourcen und macht Dokumentation unglaubwürdig.

Dieser Leitfaden geht weiter als eine Tabelle. Er erklärt die Logik hinter der Ampel, zeigt Grenzfälle und wie man sie auflöst, und beschreibt die Vertragskonsequenzen jeder Einstufung.

Wichtig
Die Risiko-Ampel gilt für EU-Unternehmen unmittelbar. Für Schweizer KMU wirkt sie über den Markt: EU-Kunden verlangen eine nachvollziehbare Einstufung Ihrer KI-Use-Cases. Ohne sie werden Sie in Vertragsverhandlungen und Lieferantenprüfungen in Schwierigkeiten geraten.

1. Die vier Risikostufen im Klartext

Jede Stufe wird hier nicht nur definiert, sondern mit der Managementfrage verbunden, die sie auslöst.

2. Grenzfälle – die schwierigen Einstufungen

Die Ampel klingt klar. In der Praxis ist sie es nicht immer. Hier sind die Konstellationen, die in Mandantengesprächen immer wieder zu Diskussionen führen.

Grenzfall 1: HR-Tools

Wann ist ein HR-Tool High Risk?

High Risk wenn...Nicht High Risk wenn...
Das Tool trifft oder beeinflusst Entscheidungen über Einstellung, Beförderung, Kündigung oder LohnhöheDas Tool nur Daten aggregiert oder visualisiert, ohne Entscheidungsempfehlung
Das Tool automatisch Kandidaten filtert oder ranktDas Tool Bewerbungsunterlagen formatiert oder zusammenfasst
Das Tool Leistungsbewertungen generiert, die Managemententscheidungen beeinflussenDas Tool Kalender-Management oder Meeting-Planung übernimmt
Praxisregel Wenn die KI-Ausgabe eine Person begünstigt oder benachteiligt – egal wie indirekt –, ist der Use Case wahrscheinlich High Risk. Wenn Sie unsicher sind, stufen Sie ein und dokumentieren Sie die Begründung.

Grenzfall 2: Kreditvergabe und Scoring

Kreditwürdigkeitsprüfungen sind explizit als High Risk aufgeführt. Aber nicht jede Risikobewertung ist eine Kreditwürdigkeitsprüfung.

High Risk wenn...Nicht High Risk wenn...
KI bewertet Kreditwürdigkeit natürlicher PersonenKI analysiert Ausfallwahrscheinlichkeit von Unternehmensanleihen
KI bewertet Versicherungsrisiken für EinzelpersonenKI analysiert Marktdaten ohne Personenbezug
KI-Output beeinflusst Zugangsentscheidungen zu FinanzproduktenKI unterstützt Fraud Detection ohne Personenprofilierung

Grenzfall 3: Generative KI im Unternehmenseinsatz

Das ist der häufigste Grenzfall: Ein Unternehmen setzt ein LLM (Large Language Model) für interne oder externe Zwecke ein. Wann ist das High Risk, wann nur Transparenz-pflichtig?

Use CaseRisikoklasseBegründung
LLM für interne DokumentenerstellungMinimal RiskKeine Auswirkungen auf Dritte
Chatbot im KundensupportBegrenztes Risiko (Transparenz)Nutzer interagieren direkt mit KI
LLM generiert Kreditanträge-BeurteilungenHigh RiskBeeinflusst Kreditentscheidungen
LLM im HR für StellenausschreibungenGrenzfall – wahrscheinlich Minimal RiskNur Content-Erstellung, kein Entscheidungseinfluss auf Personen
LLM filtert Bewerbungen vorHigh RiskFiltert Kandidaten, beeinflusst Einstellungsentscheidung
LLM für VertragszusammenfassungenMinimal RiskUnterstützungsfunktion ohne Entscheidungsrelevanz
LLM generiert Deepfakes für MarketingBegrenztes Risiko (Transparenz)Kennzeichnung als synthetischer Inhalt erforderlich

Grenzfall 4: GPAI – General Purpose AI

GPAI-Modelle (große Sprachmodelle wie GPT-4, Claude, Gemini) haben eigene Regelungen. Das ist relevant für Schweizer KMU, die solche Modelle nutzen oder in eigene Produkte integrieren.

SituationWas giltWas zu tun ist
Sie nutzen ein GPAI-Modell als DeployerPflichten des GPAI-Anbieters (z.B. OpenAI) gelten für ihn. Sie müssen seine Nutzungsbedingungen einhalten.Nutzungsbedingungen prüfen. Verbotene Use Cases kennen.
Sie integrieren GPAI in Ihr eigenes Produkt und verkaufen esSie werden möglicherweise Provider für den darüber liegenden Use Case. Risikoklasse hängt vom Use Case ab.Use Case klassifizieren. Wenn High Risk: volle Provider-Pflichten.
Sie fine-tunen ein GPAI-Modell und vertreiben esWahrscheinlich Provider-Pflichten für das angepasste Modell.Rechtliche Einschätzung einholen. Dokumentation aufbauen.

3. Den Einstufungsprozess in der Praxis umsetzen

3.1 Die drei Fragen, die immer zuerst kommen

#FrageWas die Antwort bedeutet
1Für welchen konkreten Zweck wird das System eingesetzt – nicht wie, sondern wozu?Die Risikoklasse hängt am Zweck, nicht an der Technologie. Dieselbe Technologie kann Minimal Risk und High Risk sein.
2Hat der Output des Systems Auswirkungen auf Menschen – und können diese Auswirkungen negativ sein?Wenn ja: wahrscheinlich kein Minimal Risk. Weiter mit Frage 3.
3In welche der im AI Act explizit genannten Kategorien fällt der Use Case?Die AI-Act-Annex-Listen sind die verbindliche Referenz. Wenn ein Use Case dort aufgeführt ist, ist er High Risk.
Was oft vergessen wird Ein System kann mehrere Use Cases haben. Wenn eines davon High Risk ist, gilt das System als High Risk – auch wenn 90% der Nutzung Minimal Risk wäre. Prüfen Sie alle Use Cases, nicht nur den primären.

3.2 Das Einstufungsprotokoll

Ein Use Case ist erst eingestuft, wenn das Protokoll vollständig ist. Das ist kein bürokratischer Akt – es ist Ihr Schutz, wenn ein Kunde die Einstufung bestreitet.

ElementWas dokumentiert wirdWarum es wichtig ist
Use-Case-BeschreibungKonkreter Einsatzzweck in 3–5 SätzenOhne klare Beschreibung ist jede weitere Einschätzung wertlos
Betroffene PersonengruppenWer ist von Output betroffen? Wie direkt?Bestimmt, ob Grundrechte-Relevanz besteht
Kategorie-CheckIst der Use Case in den AI-Act-Annexen aufgeführt?Verbindliche Referenz; wenn ja → High Risk
Einstufungs-ErgebnisRisikostufe + BegründungKernaussage des Protokolls
Datum und VerantwortlicherWer hat eingestuft, wannNachvollziehbarkeit bei Updates und Audits
Nächste ReviewWann wird die Einstufung überprüft?Einstufungen sind nicht permanent; Use Cases ändern sich

4. Was jede Risikostufe vertraglich bedeutet

Die Risikostufe eines Use Cases bestimmt direkt, welche Vertragsklauseln EU-Kunden einbringen – und welche Sie akzeptieren können.

4.1 Minimal Risk – was trotzdem verlangt wird

Minimal Risk bedeutet keine gesetzlichen Pflichten – aber nicht keine Kundenanforderungen. EU-Kunden verlangen oft auch für Minimal-Risk-Systeme:

Schriftliche Bestätigung der Einstufung mit Begründung

Erklärung, dass das System nicht in verbotenen Kategorien eingesetzt wird

Grundlegende Transparenz über eingesetzte Technologie

Verhandlungslinie Mehr als das oben Genannte ist für Minimal-Risk-Systeme nicht begründbar. Wenn ein Kunde High-Risk-Anforderungen für ein nachweislich Minimal-Risk-System stellt, ist das Over-Compliance – und Sie dürfen das sagen.

4.2 Transparenzpflichtige Systeme – konkrete Umsetzung

Für Chatbots und generative KI muss die Kennzeichnung im Produkt selbst sichtbar sein. Hier sind die Mindestanforderungen:

Beim Start einer Interaktion: Hinweis 'Sie interagieren mit einem KI-System'

Bei KI-generierten Texten, die als menschlich erscheinen könnten: Kennzeichnung

Bei Deepfakes: explizite Kennzeichnung als synthetischer Inhalt

Was nicht ausreicht Ein Hinweis im Impressum oder in den AGB. Die Kennzeichnung muss zum Zeitpunkt der Interaktion sichtbar sein – nicht versteckt auf Seite 47 der Nutzungsbedingungen.

4.3 High Risk – die vollständige Anforderungsliste

AnforderungWas das bedeutetTypischer Nachweis
Risikomanagement-SystemDokumentierter Prozess zur Identifikation und Kontrolle von RisikenRisikoregister + Review-Protokoll
DatengouvernanzHerkunft, Qualität, Bias-Kontrolle der TrainingsdatenData Sheet oder Data Card
Technische DokumentationAI System Card + ArchitekturübersichtStrukturiertes Dokument, nicht Freitext
Transparenz für DeployerDeployer müssen wissen, wie das System funktioniertInstructions for Use
Human OversightMechanismus, mit dem Menschen eingreifen und korrigieren könnenFreigabeprozess-Dokumentation + Eskalationspfad
LoggingProtokollierung von Ein- und AusgabenLogging-Policy + Aufbewahrungsregeln
Robustheit und CybersicherheitSystem muss Angriffen und Fehlern standhaltenTestprotokolle (Adversarial Testing)
Post-Market-MonitoringLaufende Überwachung nach InbetriebnahmeMonitoring-Konzept + KPI-Reporting

5. Die häufigsten Einstufungsfehler

Fehler 1: Use Case zu eng definieren

'Unser System ist nur ein Hilfsmittel – die Entscheidung trifft immer ein Mensch.' Das stimmt in der Theorie. In der Praxis trifft der Mensch nur dann eine eigenständige Entscheidung, wenn er auch tatsächlich in der Lage ist, die KI-Empfehlung zu überstimmen – mit realistischem Zeitaufwand und ausreichender Information.

Praxistest Wenn ein HR-Manager theoretisch die KI-Empfehlung überstimmen kann, aber in der Praxis 200 Kandidaten pro Tag bewertet und für jeden 30 Sekunden hat: Das ist kein echter Human Oversight. Das System ist High Risk.

Fehler 2: Technologie mit Use Case verwechseln

'Wir setzen GPT-4 ein, das ist Minimal Risk.' Falsch. GPT-4 selbst ist ein GPAI-Modell. Was es in Ihrer Anwendung tut, bestimmt die Risikoklasse. Wenn GPT-4 Bewerbungen filtert: High Risk. Wenn GPT-4 Meeting-Notizen zusammenfasst: Minimal Risk.

Fehler 3: Einstufung ohne Datum und Begründung

Eine Einstufung ohne Datum ist wertlos. Bei einem Audit oder einem Kundengespräch wird gefragt: Wann haben Sie eingestuft? Auf welcher Basis? Was hat sich seitdem geändert? Ohne Protokoll können Sie diese Fragen nicht beantworten.

Fehler 4: Hochstufen ohne Konsequenzen

Manche KMU stufen prophylaktisch alles als High Risk ein, 'um auf der sicheren Seite zu sein'. Das erzeugt Dokumentationspflichten, die niemand erfüllen kann und will – und es macht die Einstufung unglaubwürdig, weil klar ist, dass nicht unterschieden wurde.

Die Regel Jede Einstufung muss begründbar sein. High Risk ohne nachvollziehbare Begründung ist genauso problematisch wie Minimal Risk ohne Prüfung.

6. Verbindung zum Hauptleitfaden AI Act

ThemaIm Hauptleitfaden
Rollenbestimmung (Provider vs. Deployer)Abschnitt 1.2 mit Rollentabelle und Kipp-Risiko
Provider-Pflichten im DetailAbschnitt 2.1 mit Dokumentationsanforderungen
Vertragsklauseln und VerhandlungslinienAbschnitt 3.2 mit kommentierten Klauselbeispielen
BranchenprofileAbschnitt 5 mit vier konkreten CH-KMU-Szenarien
AI Act + NIS2 + DORA im ZusammenspielAbschnitt 6 mit Überschneidungstabelle
Hinweis
Dieser Leitfaden ersetzt keine Rechtsberatung. Er ist ein Orientierungsinstrument aus der Praxis. Bei konkreten Fragen wenden Sie sich an nbklegal.online.

Kontakt & weitere Informationen

NBK Legal
Rechts- und Compliance-Beratung
EU-Digitalregulierung · Datenschutz · Cybersicherheit
Schweiz · EU
Website
www.nbklegal.online
Alle Leitfäden der Serie
www.nbklegal.online/leitfäden

Weiter vertiefen

← Alle Leitfäden