Self-Check · AI Act · CH

AI Act Self-Check (CH)

Strukturelle Reife, AI-Governance & Regulatorische Anschlussfähigkeit

10–15 Min Selbstprüfung AI Act · Schweiz

Was dieser Self-Check Ihnen zeigt

AI-Act-Readiness aus Schweizer Perspektive – mit Fokus auf grenzüberschreitende Auswirkungen.

KontextEU AI Act (EU) 2024/1689
Gewichtung★★ = doppelt, ★ = einfach
Fragen25
Bearbeitungszeitca. 10–15 Min.

Zweck & Einleitung

Dieser Self-Check dient als pragmatischer Spiegel, um einzuschätzen, wie gut Ihre Organisation auf die Anforderungen des EU AI Act (Verordnung (EU) 2024/1689) vorbereitet ist.

Der Check beleuchtet Risikoklassifizierung, Governance-Strukturen, Dokumentation, Risikomanagement, Datenqualität sowie Verantwortlichkeiten als Provider oder Deployer – mit Fokus auf High-Risk-AI-Systeme (ab 2. August 2026 voll anwendbar).

Wichtig

Kein offizieller Test, kein Scoring im regulatorischen Sinne, kein Benchmark. Ehrliche Selbsteinschätzung – idealerweise vor einer Konformitätsbewertung oder Prüfung. ★★-Fragen werden doppelt gewichtet. Der Check richtet sich primär an Organisationen mit High-Risk-AI-Systemen.

Antwortoptionen

Ja · 2

Vollständig und belastbar umgesetzt, dokumentiert, gelebt und erprobt

Teilweise · 1

Vorhanden, aber lückenhaft, personenabhängig oder ungetestet

Nein · 0

Nicht oder kaum vorhanden

n/a · –

Nicht anwendbar (wird bei der Berechnung ignoriert)

Fragebogen

Klicken Sie für jede Frage auf Ja, Teilweise, Nein oder n/a. Die Auswertung erfolgt automatisch nach der letzten Frage. ★★-Fragen werden doppelt gewichtet.

Fortschritt 0 / 25
0 % beantwortet
A. Risikoklassifizierung
01
Haben Sie alle AI-Systeme systematisch auf Risikokategorien (verboten, high-risk, limited-risk, minimal-risk) geprüft und dokumentiert? ★★
02
Gibt es kritisches Klassifizierungswissen, das nur einzelne Personen vollständig überblicken? ★★
Umkehrfrage: Nein = gut (2 Punkte), Ja = schlecht (0 Punkte)
03
Ist dokumentiert, warum ein System (nicht) als high-risk eingestuft wurde (z. B. Annex I/III-Prüfung)? ★★
B. Governance & Management
04
Sind Rollen, Verantwortlichkeiten und Entscheidungsbefugnisse im AI-Risikomanagement klar definiert und allen bekannt? ★★
05
Überwacht die Geschäftsführung aktiv AI-Risiken und lässt sich regelmässig schulen (AI Literacy)? ★★
06
Gibt es funktionierende Vertretungsregelungen für Schlüsselrollen in der AI-Governance?
C. Risikomanagement
07
Existiert ein kontinuierliches Risikomanagementsystem für High-Risk-AI (Identifikation, Bewertung, Mitigation über den gesamten Lifecycle)? ★★
08
Gibt es eine einheitliche, dokumentierte Logik zur Bewertung von Risiken für Gesundheit, Sicherheit und Grundrechte? ★★
09
Werden bekannte und vorhersehbare Risiken (inkl. Missbrauch) systematisch minimiert? ★★
D. Daten & Training
10
Werden Trainings-, Validierungs- und Testdaten systematisch auf Qualität, Repräsentativität und Bias geprüft (Data Governance)? ★★
11
Ist dokumentiert, warum Datenanforderungen (nicht) erfüllt wurden?
E. Technische Dokumentation
12
Liegt eine vollständige technische Dokumentation vor (gem. Annex IV: Design, Daten, Risiken, Tests etc.)? ★★
13
Ist das System für Logging/Traceability ausgelegt (automatische Ereignisprotokollierung)? ★★
14
Würde ein externer Prüfer die Dokumentation ohne grosse Nachfragen verstehen?
F. Human Oversight & Robustheit
15
Ist Human Oversight (menschliche Aufsicht) effektiv im Design verankert (z. B. Interventionsmöglichkeiten)? ★★
16
Erfüllt das System Anforderungen an Genauigkeit, Robustheit und Cybersicherheit (inkl. Adversarial Testing)? ★★
G. Konformitätsbewertung
17
Wurde eine Konformitätsbewertung (intern oder durch Notified Body) durchgeführt oder geplant? ★★
18
Liegt eine EU-Konformitätserklärung vor und ist CE-Kennzeichnung geplant? ★★
19
Ist die Registrierung in der EU-Datenbank vorbereitet? ★★
H. Deployer-Pflichten
20
Wurde eine Fundamental Rights Impact Assessment (FRIA) für relevante High-Risk-Einsätze durchgeführt? ★★
21
Werden Mitarbeiter vor Einsatz von High-Risk-AI informiert und Logs mindestens 6 Monate aufbewahrt?
22
Existiert ein Prozess zur Meldung von Risiken/Incidents an Provider und Behörden? ★★
I. Post-Market Monitoring
23
Gibt es ein System zum Post-Market-Monitoring (Vorfallsüberwachung, Korrekturmassnahmen)? ★★
24
Könnten zentrale AI-Verantwortlichkeiten geordnet übergeben werden (ohne Wissensverlust)?
25
Ist die Organisation primär durch Strukturen stabil – oder durch einzelne AI-«Helden»? ★★

Ihr Ergebnis

Wichtige Begriffe

ProviderEntwickler/Hersteller eines AI-Systems – trägt die Hauptlast der Pflichten bei High-Risk.
DeployerNutzer/Einsatzorganisation eines AI-Systems (z. B. Unternehmen, das ein High-Risk-System einsetzt).
High-Risk-AISysteme in Annex I/III (z. B. Biometrie, Kreditscoring, kritische Infrastruktur) – erfordern Risikomanagement, Dokumentation, Konformitätsbewertung und CE-Markierung.
FRIAFundamental Rights Impact Assessment – Bewertung der Auswirkungen auf Grundrechte (für bestimmte Deployer obligatorisch).

KI-Compliance ist kein Dokumentationsprojekt – sie ist der Nachweis, dass Sie wissen, was Ihr System tut, warum, und was passiert, wenn es schiefläuft.

Weiter vertiefen

← Wissensraum