Wann liegt bei KI eine automatisierte Einzelentscheidung vor – und wann nicht?
Dec 27, 2025Eine automatisierte Einzelentscheidung liegt nur dann vor, wenn eine Entscheidung ausschliesslich automatisiert, mit rechtlicher Wirkung oder vergleichbarer erheblicher Beeinträchtigung getroffen wird. Der Einsatz von KI erfüllt diese Voraussetzungen in der Praxis deutlich seltener, als häufig angenommen wird.
Warum diese Abgrenzung entscheidend ist
Kaum ein Begriff wird im Zusammenhang mit KI so reflexartig verwendet wie die „automatisierte Einzelentscheidung“.
Das Problem: Wer sie zu früh bejaht, überreguliert. Wer sie zu leichtfertig verneint, übersieht echte Risiken.
Rechtlich relevant ist nicht, dass KI eingesetzt wird, sondern wie stark sie entscheidet.
Der rechtliche Ausgangspunkt
Das Datenschutzrecht knüpft die automatisierte Einzelentscheidung an klare Voraussetzungen (Art. 21 DSG):
-
eine Entscheidung
-
mit rechtlicher Wirkung oder vergleichbarer erheblicher Beeinträchtigung
-
die ausschliesslich automatisiert erfolgt
Diese Schwelle ist bewusst hoch angesetzt.
Die falsche Annahme
In der Praxis begegnet man oft folgender Verkürzung:
„KI analysiert etwas → also automatisierte Einzelentscheidung.“
Das ist falsch.
Analyse, Empfehlung, Vorselektion oder Entscheidungsunterstützung genügen nicht.
Entscheidend ist, ob ein Mensch die Entscheidung noch eigenständig trifft – oder ob er faktisch nur abnickt.
Was keine automatisierte Einzelentscheidung ist
Typische Konstellationen, die nicht unter Art. 21 DSG fallen:
-
KI schlägt eine Antwort oder Massnahme vor, ein Mensch entscheidet
-
KI priorisiert Fälle, Mitarbeitende bearbeiten sie
-
KI bewertet Risiken, die Entscheidung bleibt beim Fachbereich
-
KI generiert Texte, die geprüft und freigegeben werden
Solange ein Mensch inhaltlich prüft und verantwortet, fehlt das Merkmal der ausschliesslichen Automatisierung.
Weitere Ausnahmen
Es liegt zudem keine automatisierte Einzelentscheidung vor, wenn nach Art. 21 Abs. 3 DSG
- die automatisierte Einzelentscheidung in unmittelbarem Zusammenhang mit dem Abschluss oder der Abwicklung eines Vertrags zwischen dem Verantwortlichen und der betroffenen Person steht und ihrem Begehren stattgegeben wird; oder
- die betroffene Person ausdrücklich eingewilligt hat, dass die Entscheidung automatisiert erfolgt.
Wann die Schwelle überschritten wird
Kritisch wird es dort, wo menschliche Mitwirkung nur noch formal ist.
Beispiele:
-
automatische Ablehnung oder Genehmigung ohne echte Prüfung
-
faktische Bindung an den KI-Output
-
Entscheidungsprozesse, die so getaktet sind, dass Abweichungen nicht vorgesehen sind
Hier kann eine automatisierte Einzelentscheidung vorliegen – selbst wenn nominell noch ein Mensch involviert ist.
Praxisreflexion
In der Praxis liegt das Risiko selten im System, sondern im Prozessdesign.
Organisationen sagen:
„Bei uns entscheidet immer noch ein Mensch.“
Bei näherem Hinsehen zeigt sich:
-
Zeitdruck
-
fehlende Alternativen
-
implizite Erwartung, dem System zu folgen
Rechtlich zählt nicht die Organigramm-Logik, sondern die tatsächliche Entscheidungsfreiheit.
Konsequenzen, wenn Art. 21 DSG greift
Liegt eine automatisierte Einzelentscheidung vor, entstehen zusätzliche Pflichten, unter anderem:
-
besondere Informationspflichten
-
Anspruch auf Möglichkeit, eigenen Standpunkt darlegen zu können,
-
Anspruch auf menschliche Überprüfung
-
erhöhte Anforderungen an Transparenz und Dokumentation (insb. bei Bundesorgangen)
Diese Pflichten sind kein Selbstzweck. Sie setzen dort an, wo menschliche Kontrolle faktisch entfällt.
Abgrenzung zum EU-Recht
Die DSGVO kennt mit Art. 22 eine sehr ähnliche Regelung zu Art. 21 DSG.
Der AI Act nimmt das Thema ebenfalls auf und zwar in Art. 86:
"Personen, die von einer Entscheidung betroffen sind, die der Betreiber auf der Grundlage der Ausgaben eines in Anhang III aufgeführten Hochrisiko-KI‑Systems [...] getroffen hat und die rechtliche Auswirkungen hat oder sie in ähnlicher Art erheblich auf eine Weise beeinträchtigt, die ihrer Ansicht nach ihre Gesundheit, ihre Sicherheit oder ihre Grundrechte beeinträchtigt, haben das Recht, vom Betreiber eine klare und aussagekräftige Erläuterung zur Rolle des KI‑Systems im Entscheidungsprozess und zu den wichtigsten Elementen der getroffenen Entscheidung zu erhalten."
Für Schweizer Unternehmen mit EU-Bezug bedeutet das:
-
DSG bleibt massgeblich für die Frage der automatisierten Einzelentscheidung
-
der AI-Act kann zusätzliche Organisations- und Transparenzpflichten auslösen
-
die Begriffe sind nicht deckungsgleich und dürfen nicht vermischt werden
Kurze Einordnung für die Praxis
-
KI ≠ automatisierte Einzelentscheidung
-
Entscheidungsunterstützung ≠ Entscheidungsersetzung
-
Formale menschliche Beteiligung genügt nicht
-
Entscheidend ist die tatsächliche Entscheidungsfreiheit
Selbsttest
-
Kann eine Entscheidung ohne den KI-Output realistisch anders ausfallen?
-
Gibt es einen vorgesehenen Abweichungs- oder Eskalationsprozess?
-
Trägt eine natürliche Person die Entscheidung inhaltlich und nachvollziehbar?
Wenn eine dieser Fragen ehrlich mit Nein beantwortet werden muss, sollte Art. 21 DSG genauer geprüft werden.
Einordnung
Die automatisierte Einzelentscheidung ist kein KI-Standardfall, sondern ein Ausnahmefall. Wer sie überall sieht, reguliert Symptome statt Strukturen.
SUBSCRIBE FOR WEEKLY LIFE LESSONS
Lorem ipsum dolor sit amet, metus at rhoncus dapibus, habitasse vitae cubilia odio sed.
We hate SPAM. We will never sell your information, for any reason.