top of page
  • LinkedIn
  • Youtube

KI rechtssicher einsetzen: Was juristische Organisationen wirklich wissen müssen

  • Autorenbild: David Schneeberger
    David Schneeberger
  • 29. März
  • 6 Min. Lesezeit

Datenschutz, Berufsgeheimnis, Haftung, AI Act – was gilt wirklich, was ist Mythos, und wie kommt man vom Lähmungsreflex zur Handlungsfähigkeit


1. Die falsche Ausgangsfrage

In fast jeder Kanzlei und Rechtsabteilung, die KI einführen will, folgt irgendwann derselbe Moment: Jemand sagt «Datenschutz» und alles stoppt. Das Projekt wird vertagt. Die Richtlinie wird in Auftrag gegeben. Der Anbieter wird auf die Warteliste gesetzt.

Das ist kein Rechtsreflex. Es ist ein Unsicherheitsreflex. Und er kostet real: Zeit, Wettbewerbsfähigkeit, die Chance, Abläufe zu verbessern, die sich dafür aufdrängen.

Der Fehler liegt nicht im Datenschutzrecht. Er liegt in der Frage, die gestellt wird. Die meisten Organisationen fragen: «Dürfen wir KI einsetzen?» Die richtige Frage ist: «Haben wir eine ausreichende Rechtsgrundlage, klare Verantwortlichkeit und ein angemessenes Schutzniveau für diese konkrete Datenbearbeitung?»

Diese Frage ist schwieriger, aber sie führt zu konkreten Antworten. Die erste Frage führt nur zu Blockaden.

Datenschutz ist kein Verbot. Er ist ein Rahmen, der Gestaltung verlangt. Wer ihn als Killerargument einsetzt, vermeidet meist keine Risiken – sondern Entscheidungen.

2. Was rechtlich tatsächlich gilt – die drei Schutzebenen

Juristische Organisationen arbeiten mit Informationen, die auf drei verschiedenen Schutzebenen liegen. Alle drei sind beim KI-Einsatz relevant und sie werden in der Praxis häufig vermischt.


Ebene 1: Datenschutzrecht

Das Datenschutzrecht schützt Personendaten, d.h. Informationen über natürliche Personen. In der Schweiz gilt das revidierte DSG, in der EU/EWR die DSGVO, in Liechtenstein ebenfalls die DSGVO. Die Grundprinzipien sind ähnlich: Zweckbindung, Verhältnismässigkeit, Transparenz, angemessenes Schutzniveau.

Beim KI-Einsatz stellt sich nicht die Frage, ob KI zulässig ist. Die Frage ist, ob für die konkrete Datenbearbeitung eine Rechtsgrundlage besteht und ob das Schutzniveau dem Risiko entspricht. Das ist dieselbe Frage, die sich bei Cloud-Diensten, ausgelagerter IT und klassischen Softwarelösungen stellt. KI ist kein Sonderfall.


Ebene 2: Berufsgeheimnis

Das Berufsgeheimnis nach Art. 321 StGB schützt Informationen, die Anwältinnen, Anwälte und andere berufsgeheimnispflichtige Personen im Rahmen ihrer Tätigkeit erfahren. Es geht weiter als das Datenschutzrecht: Es schützt nicht nur Personendaten, sondern alle mandatsrelevanten Informationen, auch von juristischen Personen.

Darf man solche Informationen an KI-Systeme weitergeben? Ja, unter einer Bedingung: Der Anbieter muss im Subordinationsverhältnis zur Kanzlei stehen. Das heisst: Er handelt ausschliesslich nach Weisung, bearbeitet die Daten für keinen eigenen Zweck und steht nicht als unberechtigter Dritter aussen. Im Datenschutzrecht nennt man das Auftragsbearbeitung. Im Berufsgeheimnisrecht fehlt der Begriff, häufig spricht man aber von Hilfsperson, aber der Mechanismus ist derselbe.

Kritisch wird es, wenn der Provider die Daten für eigene Zwecke nutzt, etwa für das Training seiner Modelle. Dann verlässt er das Subordinationsverhältnis und wird zum unberechtigten Dritten. Berufsgeheimnisschutz und Datenschutz sind dort verletzt.


Ebene 3: Amtsgeheimnis

Für Behörden und staatliche Stellen gilt das Amtsgeheimnis nach Art. 320 StGB. Die Anforderungen sind vergleichbar mit dem Berufsgeheimnis, aber der institutionelle Kontext ist ein anderer. Kantonale Datenschutzgesetze können zusätzliche Einschränkungen enthalten. Einzelne Kantone wie Genf kennen besonders restriktive Regelungen zur Datenbekanntgabe ins Ausland.

Datenschutz schützt Personendaten. Berufs- und Amtsgeheimnis schützen darüber hinaus alle mandats- oder amtsrelevanten Informationen. Wer nur an Datenschutz denkt, lässt eine Schutzebene unbeachtet.

3. Die AVV-Logik: Was Verträge leisten – und was nicht

Wer KI-Tools einsetzt, bei denen ein externer Anbieter Daten verarbeitet, braucht einen Auftragsverarbeitungsvertrag (AVV / DPA). Das ist gesetzlich vorgeschrieben und in der Praxis oft der erste strukturierte Schritt zu rechtssicherem Einsatz.

Was ein AVV leistet: Er regelt, dass der Anbieter die Daten nur für den vereinbarten Zweck bearbeitet, angemessene Sicherheitsmassnahmen trifft und keine Daten an Dritte weitergibt. Er ist die vertragliche Grundlage für die Datenbearbeitung durch den Dritten.

Was ein AVV nicht leistet: Er deckt nur Personendaten ab. Geschäftsgeheimnisse, mandatsrelevante Informationen juristischer Personen, Amtsgeheimnisse – diese fallen aus dem Schutzbereich eines Standard-AVV heraus. In der Praxis wird deshalb eine zusätzliche Klausel benötigt, die den AVV-Schutz analog auf alle geheimnisgeschützten Informationen ausdehnt.


Zwei weitere kritische Punkte: Erstens enthalten viele AVV-Standardverträge grosser Anbieter Klauseln zum Abuse Monitoring. Das heisst, der Anbieter behält sich vor, Inputs und Outputs auf missbräuchliche Nutzung zu prüfen, ggf. durch menschliche Mitarbeitende. Das ist im Strafrecht und anderen heiklen Praxisgebieten besonders problematisch. Zweitens enthalten manche Verträge Trainingsdaten-Klauseln, nach denen der Anbieter Eingaben für die Verbesserung seiner Modelle verwenden darf. Beides verletzt das Subordinationsverhältnis.

Ein AVV, der keine Berufsgeheimnisklausel enthält, schützt nur einen Teil der Informationen, die in einer Kanzlei existieren. Auf den anderen Teil hat der Anbieter vertraglich freie Hand.

4. Haftung: Wer verantwortet KI-Outputs?

KI ist kein Rechtssubjekt. Sie haftet nicht. Die Organisation, die ein KI-System einsetzt, bleibt Trägerin der Verantwortung und dies nach aussen wie nach innen. Das gilt unabhängig davon, ob eine Aussage von einer Mitarbeitenden, einer Textvorlage oder einem KI-System stammt.

Disclaimer helfen. Aber sie helfen weniger, als viele denken. Ein Hinweis «Diese Antwort wurde automatisch generiert» ist kein Haftungsschutz. Er kann Erwartungshaltungen dämpfen und den Kontext klarstellen. Er kann keine gesetzlichen Sorgfaltspflichten aushebeln und keine systematischen Fehler kompensieren.

Entscheidend für die Haftungsfrage ist der Kontext: Ist die KI-Aussage informativ oder entscheidungsrelevant? Allgemein oder einzelfallbezogen? Unverbindlich oder handlungsleitend? Je näher an einer konkreten Entscheidung, desto höher die Anforderungen an Kontrolle und Absicherung.

Für Anwältinnen und Anwälte gilt dies besonders: KI-Outputs, die in mandatsrelevante Dokumente einfliessen, müssen fachlich geprüft und verantwortet werden. Die Unterschrift unter einem Dokument ist keine Formalität, sie ist Ausdruck der Verantwortungsübernahme.

Wer KI als Produktivitätswerkzeug einsetzt, ohne die Qualitätsprüfung mitzudenken, beschleunigt möglicherweise den Weg zu einem Fehler, der Haftung auslöst.

5. AI Act: Was Schweizer Kanzleien wissen müssen

Der AI Act der EU gilt für die Schweiz nicht direkt. Für Kanzleien mit EU-Mandanten, EU-Datenverarbeitung oder EU-Niederlassungen ist er aber als regulatorischer Orientierungsrahmen relevant und wird es in Zukunft stärker sein.

Der AI Act klassifiziert KI-Systeme in vier Risikoklassen. Für die meisten operativen Nutzungsszenarien in Kanzleien, d.h. Textgenerierung, Recherche, Vertragsanalyse, Dokumentenzusammenfassung, gilt die niedrigste Risikoklasse. Systeme, die in justiziellen Entscheidungsprozessen eingesetzt werden oder dort zur Beweiswürdigung beitragen, können in die Hochrisiko-Kategorie fallen.

Relevant für die Praxis ist die Risikoklassen-Einschätzung des konkreten Systems im konkreten Einsatzkontext. Diese Einschätzung gehört in den Leitplanken-Prozess, nicht als nachträgliche Compliance-Übung, sondern als Teil der Entscheidungsgrundlage vor der Tool-Auswahl.


6. Governance vs. Richtlinie: Der Unterschied, der entscheidet

Viele Organisationen reagieren auf KI mit einer KI-Richtlinie. Das beruhigt. Es schafft Ordnung auf Papier. Es löst aber kein strukturelles Problem.

Eine Richtlinie beschreibt, was erlaubt ist und was nicht. Sie beantwortet nicht: Wer entscheidet in Grenzfällen? Wer kontrolliert die Einhaltung? Was passiert, wenn ein Mitarbeitender die Richtlinie verletzt? Wer ist verantwortlich, wenn KI einen Output produziert, der falsch ist?

Governance ist ein Entscheidungssystem, keine Dokumentensammlung. Sie beantwortet: Wer darf was entscheiden? Wie werden Risiken erkannt und gesteuert? Was passiert, wenn der Standardfall endet? Ohne diese Antworten bleibt jede Richtlinie Apell ohne Konsequenz.

Vier Bausteine minimaler Governance:

  • Erstens klare Zuständigkeit: eine benannte Person, die Grenzfälle entscheidet und Verantwortung trägt.

  • Zweitens ein Scope-Modell (Grün/Gelb/Rot): was ist Standard, was braucht Freigabe, was ist ausgeschlossen.

  • Drittens eine Eskalationslogik: wer wird einbezogen, wenn ein Fall ausserhalb des Standards liegt.

  • Viertens eine Lernschleife: wie werden Erfahrungen zurückgespielt und Regeln angepasst.

KI-Governance muss nicht komplex sein. Sie muss funktionstüchtig sein: klare Linien, benannte Personen, lebende Prozesse.

 

7. Der pragmatische Weg: Rechtssicherheit ohne Lähmung

KI-Einführung ohne rechtliche Grundlage ist leichtfertig. KI-Blockade wegen übertriebener Risikowahrnehmung ist teuer. Der Weg dazwischen ist nicht kompliziert, aber er erfordert strukturierte Arbeit.

Schritt 1: Daten klassifizieren

Welche Daten werden in KI-Systeme eingegeben? Personendaten? Mandanteninformationen? Öffentlich zugängliche Informationen? Die Klassifikation bestimmt, welche Schutzebenen gelten und welche Massnahmen erforderlich sind.

Schritt 2: Anbieter prüfen

Was macht der Anbieter mit den Eingaben? Gibt es einen AVV? Enthält er eine Berufsgeheimnisklausel? Gibt es Abuse-Monitoring-Klauseln? Wird für Trainingszwecke verwendet? Diese Fragen sind vor der Tool-Entscheidung zu klären und nicht danach.

Schritt 3: Scope festlegen

Welche Use Cases sind für welche Datenkategorien freigegeben? Was braucht eine Einzelfallfreigabe? Was ist ausgeschlossen? Dieser Scope-Rahmen ist das operative Kernstück der Governance.

Schritt 4: Qualitätssicherung einbauen

Wie werden KI-Outputs geprüft, bevor sie in mandatsrelevante Dokumente einfliessen? Wer ist zuständig? Wie wird dokumentiert? Qualitätssicherung ist nicht optional, aber sie ist der Mechanismus, der die Verantwortungsübernahme operativ macht.

Schritt 5: Governance leben

Eine einmalige Freigabe genügt nicht. Governance lebt durch regelmässige Überprüfung, aktualisierten Scope, gelebte Eskalationslogik und Lernschleifen aus der tatsächlichen Nutzung.

Die meisten Organisationen, die Cloud und externe IT-Dienste seit Jahren rechtssicher nutzen, haben 80 Prozent der Grundlagenarbeit für KI bereits erledigt. Die restlichen 20 Prozent betreffen Entscheidungswirkung, Transparenz und spezifische KI-Risiken.

8. Selbsttest: Drei Fragen zur eigenen Ausgangslage

Frage 1: Können Sie für den geplanten KI-Use-Case in zwei Sätzen sagen, welche Daten in welches System eingehen und ob der Anbieter ausschliesslich nach Weisung handelt?

Wenn nicht: Die Grundlagenarbeit zu Rechtsgrundlage und Anbietervertrag steht noch aus.

Frage 2: Ist geregelt, wer in Ihrer Organisation über KI-Grenzfälle entscheidet und dies mit Namen, nicht mit Abteilungsbezeichnung?

Wenn nicht: Die Governance-Struktur fehlt. Entscheidungen werden situativ oder gar nicht getroffen.

Frage 3: Ist festgelegt, wie KI-Outputs geprüft werden, bevor sie nach aussen gehen oder in Mandatsdokumente einfliessen?

Wenn nicht: Die Qualitätssicherung fehlt. Die Verantwortung hängt in der Luft.


9. Beratungsbegleitung

Ich begleite Kanzleien, Rechtsabteilungen, Gerichte und juristische Facheinheiten in der DACHLI-Region bei der rechtlich fundierten und praxistauglichen KI-Einführung. Als Anwalt und Praktiker kenne ich beide Seiten: die rechtlichen Anforderungen und die operative Realität.

Das Angebot umfasst den Kurs «Rechtssicher mit KI», strategische Beratung, Inhouse-Schulungen und Keynotes zu diesen Themen.


 

Spannende Themen in diesem Bereich

→  Datenschutzrecht und KI: Was gilt in der Schweiz?

→  Berufsgeheimnis und KI: Wann ist die Weitergabe zulässig?

→  Amtsgeheimnis und KI: Was Behörden anders trifft

→  AVV mit KI-Providern: Was muss drinstehen?

→  Abuse Monitoring und Trainingsdaten: Die versteckten Vertragsrisiken

→  Haftung für KI-Outputs: Was Anwälte wissen müssen

→  AI Act: Risikoklassen und Relevanz für Schweizer Kanzleien

→  KI-Governance vs. KI-Richtlinie: Der Unterschied

→  Verantwortungsstrukturen für KI im Unternehmen

→  Datenschutz als Killerargument: Warum er selten stimmt

bottom of page