KI wirksam im Recht einführen: Warum es eine Führungsaufgabe ist
- David Schneeberger

- 25. März
- 8 Min. Lesezeit
Was hinter den meisten gescheiterten KI-Initiativen in Kanzleien und Rechtsabteilungen steckt – und was wirksame Einführung wirklich braucht.
1. Was in den meisten Kanzleien, Rechtsdiensten und Behörden passiert – und warum es nicht funktioniert
Das Muster ist bekannt. Jemand hat ChatGPT oder Copilot ausprobiert und war beeindruckt. Ein Pilot wird gestartet. Schulungen werden organisiert. Governance-Dokumente werden aufgesetzt – irgendwann. Dann: Akzeptanzprobleme. Unklare Verantwortlichkeiten. Das Projekt verliert an Fahrt. Sechs Monate später nutzt niemand mehr, was eingeführt wurde.
Das ist kein Einzelfall. Das ist das häufigste Muster bei KI-Initiativen in juristischen Organisationen.
Und das liegt selten an der Technologie. Die Tools funktionieren. Die Anbieter liefern. Was nicht funktioniert, ist die Art und Weise, wie die Einführung angegangen wird.
Die drei häufigsten Fehler
Falscher Startpunkt: Die meisten Initiativen beginnen mit der Tool-Auswahl. Was soll eingesetzt werden? Welche Plattform? Welcher Anbieter? Dieser Startpunkt ist falsch – nicht weil Tools unwichtig wären, sondern weil ohne Klarheit über Ziele, Verantwortlichkeiten und Leitplanken keine Tool-Entscheidung tragbar ist.
Keine Verantwortungsklarheit: «Das Team», «IT» oder «alle gemeinsam» sind verantwortlich. Was das bedeutet: niemand ist verantwortlich. Keine Person, die entscheidet, wenn Probleme auftauchen. Keine Person, die misst, ob die Initiative wirkt. Keine Person, die standhält, wenn erster Widerstand entsteht.
Change und Governance nachgelagert: Wer zuerst einführt und dann regelt, reguliert Verhalten, das sich bereits etabliert hat. Das ist immer aufwendiger als Regeln, die von Anfang an den Rahmen setzen.
Das Problem liegt nicht bei der Technologie. Es liegt bei der Reihenfolge der Entscheidungen und bei fehlender Führungsklarheit.
2. Warum KI-Einführung im Recht eine Führungsaufgabe ist
Wenn KI als IT-Projekt behandelt wird, landen die entscheidenden Fragen bei den falschen Personen. IT kann Systeme integrieren, Datenschutzarchitekturen aufbauen und Lizenzverträge verhandeln. Was IT nicht leisten kann: entscheiden, welche Wirkung die Organisation erzielen will. Definieren, wer für Qualität und Haftung verantwortlich ist. Festlegen, was KI in dieser Kanzlei nicht darf.
Das sind Führungsfragen. Und wer sie nicht als Führungsfragen behandelt, delegiert die Verantwortung dorthin, wo sie nicht hingehört.
Warum das im Recht besonders gilt
Juristische Organisationen arbeiten in einem Umfeld, in dem Verantwortung nicht diffus sein darf. Jede Entscheidung muss begründbar sein. Jeder Output, der nach aussen geht, steht unter dem Namen eines Anwalts oder Anwältin. Jeder Datenschutzvorfall hat berufsrechtliche und haftungsrechtliche Konsequenzen.
KI greift in genau diesen Kern ein. In die Art, wie Arbeit entsteht. Wie Qualität gesichert wird. Wie mit Mandantendaten umgegangen wird. Welche Rolle der Mensch in der Wertschöpfung noch spielt. Das sind keine technischen Fragen. Das sind strategische und kulturelle Fragen – und sie liegen bei der Führung.
Hinzu kommt: KI verändert nicht nur einzelne Prozesse. Es verändert das Geschäftsmodell der Kanzlei. Die Basis für Mandatshonorare. Die Frage, womit Mehrwert entsteht. Kanzleien, die das nicht führen, lassen die Veränderung mit sich geschehen, anstatt sie zu gestalten.
KI-Einführung ist keine Frage des richtigen Tools. Es ist eine Frage, wie eine Organisation ihre eigene Entwicklung führt.
3. Was wirksame KI-Einführung wirklich braucht
Wirksame KI-Einführung im Recht folgt einer bestimmten Logik. Diese Logik ist keine Theorie – sie ergibt sich aus dem, was in der Praxis funktioniert und was nicht.
Sie hat drei Ebenen, die in Reihenfolge bearbeitet werden müssen.
Ebene 1: Strategische Klarheit
Bevor über Tools gesprochen wird, müssen drei Fragen beantwortet sein:
Warum führen wir KI ein? Was ist das konkrete Ziel – messbar, zeitlich verortet, einer Person zugewiesen?
Welche Wirkung erwarten wir – und wie werden wir messen, ob sie eintritt?
Welche Risiken akzeptieren wir – und welche explizit nicht?
Ohne diese Antworten ist jede nachgelagerte Entscheidung ohne Kompass. Die Tool-Auswahl wird zum Geschmacksurteil. Die Pilotauswertung wird zur Selbstbestätigung. Und das Scheitern wird nicht erkannt, weil kein Massstab definiert wurde.
Ebene 2: Strukturelle Verankerung
Das ist die Ebene, auf der die meisten Initiativen tatsächlich scheitern – nicht weil die Absichten fehlen, sondern weil die Struktur fehlt.
Wer entscheidet? Nicht «das Team» – eine benannte Person mit Mandat.
Wer trägt Verantwortung für Qualität und Compliance?
Welche Leitplanken gelten – was darf KI, was explizit nicht?
Wie ist das regulatorische Umfeld abgebildet (nDSG, DSGVO, AI Act)?
Diese Struktur muss vor der Einführung stehen. Nicht als Bürokratiepflicht. Als Voraussetzung für geordnetes Handeln.
Ebene 3: Operative Wirksamkeit
Erst wenn Ebene 1 und 2 stehen, werden operative Entscheidungen tragbar:
Welche Einsatzbereiche werden priorisiert – nach welcher Logik?
Welche Lösung passt zu diesen Bereichen und zu den festgelegten Leitplanken?
Wie wird die Einführung gesteuert – Pilot, Erfolgskriterien, Eskalation?
Wie werden Kompetenzen aufgebaut – strukturiert, nicht als einmalige Schulung?
Wie wird Wirkung gemessen und die Einführung angepasst?
Viele Organisationen beginnen auf Ebene 3. Das ist der Fehler. Operative Entscheidungen ohne strategische Klarheit und strukturelle Verankerung sind teuer zu korrigieren.
4. Reihenfolge als Führungsprinzip
Das Entscheidende ist nicht nur, welche Fragen gestellt werden. Es ist, in welcher Reihenfolge sie gestellt werden.
Reihenfolge minimiert Reibung. Wer weiss, wo die Organisation steht, bevor er Ziele setzt, setzt realistischere Ziele. Wer Leitplanken hat, bevor er Tools evaluiert, hat klare Bewertungskriterien. Wer Pilotkriterien vorher festlegt, kann eine Pilotauswertung nach der Pilotauswertung nicht mehr umdefinieren.
Was schiefgeht, wenn die Reihenfolge ignoriert wird
Das lässt sich in drei konkreten Situationen zeigen, die in der Praxis regelmässig auftreten:
Situation 1 – Governance nachgelagert: Ein Tool wurde eingeführt und läuft seit drei Monaten. Jetzt soll Governance aufgesetzt werden. Das Problem: Mitarbeitende haben bereits Gewohnheiten entwickelt. Einige davon sind regulatorisch problematisch. Governance, die im Nachhinein kommt, muss jetzt Verhalten korrigieren – das ist aufwendiger und weniger wirksam als Governance, die von Anfang an den Rahmen setzt.
Situation 2 – Tool vor Ziel: Eine Kanzlei entscheidet sich für Copilot, weil es in der M365-Umgebung bereits vorhanden ist. Erst danach wird gefragt: Wofür genau soll es eingesetzt werden? Was soll es leisten? Was nicht? Die Antworten müssen jetzt zur bereits getroffenen Tool-Entscheidung passen – statt dass die Tool-Entscheidung den Antworten folgt.
Situation 3 – Pilot ohne Kriterien: Ein Pilot wird durchgeführt. Er wird als Erfolg bewertet – obwohl niemand vorher definiert hat, was Erfolg bedeutet. Vier Wochen später ist die Nutzungsrate auf zwanzig Prozent des Pilot-Wertes gesunken. War der Pilot ein Erfolg?
In allen drei Situationen ist das Problem nicht böser Wille. Es ist fehlende Reihenfolge.
5. Was Führung konkret leisten muss
Führung in der KI-Einführung ist keine abstrakte Verantwortung. Sie ist ein Set konkreter Aufgaben, die nicht delegiert werden können.
Die Fragen, die Führung beantworten muss
«Warum?» – Die strategische Begründung für die KI-Einführung. Nicht «weil alle es tun» und nicht «um Kosten zu sparen» als einzige Antwort. Sondern: Welche Wirkung für welche Bereiche, warum jetzt, und was sind die Konsequenzen, wenn nicht gehandelt wird?
«Was darf KI nicht?» – Die Grenzziehung ist Führungsarbeit. Welche Aufgaben bleiben beim Menschen, weil die Verantwortung nicht delegierbar ist? Welche Daten bleiben ausserhalb von KI-Systemen? Diese Grenzen schützen die Kanzlei – berufsrechtlich, haftungsrechtlich, reputationsbezogen.
«Wer ist verantwortlich?» – Eine Person, nicht ein Komitee. Diese Person entscheidet, wenn Probleme auftreten. Sie trägt Verantwortung für Qualität. Sie berichtet an die Führungsebene. Sie bleibt nach dem Pilot da.
«Wie sehen wir, ob es wirkt?» – Wirkungssteuerung ist Führungsverantwortung. Nicht «das sehen wir dann». Sondern: Welche Kennzahlen, gemessen von wem, mit welcher Konsequenz, wenn die erwartete Wirkung ausbleibt?
Was Führung nicht tun sollte
Die Einführung vollständig delegieren. Einen externen Berater oder die IT-Abteilung mit «der KI» beauftragen und sich zurückziehen. Sich bei der ersten Kritik von der Initiative distanzieren. Versprechen machen, die die Technologie nicht halten kann.
Führung, die bei erster Schwierigkeit zurückrudert, sendet ein verheerendes Signal: dass es sich um ein Experiment handelt, nicht um eine strategische Entscheidung.
Was Führung nicht trägt, trägt niemand. KI-Einführungen ohne sichtbares Führungscommitment scheitern nicht an der Technologie. Sie scheitern an Führungsdefiziten.
6. Warum das im Rechtsumfeld besondere Anforderungen stellt
Juristische Organisationen sind keine gewöhnlichen Unternehmen. Ihre spezifischen Eigenschaften stellen besondere Anforderungen an die KI-Einführung – und machen bestimmte Ansätze, die in anderen Branchen funktionieren, ungeeignet.
Verantwortung ist nicht teilbar: Im Recht steht am Ende immer ein Name. Der Anwalt, der unterschreibt. Die Richterin, die das Mandat führt. KI-Outputs, die in mandatsrelevante Dokumente einfliessen, müssen von einer fachkundigen Person verantwortet werden und nicht von einem Algorithmus. Diese Verantwortungsstruktur ist berufsrechtlich verankert und durch KI nicht aufhebbar.
Mandatsgeheimnis und Datenschutz sind keine Compliance-Themen: Sie sind Grundlagen des Vertrauensverhältnisses zwischen Anwalt und Mandant. Wer Mandantendaten in externe KI-Systeme eingibt, ohne die Implikationen zu kennen und zu steuern, riskiert mehr als einen Datenschutzvorfall. Dasselbe gilt für Behörden und Rechtsdienste.
Reputation ist das Kapital: Ein Fehler, der nach aussen dringt, hat in juristischen Organisationen weitreichendere Konsequenzen als in anderen Branchen. Das begründet eine erhöhte Risikoaversion – die bei der KI-Einführung nicht ignoriert, sondern eingebaut werden muss.
Partnerschaftsstrukturen verlangsamen Entscheidungen: In Kanzleien mit Partnerschaftsstruktur brauchen Entscheidungen Konsens oder zumindest Duldung. Ähnliches kennen wir aus der Justiz und Behörden. Das ist kein Fehler im System – es ist ein Merkmal, das die Einführungsstrategie bedingt. Wer Konsensbildung überspringt, baut auf einem Fundament, das trägt, solange niemand nachfragt.
Geschäftsmodell-Implikationen sind real: Wenn KI die Recherchezeit halbiert und die Kanzlei nach Stunden abrechnet, ist das keine neutrale Produktivitätssteigerung. Es ist eine strategische Frage, die die Führung beantworten muss und nicht die IT-Abteilung.
7. Was eine strukturierte KI-Einführung umfasst
Eine wirksame KI-Einführung im Recht folgt einer Abfolge von Schritten. Diese Abfolge ist nicht beliebig, sondern sie ergibt sich aus der Logik der Reihenfolge.
Schritt 1: Standort klären
Wo steht die Organisation heute? Welche KI-Nutzung findet bereits statt, gesteuert oder ungesteuert? Was sind die organisationalen, kulturellen und regulatorischen Ausgangsbedingungen? Standortklarheit ist die Voraussetzung für realistische Ziele.
Schritt 2: Ziele schärfen
Was soll KI leisten: messbar, zeitlich, mit Verantwortung? Zwei bis drei konkrete Ziele sind tragfähiger als eine Liste von zehn Wünschen.
Schritt 3: Leitplanken setzen
Was darf KI in dieser Organisation und was explizit nicht? Wer entscheidet? Welche regulatorischen Anforderungen gelten? Dieser Schritt erzeugt den Ordnungsrahmen, der alle nachgelagerten Entscheidungen strukturiert.
Schritt 4: Prioritäten setzen
Wo soll KI zuerst wirken? Welche Einsatzbereiche versprechen die grösste Wirkung bei vertretbarem Risiko und organisationaler Machbarkeit?
Schritt 5: Lösung wählen
Erst jetzt: Welche Tools und Lösungen passen zu den definierten Prioritäten und Leitplanken? Die Tool-Auswahl folgt aus Kriterien, nicht aus Demo-Eindrücken.
Schritt 6: Einführung steuern
Umsetzung mit definierten Erfolgskriterien, klarer Verantwortung, Qualitätssicherung und vordefinierter Eskalationslogik. Ein Pilot kann vorgeschoben werden, aber als Lernexperiment, nicht als unkontrollierter Testbetrieb.
Schritt 7: Kompetenzen aufbauen
Nicht eine Schulung, sondern eine Befähigungsstruktur: differenziert nach Rollen, kontinuierlich, mit dauerhafter Verantwortung.
Schritt 8: KI verankern
KI als Teil der normalen Arbeitsweise, nicht als Sonderprojekt. Integration in Steuerungssysteme, Prozesse und Governance.
Schritt 9: Wirkung steuern
Messen, ob die definierten Ziele erreicht werden. Anpassen, wenn nicht. Skalieren, wenn ja. Wirkungssteuerung ist der Mechanismus, der aus einer einmaligen Einführung eine dauerhafte Fähigkeit macht.
Diese neun Schritte sind kein lineares Projekt. Sie sind eine Führungsarchitektur, die kontinuierlich gelebt wird.
8. Change und Kommunikation: Warum beides von Anfang an beginnt
In vielen Einführungsprojekten taucht Change Management als letzter Punkt auf. Wenn das Projekt bereits durch ist. Wenn das Tool bereit ist. Dann werden die Mitarbeitenden «mitgenommen».
Das ist zu spät.
Jeder Schritt einer KI-Einführung erzeugt Unsicherheiten. Die Standortklärung weckt Fragen: Was wird hier analysiert? Was folgt daraus für meine Stelle? Die Leitplankendiskussion weckt Fragen: Was darf ich jetzt nicht mehr? Das Projekt weckt Fragen: Werde ich beobachtet? Werde ich ersetzt?
Wenn diese Fragen nicht aktiv beantwortet werden, werden sie von Gerüchten beantwortet. Und Gerüchte erzeugen Widerstand.
Kommunikation, die von Anfang an klar macht, was passiert, warum es passiert und was es für die Mitarbeitenden bedeutet, ist kein PR-Aufwand. Es ist Führungsaufgabe.
9. Drei Fragen zur Standortbestimmung
Diese drei Fragen zeigen, ob eine KI-Initiative auf tragfähigem Fundament steht.
Frage 1: Kann jemand in der Führungsebene in einem Satz sagen, welche konkrete Wirkung KI in zwölf Monaten erreicht haben soll: messbar, nicht als Wunschformulierung?
Wenn nicht: Die strategische Klarheit fehlt. Alles Operative baut auf einer unsicheren Grundlage.
Frage 2: Gibt es eine schriftliche Antwort auf die Frage, was KI in dieser Organisation nicht darf?
Wenn nicht: Der Ordnungsrahmen fehlt. Jeder Mitarbeitende handelt nach eigenem Ermessen.
Frage 3: Gibt es eine benannte Person, die für den Erfolg der KI-Einführung verantwortlich ist – nicht als IT-Projektleiter, sondern als Führungsverantwortliche?
Wenn nicht: Steuerung und Wirkungsmessung werden nicht funktionieren.
Drei «Ja»-Antworten bedeuten nicht, dass alles gut ist. Sie bedeuten, dass das Fundament steht. Alles weitere baut darauf auf.
10. Beratungsbegleitung
Diese Seite beschreibt, was wirksame KI-Einführung im Recht braucht. Die Umsetzung ist eine andere Aufgabe – und eine, die strukturierte Begleitung erfordert.
Ich begleite Kanzleien, Rechtsabteilungen und juristische Facheinheiten in der DACH-Region bei der strategischen KI-Einführung. Nicht als Technologieberater. Als Begleiter von Führungs- und Transformationsprozessen.
Der Einstieg beginnt mit einer Standortklärung: Wo steht Ihre Organisation? Was ist bereits vorhanden? Was sind die nächsten drei Entscheidungen?



