Wenn ich wählen könnte, würde ich mir für jeden Menschen in einem Konflikt eine zugewandte, erfahrene Mediatorin wünschen. Jemanden, der zuhört, der die richtigen Fragen stellt, der Raum hält. Jemanden aus Fleisch und Blut.
Und trotzdem arbeite ich in Vollzeit daran, eine KI-gestützte Mediationsplattform aufzubauen. Dieser Text ist ein Versuch, diese Spannung zu beschreiben, ohne vorzugeben, sie aufzulösen.
Eine Frage des Zugangs
Als Politikwissenschaftlerin habe ich gelernt, Konflikte nicht als Störung zu betrachten, sondern als normalen Bestandteil gesellschaftlichen Zusammenlebens. Wo Menschen mit unterschiedlichen Interessen, Bedürfnissen und Strategien aufeinandertreffen, entstehen Konflikte. Die entscheidende Frage ist deshalb nicht, ob und warum es sie gibt, sondern wie wir mit ihnen umgehen. Dabei habe ich gelernt, immer zwei Perspektiven zugleich einzunehmen: die Zahlen hinter den Einzelschicksalen, genauso wie die Menschen in den Zahlen zu sehen.
Wir alle kennen jemanden, der wegen eines Konflikts am Arbeitsplatz krankgeschrieben war oder am Ende sogar den Job gewechselt hat. Bereits 2009 bezifferte die KPMG-Konfliktkostenstudie die Konfliktkosten in Unternehmen auf 15 bis 20 Prozent der jährlichen Personalkosten. Viele Betriebe und Organisationen nehmen Konflikte durchaus wahr, verfügen aber über keine wirksamen Wege, sie frühzeitig und konstruktiv zu bearbeiten.
Gleichzeitig gehen die Zivilverfahren seit Jahren deutlich zurück. Das bedeutet nicht automatisch, dass Menschen häufiger andere Wege der Konfliktlösung nutzen. Eher stellt sich die Frage, was mit den Konflikten geschieht, die nie den Weg in eine gerichtliche oder professionelle Bearbeitung finden. Denn die hohen Konfliktkosten in der Arbeitswelt und der überdurchschnittlich hohe Krankenstand in Deutschland sprechen nicht dafür, dass Konflikte verschwinden, sondern eher dafür, dass sie oft unbearbeitet bleiben.
Aus meiner eigenen Praxis kenne ich diese Lücke sehr konkret. Ich empfehle regelmäßig Konfliktbegleitung und erlebe zugleich, wie selten sie tatsächlich in Anspruch genommen wird. Kolleginnen und Kollegen berichten Ähnliches. Die Kapazitäten sind da. Das Problem ist oft nicht das Angebot, sondern der Zugang, also all das, was Menschen davon abhält, professionelle Begleitung überhaupt in Erwägung zu ziehen: Unsicherheit, Scham, fehlende Information oder der Eindruck, der Konflikt sei noch nicht „schlimm genug“.
Politikwissenschaftlich gesprochen reicht es deshalb nicht, nur zu fragen, welche Möglichkeiten zur Konfliktbearbeitung es gibt. Man muss auch fragen, wer Zugang zu ihnen hat – und wer nicht. Gerade bei Mediation zeigt sich: Viele Menschen entscheiden sich nicht für professionelle Begleitung, unabhängig davon, ob sie wissen, was Mediation ist. Die Hemmschwelle bleibt hoch.
Mich lässt deshalb eine Frage nicht los: Was geschieht mit all den Konflikten, die nie den Weg zu einer konstruktiven Bearbeitung finden? Eine Antwort darauf ist für mich, alle Möglichkeiten zu nutzen, die Menschen früher und verlässlicher in eine konstruktive Begleitung führen können – durch öffentlichen Diskurs, durch Beratungsangebote und eben auch durch Technologie.
Technologie und Haltung
Mein Verhältnis zu Technologie ist nicht unkritisch. Als Forscherin beobachte ich, wie technologische Entwicklungen gesellschaftliche Strukturen verändern. Häufig nicht zum Besseren. Historisch betrachtet war jedoch selten der Fortschritt selbst das Problem, sondern eher die Haltung, mit der wir ihn genutzt haben. Und wieder die Frage, wer Zugang hatte: zu neuen Werkzeugen, zu Wissen, zu den Möglichkeiten, die daraus entstehen.
Das prägt auch meine privaten Entscheidungen. Meine Kinder sind neun Jahre alt, haben kein Smartphone und keine sozialen Medien. Aber sie haben eigene Computer und lernen, Internet und Medien bewusst zu nutzen. Nicht Vermeidung, sondern Gestaltung.
Diese Haltung übertrage ich auf meine Arbeit mit KI. Sprachmodelle können die Art verändern, wie Menschen miteinander sprechen, wie sie mit Konflikten umgehen. Technologie kann isolieren oder verbinden. Sie kann helfen, sich vor Konflikten zu verstecken, oder ihre Bearbeitung erleichtern. Welche Richtung sie nimmt, hängt davon ab, wie sie gestaltet wird. Ich möchte, dass KI Menschen zur Kooperation befähigt. Deshalb nutze ich sie, um Menschen einander näher zu bringen.
Was KI nicht kann
Die Einwände gegen KI in der Mediation sind berechtigt. Sie begleiten mich durch dieses Projekt wie eine rote Linie.
KI kann keine echte Empathie. Das stimmt. Ein Sprachmodell simuliert Verständnis, aber es versteht nicht. Es hat keine eigene Erfahrung von Verletzung, Angst oder Hoffnung. Diese Grenze ist fundamental, und sie bestimmt, was KI in der Konfliktbearbeitung sein kann: ein Werkzeug, keine Beziehung.
Meine Mitgründerin Aline hat in einem Blogpost beschrieben, wie die KI in unseren ersten Tests sofort Lösungen vorschlug und Kompromisse anbot. Sie war maximal hilfreich und verletzte damit die Grundprinzipien der Mediation, wie wir sie größtenteils in Deutschland verstehen. Denn Mediator:innen geben keine Lösung vor. Sie urteilen nicht. Sie geben Struktur. Das ist schwer für uns Menschen. Für eine KI, deren Kerninstinkt das Helfen ist, ist es noch schwerer.
Wir mussten intensiv daran arbeiten, die KI zur Zurückhaltung anzuleiten. Ihr beizubringen, dass Konflikte selten linear ablaufen, weil Erkenntnis eben manchmal Zeit braucht. Und diese Arbeit ist längst nicht abgeschlossen. Das macht dieses Projekt auch technisch zu einer anderen Herausforderung als die meisten KI-Anwendungen: Wir optimieren nicht auf Effizienz, sondern auf Prozessqualität.
Was KI vielleicht kann
Trotz dieser Grenzen sehe ich eine Möglichkeit für KI als Türöffner.
Viele Menschen, die von Konflikten betroffen sind, suchen zunächst keine professionelle Unterstützung. Die Hemmschwelle ist zu hoch, die Situation scheint noch nicht schlimm genug, der richtige Moment verstreicht. Wenn Unterstützung dann gesucht wird, ist oft schon viel Vertrauen zerstört.
Eine KI könnte an diesem Punkt ansetzen: als niedrigschwelliger Einstieg, der Menschen hilft, ihre Situation zu sortieren. Als strukturierte Reflexion, die auf ein schwieriges Gespräch vorbereitet. Als erster Schritt, der den Weg zu menschlicher Begleitung ebnet.
Damit das funktioniert, müssen wir die KI so gestalten, dass sie keine falschen Erwartungen weckt und rechtzeitig an Menschen abgibt, wenn die Situation es erfordert.
Wie KI Mediator:innen stärken kann
Mediator:innen sind so viel mehr als bloße „Strukturgeber“ oder „Konfliktbegleiter“. Sie sind diejenigen, die uns dann, wenn wir nur noch das Schlimmste im Anderen sehen wollen – und oft genug ist dieser Andere ein Mensch, dem wir einst sehr nah waren –, wieder zurück in unsere positive Menschlichkeit holen. Sie sind oft die ersten und einzigen, die fragen: „Was brauchst du?“
Mein Anspruch ist deshalb, dass KI-Unterstützung uns Mediator:innen Zeit für das gibt, was wirklich zählt: die Arbeit mit Menschen in komplexen Situationen. Dokumentation, Vorbereitung und administrative Aufgaben – das darf mir gerne abgenommen werden. Zugleich kann KI auch dort hilfreich sein, wo es um Übung und Sicherheit geht: als Reflexionsraum, als Trainingspartnerin, als Möglichkeit, schwierige Gesprächssituationen vorab durchzuspielen und die eigene Gesprächsführung bewusster zu erproben. Einen geschützten Rahmen zu schaffen und das Ermöglichen von Verständigung bleiben für mich dennoch menschliche Kernkompetenzen.
Und wenn KI dazu beiträgt, dass mehr Menschen überhaupt den Weg zur Mediation finden, bedeutet das für mich: mehr konstruktive Konfliktkultur, mehr menschliche Begegnung.
Vertraulichkeit als Grundlage
Mediation lebt von Vertraulichkeit. Ohne das Vertrauen, dass das Gesagte geschützt ist, funktioniert der Prozess nicht. Dieses Prinzip gilt auch für KI-gestützte Werkzeuge in besonderem Maße.
Deshalb muss Vertraulichkeit von Anfang an mitgedacht werden, und zwar technisch, organisatorisch und konzeptionell. Für uns heißt das, KI in diesem Feld mit einem klaren Fokus auf Vertraulichkeit, Sicherheit und Datenschutz zu entwickeln. Das ist aufwendig. Aber es ist die Voraussetzung dafür, dass KI in der Mediation überhaupt verantwortungsvoll eingesetzt werden kann.
Kein Fazit – eine Einladung
Ich möchte alle Möglichkeiten nutzen, um mehr Menschen Zugang zu konstruktiver Konfliktbearbeitung zu geben. Früher, niedrigschwelliger, und auf einem Weg, der zu menschlicher Begleitung führt und nicht von ihr weg. Was KI dabei wirklich leisten kann, wird sich erst in der Praxis zeigen. Ich bin bereit, aus dieser Praxis zu lernen und sie kontinuierlich mitzugestalten. Wenn Sie diese Fragen beschäftigen, als Mediator:in, als Führungskraft, als Mensch in einem Konflikt, freue ich mich über den Austausch.
Julia Stadler ist Mitgründerin und CEO von Tuplita. Sie ist promovierte Politikwissenschaftlerin, Lehrerin und zertifizierte Mediatorin (Mitglied im Bundesverband Mediation).
Bei tuplita.ai entwickeln wir mit Vertraulichkeit, Sicherheit und DSGVO-Konformität als grundlegende Anforderungen.
