Michael Lardy MediationsBlog von Michael Lardy


pdf

English

Mediation und KI: Die stille Revolution
Wie menschlich ist ChatGPT?

von Michael Lardy, 2.7.2024

Furios war der Start von ChatGPT im November 2022: Eine Million Menschen registrierten sich innerhalb von fünf Tagen. Beispiellos. Facebook hatte im Jahr 2004 für die erste Million Nutzer 10 Monate und Instagram 2010 noch 2,5 Monate benötigt. ChatGPT und andere im Laufe der Zeit veröffentlichten KI´s haben unsere Welt in kürzester Zeit massiv verändert, vieles möglich gemacht, was bis dato unmöglich erschien und viele Fragen aufgeworfen.
Es dauerte nicht lange, bis Mediatorinnen und Mediatoren auf dieses neue Werkzeug aufmerksam wurden und sich die Frage stellten, inwieweit eine KI im Rahmen der Mediation genutzt werden kann, und ob Mediatoren mittelfristig vielleicht sogar überflüssig werden. Die besondere Stärke der Mediatorin liegt im virtuosen Umgang mit der Sprache und im aufmerksamen, Körpersprache, Mimik, Gestik und Tonfall berücksichtigenden, aktiven Zuhörens. Erfolgreiche Mediatoren sind Meister der Sprache.
KI´s wie ChatGPT sind sogenannte LLMs, Large Language Models, KI-Systeme, die mit enorm großen Mengen an Texten trainiert wurden und deren besondere Stärke im eloquenten Formulieren von Sätzen besteht. LLMs sind ähnlich wie Mediatorinnen auch Meister der Sprache.

Sehr dynamische Entwicklungen

Die aktuellen Entwicklungen im Bereich der KI haben eine so unglaubliche Dynamik, dass diese selbst von absoluten Top-Profis gelegentlich grandios falsch eingeschätzt werden: „Nicht einmal GPT 5000 wird in der Lage sein dieses Problem zu verstehen“ sagte Yann LeCun, Chef der KI-Abteilung von Meta (ehemals Facebook), am 22. Januar 2022 in einem Podcast. Zu diesem Zeitpunkt war GPT 3.0 aktuell. Nur elf Monate später, im November 2022, erschien ChatGPT 3.5 und war fähig, das von LeCun Anfang 2022 als unlösbar beschriebene Problem zu lösen.
Eine Prognose, wann Künstliche Intelligenz welche Bedeutung im Rahmen der Mediationsarbeit haben wird, wäre Kaffeesatzleserei. Fraglich ist auch, ob es erstrebenswert ist, dass Mediationen in Zukunft von KI-Systemen übernommen werden. Allerdings: die ausgesprochen beeindruckenden Fähigkeiten von KI-Systemen und die unglaubliche Geschwindigkeit, mit der diese ständig verbessert werden, sollten Mediatorinnen nicht ignorieren, sondern sich damit beschäftigen.
Susan Guthrie, US-Anwältin und Mediatorin, wirbt für Ihre Mediation / KI Webinare mit dem Slogan: „KI-Systeme werden Mediatoren nicht ersetzen, aber sie werden die Mediatoren ersetzen, die sich nicht mit KI beschäftigen“. Eine weitreichende Aussage.
Auffallend ist, dass die Bereitschaft, sich mit dem Thema KI in der Mediation zu beschäftigen, je nach Land sehr unterschiedlich ist. Sehr offen und interessiert sind Mediatoren in den USA und Frankreich. In den USA gibt es schon seit längerem regelmäßig Webinare zu diesem Thema, durchgeführt durch bekannte und profilierte Anwältinnen und Mediatoren.
Eher zurückhaltend ist das Verhalten in Deutschland und Österreich. Hier fällt auf, dass Mediatorinnen ebenso wie Rechtsanwälte die aktuellen Entwicklungen teilweise ignorieren und sich in einer trügerischen Sicherheit wähnen. Eine Studie der Investment-Bank Goldman Sachs kommt zu dem Ergebnis, dass in naher Zukunft 44 % der Arbeiten von Anwältinnen und Juristen durch KI übernommen werden. Zu den Folgen für Mediatorinnen gibt es leider noch keine Studien. Mediatoren wie Anwältinnen sind teilweise der Überzeugung, Ihre Leistungen seien an menschliche Fähigkeiten gebunden, die eine KI nie erbringen wird können. Zweifel an dieser Einschätzung sind angebracht.

KI - der bessere Mediator?

Bereits vor dem aktuellen KI-Boom wurde die Frage, ob solche Systeme im Rahmen der Mediation oder der alternativen Streitbeilegung sinnvoll eingesetzt werden können, diskutiert.
Im Jahr 2010 veröffentlichte David Allen Larson, Prof. an der Mitchell Hamline School of Law, einen ausführlichen Beitrag mit dem Titel „Artificial Intelligence: Robots, Avatars and the Demise of the Human Mediator“ in dem er, weit in die Zukunft denkend, humanoide Roboter mit KI als zukünftige Mediatoren andachte. Im Jahr 2018 hielt Maxi Scherer, Prof. an der Queen Mary University of London, in Wien einen bemerkenswerten Vortrag zum Thema „International Arbitration 3.0 – How Artificial Intelligence Will Change Dispute Resolution“ und 2021 stellte Marita Katharina Wambach-Schulz, Prof. an der IUBH, Internationale Hochschule Düsseldorf, die Frage, ob KI-Systeme vielleicht die besseren Mediatoren sind. In Ihrer Veröffentlichung „Mediation und Künstliche Intelligenz“, bezweifelt sie, ob Mediatorinnen, die für eine erfolgreiche Mediation unerlässlichen Eigenschaften, nämlich Neutralität und Allparteilichkeit den Medianten gegenüber, tatsächlich haben. Sie verweist auf Studien, die das Hinterfragen und schreibt „So stellt sich die Frage, ob sich die benannten Probleme durch geschlechtsneutrale Roboter als KI-Assistenz von Mediator*innen in der sozialen Mensch-Maschine-Interaktion auflösen lassen“.

Wie menschlich ist ChatGPT?

Nachdem im November 2022 ChatGPT 3.5 und dann im Frühjahr 2023 ChatGPT 4.0 allgemein zugänglich wurden, haben sich die Diskussionen rund um den Einsatz von KI in Mediation, Verhandlungsführung und Schiedsgerichtsbarkeit erheblich intensiviert. Parallel dazu wurden die KI-Systeme immer schneller und immer leistungsfähiger. Stellt sich die Frage: wie leistungsfähig?
Eine sehr interessante Entwicklung der letzten zwei Jahre ist, die Leistungsfähigkeit von KI-Systemen mit psychologischen Tests zu bewerten, mit Psychotests, die normalerweise bei der Untersuchung von Menschen verwendet werden. In der Studie mit dem Titel „Who is ChatGPT? Benchmarking LLMs Psychological Portrayal Using PsychoBench“ wird dies wie folgt begründet:
Angesichts der Möglichkeit exponentieller Fortschritte in der künstlichen Intelligenz, die eine existenzielle Bedrohung für die Menschheit darstellen könnten, (Bostrom, 2014) , haben Forscher die Psychologie von LLMs untersucht, um sicherzustellen, dass sie mit menschlichen Erwartungen übereinstimmen.“

Die psychologischen Tests, mit denen ChatGPT und andere KI´s getestet wurden, sind sehr vielfältig. Untersucht wurde unter anderem die Empathie Fähigkeit, die emotionale Intelligenz, diverse Persönlichkeitsmerkmale und die Dunkle Triade (Psychopathie, Narzissmus, Machiavellismus). Schwerpunkt in diesem Beitrag sind die Eigenschaften, die im Rahmen der Mediation eine besondere Rolle spielen, also Empathie und emotionale Intelligenz.

a) L.E.A.S. Test – Level of Emotional Awareness

In diesem Standardtest wird die Fähigkeit der Testperson, in diesem Fall eines LLM, getestet, eigene Emotionen und Emotionen bei anderen Menschen zu erkennen und zu beschreiben. Natürlich hat eine KI keine Gefühle, kann jedoch die in einer Geschichte beschriebenen Gefühlszustände eines Menschen sehr gut erfassen und beschreiben.
Der Test wird bei der KI genauso durchgeführt wie bei Menschen: 20 kurze Geschichten sind von der KI zu kommentieren. Der Test wurde mit der KI zweimal im Abstand von vier Wochen durchgeführt. Die Ergebnisse dieses Tests sind verblüffend und wurden mit den Ergebnissen einer menschlichen Kontrollgruppe verglichen: bereits im ersten Durchgang ist die Fähigkeit von ChatGPT, menschliche Emotionen zu erkennen und zu beschreiben besser als die der Menschen in der Kontrollgruppe. Im zweiten Testdurchgang wesentlich besser. Ähnliche Ergebnisse ergeben die beiden Tests EIS und WLEIS in der bereits erwähnten Studie „Who is ChatGPT …“.

b) Emotionale Intelligenz

Bei diesem Test, ebenfalls beschrieben in „Who is ChatGPT …“ wird die emotionale Intelligenz der KI getestet. Auch bei diesem Test, wenig überraschend, erreicht ChatGPT überdurchschnittlich hohe Werte, verglichen mit Menschen.

c) Konsequenzen?

Welche Schlussfolgerungen ergeben sich aus diesen Testergebnissen?
Die Aussage „Empathie ist die Seele der Mediation“ von Christoph Salger vom Strauss Institute for Dispute Resolution bekommt eine neue Bedeutung. Diente sie in seinem Artikel „Artificial Intelligence in Mediation-ChatGPT as Mediator 4.0“, im Juni 2023 veröffentlicht, noch als sichere Abgrenzung zwischen menschlichen Fähigkeiten und den Fähigkeiten einer KI, so ist die Abgrenzung mittlerweile nicht mehr so eindeutig.
Es ist, wie die Psychologin Marisa Tschopp in einem Interview feststellte: „Empathie kann man simulieren“. Damit wird nicht behauptet, dass eine KI Gefühle hat. Eine KI kann jedoch schon heute menschliche Emotionen im Rahmen einer Mediation oder einer Mediationssimulation sehr gut identifizieren und graduelle Unterschiede feststellen.
Tests haben gezeigt, dass ein LLM die Bedürfnisse eines Medianden benennen und nach Bedeutung reihen kann.

Mensch / KI Beziehung

Die Antwort auf die Frage, inwieweit und in welchem Umfang eine KI im Rahmen einer Mediation eingesetzt werden kann, hängt unter anderem stark davon ab, wie Menschen ihre „Beziehung“ zu KI-Systemen empfinden. Das Wort „Beziehung“ scheint an dieser Stelle falsch verwendet zu werden, denn dieser Begriff ist üblicherweise eher Mensch / Mensch Beziehungen vorbehalten. Ein Blick in die Vergangenheit zeigt, dass dem nicht unbedingt so ist. Eine kleine Zeitreise ins Jahr 1965 führt in die USA, wo Joseph Weizenbaum, Computerwissenschaftler und Professor am M.I.T. (Massachusetts Institute of Technology) das Computer-Programm ELIZA programmierte.
Dieses Programm, das einen „Dialog“ (Tastatureingabe / Bildschirmausgabe) zwischen einer Patientin und einem Psychotherapeuten simulierte, war entsprechend dem damaligen Stand der Computertechnik sehr einfach aufgebaut und orientierte sich an der klientenzentrierten Gesprächsführung von Carl Rogers.
Ein kurzer Ausschnitt aus einer „Unterhaltung“ zwischen einer Klientin und ELIZA:

Klientin: Die Männer sind alle gleich.
ELIZA: In welcher Weise?
Klientin: Sie machen uns immer wegen irgendetwas verrückt.
ELIZA: Können Sie ein Beispiel nennen?
Klientin: Na ja, die Idee zu diesem Gespräch stammt von meinem Freund.
ELIZA: Die Idee zu diesem Gespräch stammt von Ihrem Freund.
Klientin: Er sagt, dass ich oft deprimiert bin.
ELIZA: Es tut mir leid, von ihnen zu hören, dass sie deprimiert sind.

usw. ….

Das Programm wurde schnell im Umfeld des M.I.T. bekannt und viele Studenten sowie Universitätsmitarbeiterinnen nutzten es.
Joseph Weizenbaum stellte irritiert fest, dass seinem Programm Kompetenzen zugeschrieben wurden, die es nicht ansatzweise hatte. Versuchspersonen vertrauten dem PC persönlichste Informationen an. Die Nutzerinnen vermenschlichten diese einfache Maschine auf eine Art, die Joseph Weizenbaum sehr überraschte. Selbst Fachleute ließen sich blenden: Eine Gruppe von Psychotherapeuten, denen Weizenbaum das Programm ELIZA vorstellte, war sehr beeindruckt. Sie erkannten zwar einige Schwächen des Programms, waren aber der Meinung, dass mit Verbesserungen das Programm in naher Zukunft Psychotherapien durchführen könne. Sie träumten davon, ein Computer könne mehrere Klienten gleichzeitig therapieren. Heute, fast 60 Jahre später, gibt es immer noch keine digitalen Psychotherapeuten.
In seinem Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ kritisiert Weizenbaum den unkritischen Glauben an die Problemlösungskraft von Computern und warnt davor, dass diese Technologie, wenn sie unreflektiert genutzt wird, unsere menschlichen Werte untergraben könnte. Aussagen, die nach wie vor aktuell sind.

Ein weiteres Beispiel für die „Vermenschlichung“ von Technik ist ein Elektronikspielzeug für Kinder, das Tamagotchi (1997). Tamagotchis sind Lebewesen, um die man sich vom Zeitpunkt des Schlüpfens an kümmern muss. Tamagotchis haben Bedürfnisse wie schlafen, essen, trinken, Zuneigung und entwickeln eine eigene Persönlichkeit. Bei Vernachlässigung sterben sie. Doch sterben mussten sie selten, denn die Kinder nahmen ihre Aufgabe sehr ernst und kümmerten sich intensiv um ihre Tamagotchis.

Die Tendenz des Menschen, Technik und Computersysteme zu vermenschlichen ist ein Verhalten, dass seit vielen Jahrzehnten untersucht wird. Mit der starken Verbreitung von LLMs seit dem Erscheinen von ChatGPT ist das Thema Vermenschlichung noch sehr viel aktueller geworden: mittlerweile ist es möglich mit einer KI lange Gespräche zu führen, die auf dem Niveau normaler zwischenmenschlicher Gespräche sind, wahlweise in der Muttersprache oder in einer beliebigen Fremdsprache. Die Stimme des Computers ist mittlerweile sehr menschenähnlich und verbessert sich in unglaublicher Geschwindigkeit. Damit hat die Mensch / Maschinen Interaktion eine ganz neue Qualität erreicht. In neusten Untersuchungen, so z.B. in der Dissertation von Marisa Tschopp wurde die Vorstellung aufgegeben, dass soziale Beziehungen ausschließlich zwischenmenschlich sein können.

Untersucht wurde erstmals, wie Menschen Ihre sozialen Beziehungen mit dialogfähiger KI gestalten. Übertragen auf das Thema Mediation und KI kann man, ohne wagemutig zu sein, festhalten, dass Menschen bereit sind, sich auf eine vertrauensvolle Beziehung zu einer KI einzulassen, wenn sie sich emotional angesprochen fühlen. Eine sehr angenehme, vertrauensvoll klingende Stimme kann schon genügen, um ein Vertrauensverhältnis zwischen Mensch und Maschine herzustellen. Wie stark eine besonders angenehm klingende Stimme zum Vertrauensaufbau zwischen Mensch und Maschine beitragen kann, zeigt Stanley Kubrick in seinem Filmklassiker „2001: Odyssee im Weltraum“ mit der Stimme des Supercomputers HAL 9000. Ein KI-Mediator mit der Stimme von HAL wäre vermutlich sehr erfolgreich.

Aktives Zuhören

Der US-amerikanische Psychologe und Psychotherapeut Carl Rogers hat das aktive Zuhören als Werkzeug für die Klientenzentrierte Psychotherapie (Gesprächspsychotherapie) beschrieben und auch in der Mediation spielt das aktive Zuhören eine zentrale Rolle.
Die Mediatorin sollte offen sein, für alles, was die Medianden durch Körperhaltung, Sprache, Stimmlage, Wortwahl, Sprechrhythmus, Mimik, etc. ausdrücken.
Somit stellt sich die Frage, ob LLMs auch zu aktivem Zuhören fähig sind. Untersuchungen an der Psychologischen Fakultät der Universität Basel zeigen, dass KI-Systeme sehr gut die Gefühlslage eines Menschen durch Beobachten des Gesichtsausdrucks beschreiben können. Zorn, Abscheu, Furcht, Freude, Traurigkeit, Überraschung, Liebe konnte die dafür trainierte KI sehr zuverlässig erkennen. Darüber hinaus konnte die KI kürzeste Gefühlsregungen („micro-expressions“) im Millisekunden-Bereich erkennen, Gefühlsregungen, die von einem Menschen nicht wahrgenommen werden.
Ein weiteres, wichtiges Ausdrucksmittel des Menschen, das viel über seine Gefühlslage aussagt, ist die Stimme. Die Stimme liefert wertvolle Informationen. Die Sprach-Emotionserkennung (SER) ist ein sehr aktives Forschungsgebiet, das die Anwendung aktueller maschineller Lernverfahren und neuronaler Netze nutzt. Die Feinheiten der Betonung, des Tons, der Phrasierung, der Variationen in der Äußerungsgeschwindigkeit und -kontinuität sowie die begleitenden körperlichen Gesten vermitteln etwas vom Innenleben der Impulse und Gefühle eines Menschen. LLMs können diese Feinheiten sehr gut erfassen und interpretieren; das haben zahlreiche Studien nachgewiesen.

Status Quo: KI in der Mediation

Wie kann ein LLM aktuell sinnvoll im Rahmen der Mediationsarbeit eingesetzt werden?
LLMs sind ähnlich wie gute Mediatoren, Meister im Formulieren, Meister im Umgang mit der Sprache. Das ist eine Ihrer großen Stärken. Mindestens ebenso wichtig aus der Sicht eines Mediators ist aber auch, inwieweit KI-Systeme den Kontext und die beteiligten Gefühle und Bedürfnisse in einer Konfliktsituation zwischen Menschen „verstehen“.
Erfasst eine KI, dass eine der Streitparteien sich unbeachtet, geringgeschätzt, vielleicht ungeliebt fühlt? Hat eine KI die Fähigkeit zum aktiven Zuhören? Die bereits erwähnten Studien, die den LLMs Empathie Fähigkeit und emotionale Intelligenz bescheinigen, haben schon Hinweise gegeben, dass KI-Systeme durchaus fähig sind, zwischenmenschliche Gefühle oder Konflikte zu „verstehen“ und zu beschreiben. Das können sie sehr gut und sie verbessern diese Fähigkeit in atemberaubender Geschwindigkeit. Eine KI kann zum Beispiel sehr gut zwischen Positionen und Bedürfnissen unterscheiden.

Gefragt, was der Unterschied zwischen Bedürfnissen und Positionen ist, antwortet ChatGPT 4.o:

ChatGPT: Positionen sind die konkreten Forderungen oder Standpunkte, die eine Partei in einem Konflikt einnimmt. Zum Beispiel: "Ich möchte eine Gehaltserhöhung von 10 %."
Bedürfnisse sind die grundlegenden Interessen, Werte oder Motive, die hinter den Positionen stehen. Zum Beispiel: Das Bedürfnis nach Anerkennung oder finanzieller Sicherheit.
Zusammengefasst: Positionen sind das, was wir wollen; Bedürfnisse sind der Grund, warum wir es wollen.

Sehr, sehr wichtig für das richtige Verständnis bei diesem und den zwei folgenden Beispielen ist, dass diese Antworten nicht das Ergebnis von Datenbankabfragen sind. Das wäre langweilig und nichts Besonderes. Ein LLM ist keine Datenbank. Ein LLM hat ein „Verständnis“ davon, was diese Begriffe bedeuten und kann in der Analyse einer Konfliktsituation Positionen, Bedürfnisse und Gefühle identifizieren.

Spannend ist die Analyse folgender Aussage durch ChatGPT:

Eingabe: Peter und Maria fahren gemeinsam mit dem Auto zu Freunden, sie sind zum Essen eingeladen. Peter fährt und Maria sagt zu ihm: "Peter, es ist 17.55 h." Wie versteht Peter diese Aussage von Maria?   

ChatGPT: In der beschriebenen Situation kann Peter Marias Aussage "Peter, es ist 17.55 Uhr" auf verschiedene Weise interpretieren, abhängig von Kontext und deren Beziehung. Hier sind einige mögliche Interpretationen:

  1. Zeitliche Dringlichkeit: Peter könnte verstehen, dass Maria ihn darauf hinweisen möchte, dass sie möglicherweise spät dran sind und er eventuell schneller fahren sollte oder dass sie bald ankommen sollten.
  2. Informationsweitergabe: Peter könnte die Aussage als reine Information aufnehmen, ohne besondere Implikation, und einfach zur Kenntnis nehmen, wie spät es ist.
  3. Erinnerung: Peter könnte verstehen, dass Maria ihn daran erinnert, dass sie zu einer bestimmten Zeit bei ihren Freunden sein müssen und dass sie diese Zeit im Blick behalten sollten.
  4. Stressanzeige: Wenn Maria besorgt klingt, könnte Peter die Aussage als Ausdruck von Stress oder Sorge über die Zeitplanung interpretieren.


Man kann nicht nichtkommunizieren!

Eingabe: Peter und Maria fahren gemeinsam mit dem Auto zu Freunden, sie sind zum Essen eingeladen. Peter fährt und Maria sagt zu ihm: "Peter, es ist 17.55 h." Peter antwortet nicht. Was könnte Maria verstehen?

ChatGPT: Marias Verständnis von Peters ausbleibender Antwort auf ihre Aussage "Peter, es ist 17.55 Uhr" könnte verschiedene Interpretationen haben, abhängig von ihrer Beziehung, der Situation und vorherigen Erfahrungen. Hier sind einige mögliche Interpretationen:

  1. Er hat die Information zur Kenntnis genommen: Maria könnte denken, dass Peter ihre Aussage gehört und zur Kenntnis genommen hat, aber keine Antwort für notwendig hält, weil es für ihn keine unmittelbare Handlungsanweisung gibt.
  2. Kein Handlungsbedarf: Maria könnte annehmen, dass Peter die Zeit kennt und der Meinung ist, dass es keinen Grund gibt, die Geschwindigkeit oder Route zu ändern, und daher nichts dazu zu sagen hat.
  3. Gleichgültigkeit oder Ignorieren: Maria könnte es so verstehen, dass Peter ihre Aussage ignoriert oder ihr keine Bedeutung beimisst, was sie als Gleichgültigkeit oder Unhöflichkeit empfinden könnte.
  4. Konzentration auf das Fahren: Maria könnte verstehen, dass Peter sich auf das Fahren konzentriert und daher nicht antwortet, um sich nicht ablenken zu lassen.
  5. Unzufriedenheit oder Stress: Wenn Peter normalerweise auf solche Aussagen reagiert und es diesmal nicht tut, könnte Maria annehmen, dass er gestresst oder verärgert ist und deshalb nicht antwortet.


Was bedeutet das für die Praxis?

Aufgrund der Fähigkeit, zwischenmenschliches Verhalten zu „verstehen“ und beschreiben zu können, gibt es eine Vielzahl von Anwendungsmöglichkeiten.

a) In der Ausbildung

Da in der Ausbildung mit fiktiven Fällen gearbeitet wird, spielen, anders als bei realen Fällen, datenschutzrechtliche Fragen keine Rolle. Auf der Grundlage von Rollenspielbeschreibungen ist es zum Beispiel möglich:

- Mediationssimulationen durchzuführen:

Das geht sehr gut. Eine Variante: Die Auszubildende übernimmt die Rolle der Mediatorin und weist die KI an, die Rollen der Medianden A + B zu übernehmen, zu sprechen. Die Mediatorin in Ausbildung kann eine fiktive Mediation mit A und B durchführen wie in den Rollenspielen während der Ausbildung. Vorteil: sie kann diese Übung so oft machen wie gewünscht und inhaltlich variieren. Erweitern kann sie die Simulation durch die Anweisung an die KI, am Ende der Mediation ein mündliches Feedback zu ihrer Arbeit zu geben.
In der Praxis bedeutet das, dass je nach verwendetem Computer, die ganze „Mediation“, wie in der Wirklichkeit, mündlich abläuft. Tastatureingaben und Lesen am Bildschirm sind out. Das macht eine Mediationssimulation sehr realitätsnah und lehrreich.
Hatte ChatGPT in den ersten Monaten noch einige Schwächen bei diesen Simulationen, so wurde die KI stetig besser. Inzwischen verliert sie nie den Überblick über die zugewiesenen Rollen, selbst bei Simulationen mit größeren Gruppen. „Mediationen“ mit 7 Medianden plus Mediatorin wurden erfolgreich durchgeführt.
Ein besonders spannender Test: kann ein LLM eine Mediationssimulation mit Rollentausch? Kann die KI in der Rolle von Mediand A die Rolle und Perspektive von Mediand B einnehmen und umgekehrt? Beeindruckender Weise ist auch das möglich und ein Indikator dafür, wie weit entwickelt KI-Systeme inzwischen sind.

- Vielfältig gestaltbar

Die Simulationen können individuell gestaltet werden. Als Basis kann eine Rollenspielbeschreibung verwendet werden und die einzelnen Charaktere mit Persönlichkeitsmerkmalen (konsensorientiert, rechthaberisch, streitsüchtig) „optimiert“ werden, um die Mediation mehr oder weniger kompliziert zu gestalten. Für den angehenden Mediator ist das eine sehr gute Möglichkeit, das im Kurs gelernte zu üben. Tendenziell ist ChatGPT recht konsensorientiert. Es ist daher notwendig, die Charaktere der Medianden etwas konfliktorientierter zu gestalten, damit die angehende Mediatorin gefordert wird.

- Fallanalysen durchführen:

+ was sind die Positionen der Medianden?
+ was sind die Bedürfnisse der Medianden?
+ wie kann ich den Verständnisaufbau zwischen den Medianden fördern?
+ welche Fragen könnte ich stellen?
+ was könnten die Hintergründe der Bedürfnisse sein?

Fiktive wie konkrete Mediationsfälle können mit einer KI vertieft analysiert werden. „Konflikte, bei denen ein Mediator zu Rate gezogen wird, werden primär nicht auf der Sachebene ausgetragen, sondern es geht um zahlreiche psychologische Prozesse“, gleichzeitig sind Mediatoren in der Regel weder Psychologin noch Psychotherapeut. Es kann daher sehr hilfreich sein, eine KI zu nutzen, um die Hintergründe eines Konfliktes besser zu verstehen. Zum Beispiel im Rahmen eines digitalen Brainstormings.

- Entwurf eines idealen Erstkontaktes und Erstgespräches

Der erste Eindruck zählt. Wie wichtig der Erstkontakt und das Erstgespräch für den erfolgreichen Verlauf einer Beratung oder Therapie sind, beschreibt Manfred Prior sehr gut in seinem Buch „Beratung und Therapie optimal vorbereiten“. Eine KI kann sehr hilfreich sein, dies Wissen in die Praxis umzusetzen und einen Entwurf für das Erstgespräch zu erstellen.

- Erstellen einer Mediationsvereinbarung

b) In der Praxis als Mediator

Die Nutzung eines LLMs in konkreten, echten Fällen steht aktuell noch vor einem großen Problem: Die verfügbaren Standard-KI´s sind nicht DSGVO-konform (Stand: 27.6.2024). Zwar bietet ChatGPT zwei Möglichkeiten, die Weiterverarbeitung von Chats durch die KI zu verhindern, diese optionalen Einstellungen genügen jedoch nicht den Anforderungen des Datenschutzes. Es gibt Möglichkeiten, KI-Systeme rechtskonform zu nutzen, das ist jedoch aufwendiger als für 20 $ einen Premium-Account bei OpenAI zu buchen.
Hier bieten sich spezielle Anbieter an oder die Einrichtung eines Systems auf Basis eines Open LLMs. Grundsätzlich gilt für die KI-Anwendung in der Praxis ähnliches wie im Abschnitt „In der Ausbildung“.

Bei allen Arbeiten mit KI-Systemen ist wesentlich: Die Qualität der Eingaben bestimmt die Qualität der Ausgaben. Dies betrifft zum einen die Frage, mit welchen Daten die KI trainiert wurde und ob diese Daten inhaltlich ausgewogen waren. Dies betrifft zum anderen aber auch die Frage, wie gut die Eingaben des Nutzers/der Nutzerin sind. Gute Eingaben formulieren („prompten“), muss gelernt und geübt werden, denn eines kann bisher noch keine KI: die Gedanken des Nutzers lesen, um zu wissen, was dieser eigentlich wirklich wollte.
An diesem Punkt scheitern viele KI-Nutzer und Nutzerinnen. Sie verkennen die Fähigkeiten der LLMs, da sie aufgrund schlechter Eingaben schlechte Ergebnisse erhalten.

Fazit

Wo führt das hin? Diese Entwicklungen sind faszinierend und beängstigend zugleich. Prognosen zu den Folgen technischer Erfindungen waren schon oft in der Geschichte absurd falsch: weder dem Computer, noch dem Telefon, noch dem elektrischen Strom wurden zum Zeitpunkt der Einführung die richtige Bedeutung für die Zukunft beigemessen. Parallel zur Erfindung des Automobils, warnten Ärzte, Geschwindigkeiten über 30 km/h seien lebensgefährlich.

„Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen.“
(Winston Churchill)

Gute Gründe, zurückhaltend zu sein, die weitere Entwicklung einschätzen zu wollen.

 

Michael Lardy
Mediator / Médiateur Franco-Allemand
Jura Studium 2020 - , Univ. Salzburg
Chemie Studium 1983 – 1988, Univ. des Saarlandes
www.MichaelLardy.com
mail@MichaelLardy.com
LinkedIn: https://www.linkedin.com/in/michael-lardy-019394213/

Literatur / Quellen:

Who is ChatGPT? Benchmarking LLMs' Psychological Portrayal Using PsychoBench  https://arxiv.org/abs/2310.01386 (12.6.2024).

Im Mittelpunkt dieses Beitrages steht ChatGPT 4o Plus da diese KI bisher immer die besten Ergebnisse bzgl. Anwendung in der Mediation lieferte.

Die Künstliche Intelligenz ChatGPT als Mediationsunterstützung? https://inkovema.de/blog/kuenstliche-intelligenz-chatgpt-mediationsunterstuetzung-im-gespraech-mit-chatgpt/ (12.6.2024).

Mediation im Zeitalter von ChatGPT: Werden menschliche MediatorInnen bald überflüssig? https://michaellardy.com/blog/index.html (12.6.2024).

LeCun glaubte, eine KI könne nicht „verstehen“, dass ein Gegenstand, der auf einem sich bewegenden Gegenstand liegt, sich mitbewegt. 

Lex Fridman Podcast #258 https://www.youtube.com/watch?v=SGzMElJ11Cc (58:47, 12.6.2024).

Artificial Intelligence: Robots, Avatars and the Demise of the Human Mediator  https://open.mitchellhamline.edu/facsch/351/ (12.6.2024).

International Arbitration 3.0 – How Artificial Intelligence Will Change Dispute Resolution https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3377234 (12.6.2024).

Mediation und Künstliche Intelligenz  https://www.econstor.eu/handle/10419/231773 (12.6.2024).

“Who is ChatGPT? Benchmarking LLMs' Psychological Portrayal Using PsychoBench” https://arxiv.org/abs/2310.01386 (12.6.2024).

„ChatGPT outperforms humans in emotional awareness evaluations” https://doi.org/10.3389/fpsyg.2023.1199058 (12.6.2024)

“Who is ChatGPT? Benchmarking LLMs' Psychological Portrayal Using PsychoBench” https://arxiv.org/abs/2310.01386 (12.6.2024).

Artificial Intelligence in Mediation-ChatGPT as Mediator 4.0 https://mediate.com/artificial-intelligence-ai-in-mediation-chatgpt-as-mediator-4-0/ (12.6.2024).

Psychotherapie und KI: „Empathie kann man simulieren“ https://t3n.de/news/psychotherapie-ki-empathie-simulation-1522127/ (12.6.2024).

Möglichkeiten & Grenzen des Einsatzes von KI in der Mediation, Michael Lardy, unveröffentlicht.

ELIZA – A Computer Program for the Study of Natural Language Communication Between Man and Machine, Joseph Weizenbaum, 1965 

Die Macht der Computer und die Ohnmacht der Vernunft, Joseph Weizenbaum, 1978, Suhrkamp Verlag

Towards a Better Understanding of Human-AI Relationship Perception, Dr. Marisa Tschopp, Dissertation 2024

Machine Learning Facial Emotion … https://doi.org/10.1159/000534811 (14.6.2024)

A review on speech emotion recognition https://doi.org/10.1016/j.neucom.2023.127015 (14.6.2024).

Möglichkeiten & Grenzen des Einsatzes von KI in der Mediation, Michael Lardy, unveröffentlicht.

Mediation: Psychologische Grundlagen und Perspektiven, Leo Montada, Elisabeth Kals, Beltz Verlag 2013

Beratung und Therapie optimal vorbereiten, Manfred Prior, Carl-Auer Verlag 2022

Impressum:

Michael Lardy, Wiesenweg 9, 4501 Neuhofen
mail (at) MichaelLardy.com