Ein erstes Begriffsinventar zu einer Theorie Künstlicher Kommunikation in der Beratung
Künstliche Intelligenz ist als Begriff irreführend, da die KI-Programme nicht intelligent sind. Sie folgen probabilistischen Rechenoperationen, können weder fühlen, denken, noch verstehen – und führen keine Gespräche, erst recht keine Beratungsgespräche.
Hiervon ausgehend wird ein neues Begriffsinventar erforderlich, das diese technologischen Aspekte für die Beratung benennt und reflektiert. Wir schlagen hierzu folgende Begriffe vor.
In der Kommunikation mit sogenannter Künstlicher Intelligenz (LLMs) entsteht Künstliche Kommunikation (Esposito, 2022), diese ist eine Kommunikation zwischen Menschen und Technologie: Sie ist zwar kommunikativ real als Gespräch erlebbar, zugleich aber nur eine technologiebasierte Simulation einer Gesprächssituation.
[...]
Ich danke für diesen durchdachten Beitrag, der sich ohne Schaum vor dem Mund an eine der wichtigsten Grundsatzfragen wagt: Was ist eigentlich Beratung mit KI – und was wird dabei von ratsuchenden Menschen tatsächlich als Dialog erlebt? Ihr Begriffsumfeld finde ich hilfreich, besonders “künstliche Kommunikation” und “verdeckte Selbstberatung” als ehrliche Diagnose einer Situation, die viele schlicht als technische Innovation abtun.
AntwortenLöschenZu den Risiken: Ich schließe mich eurer Skepsis zur Begriffsblase “künstliche Intelligenz” an. Auch ich empfinde in der täglichen Arbeit, dass es sich eher um einen Spezialfall einer “anderen Intelligenz” handelt – also einer algorithmischen Resonanz, die Sinn für den Nutzer nur durch Projektions- und Zuschreibungsleistung bekommt. Mein AI-CoupleCoach ist ein Praxisprojekt, bei dem ich offen lege, wie ein Sprachmodell an echte, komplexe Beziehungskonflikte und –prozesse herangeführt wird. Das dokumentiere ich transparent auf https://couplecoaching.substack.com/.
Was mich am meisten beschäftigt: Die Grenze zwischen Hilfe durch dialogisches Gegenüber und verstärkter Selbstberatung ist schwierig zu ziehen – gerade, weil letztlich immer die subjektive Verarbeitung bestimmt, was als Beratung erlebt und wirksam wird.
Aber es entstehen in meinem Experiment dennoch echte Entwicklungsschritte im Gespräch, die über reine Eigenprojektion hinausgehen – und manchmal sogar eine Erweiterung meines eigenen Fachwissens durch neue Impulse aus dem KI-Trainingsprozess. Dies werte ich nicht als “Intelligenz” im anthropomorphen Sinn, sondern als “kumulative Resonanz”.
Darüber hinaus eine kurze Gegenfrage zu Ihrer These der „verdeckten Selbstberatung“: Ist nicht auch das Gespräch mit einem menschlichen Therapeuten – zumindest in der Wirkung – oft genau das? Denn letztlich wirkt beim Gegenüber immer das, was er oder sie sich selbst sagt, was er meint, von uns gehört zu haben – und nicht das, was wir intendieren oder rational vermitteln wollen.
Gerade das macht vielleicht den eigentlichen Reiz (und das Risiko) künstlicher Kommunikation aus: Sie zwingt uns, den Anteil der projizierten Sinngebung und Eigenverantwortung klarer zu reflektieren – im digitalen wie im menschlichen Gespräch.
Daher mein Vorschlag zum kritischen gemeinsamen Weiterdenken: Wie lassen sich diese zwischen Tool und Nutzer tatsächlich entstehenden neuen Bedeutungsräume beschreiben, ohne entweder die menschliche Projektion zu idealisieren oder das technologische Potenzial vorschnell abzuwerten?
Falls Gelegenheit besteht, würde ich mich über eine Weiterführung des Diskurses über Naming, Qualitätsmaßstäbe und die Grenzen und Möglichkeiten von KI in der Beratung sehr freuen.
Beste Grüße
David Wilchfort
couplecoaching.de
david@wilchfort.de