ELIZA und die Falle der Anthropomorphisierung - Kommunikation mit künstlicher „Intelligenz“ - Kapitel 2
“The intent of the above remarks is to further rob ELIZA of the aura of magic to which its application to psychological subject matter has to some extend contributed. Seen in the coldest possible light,
ELIZA is a translating processor …”
(Joseph Weizenbaum, 1966, S. 43)
In der Literatur zu Chatbots, Sprachsystemen, kommunikativer KI etc. nimmt ELIZA einen festen Platz ein. ELIZA ist ein kleines auf 2.600 Zeilen Code basierendes Programm, das der deutsch-US-amerikanische Informatiker Joseph Weizenbaum Mitte der 1960er Jahre am MIT entwickelte. Er benannte es nach der Figur des Blumenmädchens Eliza Doolittle aus dem Schauspiel Pygmalion von George Bernhard Shaw, nebenbei: 1913 uraufgeführt am Wiener Burgtheater. Weizenbaum beabsichtigte mit diesem Programm, die Möglichkeiten schriftsprachlicher Kommunikation (als eine einfache NLP (natural language processing) Anwendung) mit einem Computer interaktiv und anschaulich zu verdeutlichen. Das Programm enthielt, neben zwei weiteren inhaltlichen Vorgaben, das Skript „DOCTOR“, welches es ermöglichte ...
„... die Rolle eines an Rogers orientierten Psychotherapeuten zu spielen (oder besser zu parodieren), der mit einem Patienten das erste Gespräch führt. Ein solcher Therapeut ist verhältnismäßig leicht zu imitieren, da ein Großteil seiner Technik darin besteht, den Patienten zum Sprechen zu bringen, dass diesem seine Äußerungen wie bei einem Echo zurückgegeben werden“ (Weizenbaum, 1978, S. 15).
Und derartiges ließ sich in den 1960er Jahren recht einfach programmieren: Das Programm muss auf bestimmte erkannte textliche Vorgaben reagieren, kleine syntaktische Veränderungen vornehmen, so dass ein Antwortsatz entsteht, auf den dann die nächste Reaktion der fragenden Person erfolgen kann: Man kommuniziert somit satzweise mit einem Computer.
Was jedoch dann in der Nutzung dieses kleinen Programms geschah, ist zentrale KI-bezogene Technologiegeschichte: ELIZA (DOCTOR) wurde äußerst populär, vielerorts genutzt „und in bestimmten Kreisen sogar zum nationalen Spielzeug“ (S. 17). Damit hatte Weizenbaum nicht gerechnet. Er nennt in diesem Zusammenhang drei Gründe, die ihn „besonders nachdenklich“ (S. 17) machten. Da war erstens die Reaktion einiger Psychiater, die dafür plädierten, dass das Programm „zu einer fast automatischen Form der Psychotherapie ausgebaut werden (könne)“ (S. 17).
Zweitens musste Weizenbaum „bestürzt feststellen, wie intensiv sich Personen, die sich mit DOCTOR unterhielten, eine emotionale Beziehung zum Computer herstellten und wie sie ihm eindeutig menschliche Eigenschafften zuschrieben“ (S. 19).
Der dritte Grund war eher technologieimmanent und bezog sich darauf, dass ELIZA als eine Lösung des Problems natürlicher Sprachverarbeitung angesehen werden konnte (vgl. S. 20). Weizenbaum bilanziert:
„Derartige Konfrontationen mit meiner eigenen tagtäglichen Wirklichkeit haben mich nach und nach davon überzeugt, dass meine Erfahrung mit ELIZA symptomatisch für tieferliegende Probleme war“ (S. 25).
Kommentare
Kommentar veröffentlichen