von THQ

Plaudern mit dem Chatbot

KI im Fokus der Sozialtagung der Heilsarmee

Mit einem Chatbot lassen sich auch Bilder generieren. Dieses wurde mithilfe von ChatGPT erstellt und "zeigt" einen Professor, der vor Offizieren der Heilsarmee doziert.

Kann die Heilsarmee Künstliche Intelligenz für ihre Soziale Arbeit nutzen? Ja, sagt Julian Löhe, Professor für Organisation und Management in der Sozialen Arbeit an der Fachhochschule Münster. Auf der Sozialtagung der Heilsarmee in Wuppertal präsentierte der Wissenschaftler einen Chatbot für das William-Booth-Haus in Berlin. „Wie viele Plätze hat die therapeutische Wohngemeinschaft im William-Booth-Haus?“ fragt Löhe. Der Chatbot auf dem Laptop hört aufmerksam zu und liefert die Antwort in Sekundenschnelle: 14 Plätze. Die Teilnehmer, überwiegend Leiter von Wohnheimen der Heilsarmee, staunten nicht schlecht: Der Dialog zwischen Mensch und Maschine scheint zu funktionieren.

Der Begriff Chatbot setzt sich aus „Chat“ (plaudern) und „Bot“ (Roboter) zusammen, eine klassische Anwendung der Künstlichen Intelligenz (KI). Mit dem Siegeszug des Internets und den hohen Rechenkapazitäten auf unseren Smartphones, Tablets und PCs gewinnen Tools, die auf KI beruhen, immer mehr an Relevanz: Wer kann einen italienischen Podcast ins Englische übersetzen? Wer korrigiert die Kommafehler in meinem Vortrag? Und wie kann man den roten Regenschirm vom Urlaubsstrand entfernen? Eine Vielzahl von KI-Tools macht es möglich. Auch in der Sozialen Arbeit bieten sich viele Anwendungen an: KI kann zum Beispiel bei der müheseligen Dokumentation von Patienten- oder Bewohnerdaten helfen. Sogar Powerpoint-Präsentationen lassen sich erstellen und bebildern. „Schreibe eine kurze christliche Andacht für Obdachlose in einfacher Sprache und verwende ein Bibelzitat“ lautete auf der Tagung ein Wunsch - im Fachjargon Prompt - an Chatgpt. Als Antwort erscheint - nach kurzer Wartezeit - ein ausformulierter Text, der sich in großen Teilen sogar verwenden ließe. „Je ausgefeilter der Prompt, desto besser das Ergebnis. Man muss die Prompts tatsächlich üben und die KI trainieren“, sagt der Professor.

Löhes Chatbot für das William-Booth-Haus zeigt, dass KI gerade in der externen Kommunikation großes Potential hat. Der Chatbot kann zum Beispiel Interessierte niederschwellig informieren. „Aber auch ein Chatbot für neue Mitarbeiterinnen und Mitarbeiter wäre denkbar“, sagt Löhe, „zum Beispiel, um über bestimmte Arbeitsabläufe zu informieren.“ In den Bezahlversionen der KI-Software kann der Anwender tatsächlich bestimmen, auf welche Informationen der Chatbot zugreifen darf. „Beim William-Booth-Haus verwendet das Tool tatsächlich nur die Informationen, die ich vorher hochgeladen habe“, sagt der Professor. Das können zum Beispiel URLs, also Internetseiten, oder PDF-Dateien sein. Zudem kann der Anwender, also die Einrichtung, auch den Nutzerkreis einschränken, zum Beispiel über Passwörter. Auch bei Fragebögen für angehende Bewohner kann ein Chatbot eine Hilfe sein: Gegenüber einem Roboter, so der Professor, tendieren viele Menschen dazu, bei unangenehmen Fragen ehrlicher zu sein.

Lässt sich KI denn auch für die Analyse von Bewohner-Daten nutzen? Für Löhe ist das ein Tabu, nicht nur aus Gründen des Datenschutzes. „Wenn wir etwas genau wissen wollen, hilft KI nicht weiter“, sagt Löhe. KI greift auf historische Daten zurück und zeigt in einer Prognose nur das, was wahrscheinlich ist. Daraus können falsche Schlüsse entstehen: Nicht jeder Bürgergeldempfänger, der aus Neukölln oder Wedding kommt, hat zwangsläufig ein Problem mit Drogen oder Schulden. Künstliche Intelligenz kann viel, bildet aber keine Einzelfälle ab.

Als Löhe am Schluss eine fortgeschrittene Version der KI, die generativen Chatbots, vorstellte, machte sich unter den Teilnehmerinnen und Teilnehmer Skepsis breit. Können sich Chatbots wirklich in einfühlsame Gesprächspartner, Therapeuten oder Partner verwandeln? Auch die KI hat Zweifel daran. Auf die Frage „Wie geht es Dir?“ deutet Meta AI, der KI-Chat auf Whatsapp, die Grenzen an: „Mir geht´s gut, danke! Ich bin ein Computerprogramm, also habe ich keine Gefühle wie Menschen, aber ich bin bereit, dir zu helfen.“ KI wird uns weiterhelfen und vieles verändern. Aber es wird den Menschen mit seinen Gefühlen und Widersprüchen nicht ersetzen.

Zurück