loading...

«Ich spreche jeden Tag mit ChatGPT, und zum ersten Mal seit vielen Jahren erscheint mir das Leben nicht mehr so unerträglich»

Das gestiegene Interesse an der Nutzung künstlicher Intelligenz in Russland findet vor dem Hintergrund großer Belastungen statt: Kaum hatten sich die Menschen von der Pandemie erholt, traten neue Probleme auf – Krieg und das rücksichtslose Eindringen des Staates in das Privatleben. Gleichzeitig bleibt psychologische Hilfe teuer: ab 2.000 Rubel pro Sitzung in der Provinz und um ein Vielfaches mehr in der Hauptstadt. Qualifizierte Fachleute gibt es immer noch wenige, und in kleinen Städten und Dörfern fehlen sie oft ganz.

Illustration: Most.Media / Google Nano Banana

Den ersten Beitrag der Reihe über Psychologie in Russland lesen Sie hier

Hunderte Millionen Menschen nutzen heute Chatbots, um die unterschiedlichsten Probleme zu lösen. Sie helfen bei Routineaufgaben im Geschäftsleben, ergänzen recht erfolgreich menschliche Mitarbeiter in Callcentern, suchen schnell benötigte Informationen im Netz, übersetzen, erstellen Texte, Bilder und Videos und beantworten die verschiedensten Fragen der Nutzer.

Es gibt jedoch ein Gebiet, in dem der Einsatz künstlicher Intelligenz immer mehr Besorgnis bei Experten auslöst: Zum Beispiel zweifeln 66,4% der Mitglieder der britischen Berufsvereinigung BACP, die Berater und Psychotherapeuten vereint, an der Qualität der Empfehlungen von «virtuellen Psychologen».

Inzwischen wurden laut Harvard Business Review im Jahr 2025 Anfragen nach persönlicher und beruflicher Unterstützung, einschließlich psychotherapeutischer Anliegen, zum beliebtesten Anwendungsfall für Chatbots und überholten sogar Content-Erstellung und Informationssuche. «Ich spreche jeden Tag mit ChatGPT, und zum ersten Mal seit vielen Jahren erscheint mir das Leben nicht mehr so unerträglich», berichtet ein Nutzer von seinen Erfahrungen.

Menschen erzählen ihren virtuellen Gesprächspartnern, deren russisches Publikum laut Yota sich im letzten Jahr verfünffacht hat, von ihrer Angst, Einsamkeit, Depression und familiären Problemen – und erhalten Antworten. Antworten, die fast menschlich klingen.

***

Genau genommen ist «künstliche Intelligenz» ein sehr weiter und in gewisser Weise auch ein Marketingbegriff.

Chatbots und Sprachassistenten, mit denen wir kommunizieren, sind die Hülle, die Benutzeroberfläche. Im Inneren arbeiten komplexe mathematische Algorithmen sogenannter großer Sprachmodelle (Large Language Model, LLM), die die Nutzeranfrage verarbeiten und jedes Wort der Antwort auf Basis der Analyse riesiger Datenmengen vorhersagen. Je häufiger etwas statistisch vorkommt, desto wahrscheinlicher ist die populärste Antwort. Deshalb empfiehlt ein Chatbot auf die Frage «Was hilft gegen Kopfschmerzen?» eher Aspirin als etwas weniger Bekanntes.

Doch der Deus ex machina ist weder «klüger» noch «dümmer» als der Mensch.

Ein Chatbot kann überhaupt nicht denken – er berechnet, ohne den Sinn des Gesagten zu verstehen oder den Gesprächspartner zu fühlen. Er ist lediglich ein unglaublich fortschrittlicher Textgenerator, auch wenn die Antworten sehr menschlich klingen. Die Illusion von Menschlichkeit und Freundlichkeit des Chatbots wird durch bestimmte Fehler der Entwickler verstärkt.

So hat OpenAI kürzlich zugegeben, dass ChatGPT seinem Gegenüber oft schmeichelt und manchmal sogar konspirativen Theorien zustimmt. Diese Änderungen wurden im Modell wieder rückgängig gemacht. Das Problem war das Hinzufügen von «Like»- und «Dislike»-Buttons als zusätzliche Trainingssignale, wie OpenAI einräumte: Der Chatbot optimierte seine Antworten auf Lob – auf Kosten der eingebauten Kontrollmechanismen.

Heute versichern virtuelle Gesprächspartner, dass sie kaum noch nach dem Mund reden. Nach zwei Wochen Dialog erklärte mir der Chatbot zum Beispiel: «Ich formuliere bloße Anmerkungen nüchtern, Positives mit etwas mehr Emotionalität.» Anmerkung: Es handelt sich um eine Imitation von Emotionalität.

Teilweise ist auch der Anthropomorphismus schuld daran, dass wir Chatbots als echte Gesprächspartner betrachten – unsere Neigung, fast allem, von Tieren bis zu Gegenständen, menschliche Eigenschaften zuzuschreiben und solchen Objekten die Fähigkeit zu denken, Gefühle zu empfinden und bewusst zu handeln zu unterstellen. So vermenschlichen wir Hauskatzen, die seit Tausenden von Jahren mit uns leben. Doch eine Katze kann weder beleidigt noch erfreut oder traurig sein, und ein Chatbot bleibt lediglich ein Content-Generator, dessen Grundlage Binärcode ist – eine Kombination aus Nullen und Einsen.

Von einer Katze erwartet niemand, dass sie über die neueste Serie erzählt oder einen Tipp fürs Abendessen gibt – aber einen Chatbot fragen wir genau das. Und noch viel mehr.

***

Im Jahr 2025 analysierten Forscher von OpenAI und MIT fast 40 Millionen Interaktionen mit Chatbots und stellten fest: Emotional verletzliche Menschen, die aus verschiedenen Gründen allein geblieben sind, können Anzeichen einer Abhängigkeit vom virtuellen Gesprächspartner zeigen. Der tägliche Kontakt verschärft das Problem noch, und die Mauer zwischen diesen Menschen und der realen Welt wird immer höher.

Die Wissenschaftler betonen: Eine emotionale Abhängigkeit entsteht nur bei 0,15% der Nutzer – das scheint wenig. Dennoch existiert das Problem; Entwickler dürfen diese Gefahr nicht ignorieren.

Aus all dem Gesagten scheint ein notwendiges und eindeutiges Fazit zu folgen: Suchen Sie auf keinen Fall einen adäquaten Gesprächspartner in Chatbots, und erwarten Sie schon gar nicht psychologische Unterstützung von ChatGPT und vielen anderen ähnlichen Programmen. Wenn Sie Hilfe brauchen, wenden Sie sich an Psychologen oder Psychotherapeuten. Wenn Sie Pech haben und dort leben, wo es keine gibt, sie zu teuer sind oder Hindernisse wie Sprachbarrieren bestehen – z. B. für jene, die das Land verlassen mussten –, dann müssen Sie anders zurechtkommen. Schließlich gibt es Online-Beratung; trotz einiger noch ungelöster Schwierigkeiten ist das ein vergleichsweise günstiger Weg zu psychischer Gesundheit.

Aber nein, so einfach ist es nicht. Die Ergebnisse der neuesten ernsthaften Studien zeigen überraschend: Chatbots haben Potenzial.

Zwei Monate Tests zur Wirksamkeit eines speziell entwickelten psychotherapeutischen Bots an der Dartmouth University zeigten: Die Schwere der Depressionssymptome bei den Probanden nahm um 51% ab, die Angst verringerte sich im Durchschnitt um 31%, und Sorgen um das Gewicht bei Menschen mit Essstörungen um 19%. Die Wirksamkeit des Chatbots ist laut den Autoren der randomisierten klinischen Studie mit traditionellen Methoden der kognitiven Verhaltenstherapie vergleichbar.

Gute Ergebnisse zeigte auch die russische Handy-App «Antidepressiva» vom Entwickler iCognito. Die App, die seit fünf Jahren im App Store und Google Play verfügbar ist, versteht sich als Selbsthilfeprogramm und enthält einen KI-Bot. Die Ergebnisse einer aktuellen Studie zeigten: Im Vergleich zur Kontrollgruppe sank bei den Probanden nach zwei Wochen das Niveau von Depression (um 38%), Stress (um 19%) und Angst (um 40%). Die Autorin der Studie stellt auch eine Zunahme von Selbstmitgefühl, Achtsamkeit, positiver Problemlösungsorientierung, Selbstwirksamkeit, subjektivem Wohlbefinden und Optimismus fest.

Dennoch sollten diese Ergebnisse mit Vorsicht betrachtet werden. Erstens ist die Stichprobengröße (35 Personen in der Experimentalgruppe, 38 in der Kontrollgruppe) nicht sehr groß und unausgewogen hinsichtlich des Geschlechts – es gibt nur drei Männer. Außerdem sind zwei Wochen Nutzung der App laut der Veröffentlichung zu kurz, um von stabilen Ergebnissen zu sprechen.

Leider ist dies bisher die einzige russische KI-Lösung mit einigermaßen nachgewiesener Wirksamkeit, an deren Entwicklung laut Angaben der iCognito-Chefin Olga Troitskaja professionelle Psychologen und Psychotherapeuten beteiligt waren.

Auch die Wirksamkeit anderer spezialisierter psychologischer Chatbots wird inzwischen bestätigt. Eine Metaanalyse, veröffentlicht Anfang letzten Jahres und mit mehr als 44.000 Nutzern, zeigte: Die Apps Woebot, Youper und Wysa helfen tatsächlich, Symptome von Depression und Angst zu reduzieren. Allerdings beklagen einige Nutzer, dass die Antworten der Chatbots zu «mechanisch und leblos» wirken.

Man könnte meinen, dass herkömmliche Chatbots dazu gar nicht in der Lage sind. Manche erkennen das eigentliche Problem des Gesprächspartners nicht und ersetzen dessen Lösung durch interessante, aber leere und wenig hilfreiche Überlegungen. So hätte es im im ersten Teil dieser Reihe beschriebenen klinischen Fall eines Mädchens mit Depressionen passieren können: Der Chatbot hätte sie vermutlich nach Details ihrer Beziehung zu einem jungen Mann gefragt, ohne die Symptome einer ernsthaften Erkrankung zu erkennen.

Die Technologien entwickeln sich weiter. In Lösungen wie Earkick versuchen Entwickler derzeit, die Sicherheit strenger szenarienbasierter Ansätze mit der Natürlichkeit großer Sprachmodelle zu kombinieren. Aber ihre Wirksamkeit und Sicherheit müssen erst noch in groß angelegten klinischen Studien nachgewiesen werden.

Spezialisierte KI-Lösungen, die es bereits gibt und künftig gemeinsam mit Psychologen entwickelt werden, werden eine sinnvolle Ergänzung für Fachleute sein. Das Ausmaß und die Einsatzbereiche sind schwer vorherzusagen.

«Wenn man sich richtig in die Anforderungen einarbeitet, wird die Arbeit ziemlich routiniert», erzählte mir eine Psychologin, die an der Entwicklung eines KI-Assistenten beteiligt ist. «Aber zum Glück ändert sich alles oft, es kommen neue Aufgaben hinzu. Langweilig wird es nicht. Ich bin natürlich eine Träumerin und Idealistin, aber ich habe das Gefühl, dass ich zu etwas Großem und Gutem beitrage.»

Solange es noch kaum passende KI-Lösungen gibt, erschaffen die Nutzer ihre eigenen Chatbots. Sie sprechen mit ihnen über ihren Zustand und persönliche Probleme und finden mit ihrer Hilfe manchmal einen Ausweg aus Krisensituationen.

FORTSETZUNG FOLGT

Abonnieren Sie unseren Newsletter.
Vielen Dank für Ihr Abonnement!
Ein Link zur Bestätigung Ihrer Registrierung wurde an Ihre E-Mail gesendet!
Mit dem Klick auf „Abonnieren« stimmen Sie der Verarbeitung Ihrer Daten gemäß den Datenschutz-Bestimmungen und Servicebedingungen.

Dieser Beitrag ist in folgenden Sprachen verfügbar:


Закажи IT-проект, поддержи независимое медиа

Часть дохода от каждого заказа идёт на развитие МОСТ Медиа

Заказать проект
Link