Einleitung
In der heutigen digitalen Welt suchen immer mehr Menschen online nach Unterstützung bei psychischen Gesundheitsproblemen, besonders in Zeiten von Fachkräftemangel. In den USA leben über 150 Millionen Menschen in Gebieten, die als manngelbehaftet in Bezug auf psychologische Gesundheitsversorgung gelten. Das Bedürfnis nach anonymen Gesprächen mit Gleichgesinnten wächst stetig.
Beispiele für Gesuche auf Plattformen wie Reddit sind unter anderem: „Ich brauche wirklich Ihre Hilfe, da ich zu verängstigt bin, mit einem Therapeuten zu sprechen und sowieso keinen erreiche.”
„Übertreibe ich, wenn ich verletzt bin, dass mein Mann sich über mich lustig macht?”
Die Untersuchungen im Überblick
Forscher der MIT, NYU und UCLA haben Daten von 12.513 Beiträgen und 70.429 Antworten aus 26 mentalgesundheitsbezogenen Subreddits analysiert. Das Ziel war es, die Qualität und Fairness von großen Sprachmodellen (LLMs) wie GPT-4 in der psychologischen Unterstützung zu bewerten. Ihre Forschung, die auf der Conference on Empirical Methods in Natural Language Processing (EMNLP) vorgestellt wurde, untersuchte die empathische Fähigkeit dieser Modelle im Vergleich zu menschlichen Antworten.
Ergebnisse und Herausforderungen
Psychologen bewerteten stichprobenartig, ob die Antworten von Reddit-Nutzern oder GPT-4 mehr Empathie zeigten, ohne zu wissen, welche Antwort von wem stammte. Auffallend war, dass GPT-4 in 48 % der Fälle besser darin war, positive Verhaltensänderungen zu fördern als menschliche Antworten. Allerdings zeigte sich auch, dass GPT-4 weniger Empathie für Beiträge von schwarzen und asiatischen Nutzern aufwies. Diese Erkenntnisse werfen zentrale Fragen zum fairen Einsatz von KI in der psychologischen Unterstützung auf.
Empfehlungen der Forscher
Um die aufgedeckten Voreingenommenheiten zu beheben, empfehlen die Forscher, LLMs mit expliziten demografischen Attributen zu programmieren, um unterschiedliche Behandlung aufgrund von impliziten oder expliziten Hinweisen zu minimieren. Damit könnte eine bestimmte Konsistenz in der empathischen Qualität über alle demografischen Gruppen hinweg sichergestellt werden.
Abschließende Gedanken
In Anbetracht der Erkenntnisse über die Rolle von LLMs in der psychologischen Unterstützung, betonen die Forschenden die Notwendigkeit einer umfassenden Bewertung der Einsatzmöglichkeiten von KI in klinischen Umgebungen. Die Feinjustierung von Sprachmodellen auf spezifische demografische Kontexte könnte den Weg zu einer gleichberechtigten Versorgung ebnen.