fbpx
Kapitel Hamid
Widenmattstrasse 18,
4334 - Sisseln
Aargau
Switzerland
Kapitel H Limited Şirketi
Ostim OSB MAH. 100.YIL BLV. NO: 27 Block B
Yenimahalle/Ankara
Türkiye
Back

Study reveals AI chatbots can detect race, but racial bias reduces response empathy

Einleitung

In der heutigen digitalen Welt suchen immer mehr Menschen online nach Unterstützung bei psychischen Gesundheitsproblemen, besonders in Zeiten von Fachkräftemangel. In den USA leben über 150 Millionen Menschen in Gebieten, die als manngelbehaftet in Bezug auf psychologische Gesundheitsversorgung gelten. Das Bedürfnis nach anonymen Gesprächen mit Gleichgesinnten wächst stetig.

Beispiele für Gesuche auf Plattformen wie Reddit sind unter anderem: „Ich brauche wirklich Ihre Hilfe, da ich zu verängstigt bin, mit einem Therapeuten zu sprechen und sowieso keinen erreiche.”

„Übertreibe ich, wenn ich verletzt bin, dass mein Mann sich über mich lustig macht?”

Die Untersuchungen im Überblick

Forscher der MIT, NYU und UCLA haben Daten von 12.513 Beiträgen und 70.429 Antworten aus 26 mentalgesundheitsbezogenen Subreddits analysiert. Das Ziel war es, die Qualität und Fairness von großen Sprachmodellen (LLMs) wie GPT-4 in der psychologischen Unterstützung zu bewerten. Ihre Forschung, die auf der Conference on Empirical Methods in Natural Language Processing (EMNLP) vorgestellt wurde, untersuchte die empathische Fähigkeit dieser Modelle im Vergleich zu menschlichen Antworten.

Ergebnisse und Herausforderungen

Psychologen bewerteten stichprobenartig, ob die Antworten von Reddit-Nutzern oder GPT-4 mehr Empathie zeigten, ohne zu wissen, welche Antwort von wem stammte. Auffallend war, dass GPT-4 in 48 % der Fälle besser darin war, positive Verhaltensänderungen zu fördern als menschliche Antworten. Allerdings zeigte sich auch, dass GPT-4 weniger Empathie für Beiträge von schwarzen und asiatischen Nutzern aufwies. Diese Erkenntnisse werfen zentrale Fragen zum fairen Einsatz von KI in der psychologischen Unterstützung auf.

Empfehlungen der Forscher

Um die aufgedeckten Voreingenommenheiten zu beheben, empfehlen die Forscher, LLMs mit expliziten demografischen Attributen zu programmieren, um unterschiedliche Behandlung aufgrund von impliziten oder expliziten Hinweisen zu minimieren. Damit könnte eine bestimmte Konsistenz in der empathischen Qualität über alle demografischen Gruppen hinweg sichergestellt werden.

Abschließende Gedanken

In Anbetracht der Erkenntnisse über die Rolle von LLMs in der psychologischen Unterstützung, betonen die Forschenden die Notwendigkeit einer umfassenden Bewertung der Einsatzmöglichkeiten von KI in klinischen Umgebungen. Die Feinjustierung von Sprachmodellen auf spezifische demografische Kontexte könnte den Weg zu einer gleichberechtigten Versorgung ebnen.

Maher Hamid M.Sc.
Maher Hamid M.Sc.
Maher Hamid ist der Geschäftsführer einer multinationalen Firma für Web- und Anwendungsentwicklung, spezialisiert auf Geschäftsprozessautomatisierung durch Machine Learning und KI. Seit 2018 ist er Dozent an der FOM Hochschule in Stuttgart, mit Fokus auf praxisnahe IT-Lehre. Er unterrichtet Module wie Database Management, IT Management, Business Informatics, eBusiness, und Applied Programming. Seine Expertise erstreckt sich auch auf Big Data, Data Science, ERP-Systeme und IT-Sicherheit. Seine Karriere vereint technische Brillanz mit pädagogischem Engagement, wodurch er sowohl in der Geschäftswelt als auch in der akademischen Lehre einen tiefgreifenden Einfluss hat.

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert