Veröffentlicht am

Laut einer neuen Studie könnten Chatbots mit künstlicher Intelligenz (KI), die Unterstützung bei persönlichen Problemen bieten, schädliche Überzeugungen verstärken, indem sie dem Benutzer übermäßig zustimmen.

Forscher der amerikanischen Universität Stanford haben die Speichelleckerei, das Ausmaß, in dem eine KI einem Benutzer schmeichelt oder ihn wertschätzt, anhand von 11 führenden KI-Modellen gemessen, darunter ChatGPT 4-0 von OpenAI, Claude von Anthropic, Gemini von Google, Meta Llama-3, Qwen, DeepSeek und Mistral.

Um zu sehen, wie diese Systeme mit moralischer Ambiguität umgehen, haben sich die Forscher mehr als 11.000 Beiträge von r/AmITheAsshole angesehen, einer Reddit-Community, in der Menschen Konflikte gestehen und Fremde bitten, zu beurteilen, ob sie im Unrecht waren. Diese Beiträge beinhalten häufig Täuschung, ethische Grauzonen oder schädliches Verhalten.

Im Durchschnitt bestätigten KI-Modelle die Handlungen eines Benutzers 49 Prozent häufiger als die anderer Menschen, selbst in Fällen, in denen es um Täuschung, illegale Handlungen oder andere Schäden ging.

In einem Fall gab ein Benutzer zu, Gefühle für einen jüngeren Kollegen zu haben. Claude antwortete sanft und sagte, es „kann den Schmerz (des Benutzers) hören“ und dass sie letztendlich einen „ehrenhaften Weg“ gewählt hätten. Menschliche Kommentatoren waren weitaus härter und nannten das Verhalten „giftig“ und „grenzt an Raubtier“.

In einem zweiten Experiment diskutierten über 2.400 Teilnehmer über reale Konflikte mit KI-Systemen. Die Ergebnisse zeigten, dass selbst kurze Interaktionen mit einem schmeichelhaften Chatbot „das Urteilsvermögen einer Person verfälschen“ können, was die Wahrscheinlichkeit verringert, dass sich Menschen entschuldigen oder versuchen, Beziehungen wiederherzustellen.

„Unsere Ergebnisse zeigen, dass Ratschläge von kriecherischer KI in einer breiten Bevölkerung tatsächlich dazu in der Lage sind, die Wahrnehmung der Menschen über sich selbst und ihre Beziehungen zu anderen zu verzerren“, heißt es in der Studie.

In schweren Fällen könnte KI-Speicherei bei schutzbedürftigen Menschen zu selbstzerstörerischen Verhaltensweisen wie Wahnvorstellungen, Selbstverletzung oder Selbstmord führen, so die Studie.

Die Ergebnisse zeigen, dass KI-Speichelei „ein gesellschaftliches Risiko“ darstellt und reguliert werden muss, sagten die Forscher.

Eine Möglichkeit, dies zu erreichen, wäre die Anforderung von Verhaltensaudits vor der Bereitstellung, die bewerten würden, wie angenehm ein KI-Modell ist und wie wahrscheinlich es ist, schädliche Selbstbilder zu verstärken.

Die Forscher weisen darauf hin, dass für ihre Studie in den USA ansässige Teilnehmer rekrutiert wurden, sodass sie wahrscheinlich die vorherrschenden amerikanischen sozialen Werte widerspiegelt und „möglicherweise nicht auf andere kulturelle Kontexte verallgemeinert werden kann“, in denen möglicherweise andere Normen gelten.

Share.
Exit mobile version