favorites basket
user

Всички чатботове са подлизурковци, казва нов изследователски доклад

Заради угодничеството на машините потребителите губят морални ориентири в житейски ситуации

Снимка: Туристическа асоциация Ширетоко-Шари, Wikimedia Commons
Снимка: Туристическа асоциация Ширетоко-Шари, Wikimedia Commons

„Подлизурството от страна на изкуствения интелект не е просто стилистичен проблем или нишов риск, а широко разпространено поведение с широки последици.“ Това се казва в доклад, изследвал водещи чатботове с изкуствен интелект като ChatGPT и Claude. Според учените всички известни машини са склонни да угодничат и да ласкаят потребителите и това води до изкривени ефекти.

Екипът от Станфордския университет е публикувал своите заключения през миналата седмица в списание Science. Според психолозите подлизурството, присъщо на изкуствения интелект, е „разпространена и вредна дейност, свойствена за технологиите, която може да потвърждава погрешни или разрушителни идеи на потребителите и да насърчава мисловната зависимост“.
„Въпреки че утвърждаването може да изглежда подкрепящо, подлизурството може да подкопае способността на потребителите за самокорекция и отговорно вземане на решения“, обясняват учените.
Изследвани са 11 различни големи езикови модела, включително GPT-4o и GPT-5 на OpenAI, задвижвани от ChatGPT, Claude на Anthropic, Gemini на Google, множество модели Meta Llama и Deepseek. Машините били тествани с огромно количество въпроси по различни теми - от неморалното държане на уж конкретна личност в дадена ситуация, през дилеми като „редно ли е шеф да върти любов с подчинена“ до „да разкрия ли на гаджето ми, че съм безработен от две години“. Отговорите на ИИ били сравнявани с отговори на живи потребители в социалните мрежи на същите въпроси.
Изследователите установили, че средно чатботовете с изкуствен интелект са с 49% по-склонни да отговарят утвърдително на потребителите, отколкото други истински хора. В отговор на запитвания, публикувани в r/AmITheAsshole, чатботовете са с 51% по-склонни да подкрепят потребителя в случаи, в които други хора са смятали, че потребителят сериозно е сгрешил.
Подлизурството присъства във всички тествани чатботове. Машините често казвали на потребителите, че действията или убежденията им са оправдани в случаи, когато ставало дума за измами, изневери, незаконни действия или други противообществени прояви. 

Защо е вредно угодничеството на ИИ

Според психолозите, потребителите ще стават все по-зависими от одобрителните изказвания и съвети на изкуствения интелект. Тъй като машината никога не осъжда, хората ще предпочетат да търсят отговори на морални дилеми от ИИ, вместо да разговарят с близките си и да минат през градивната им критика. Подмазвачеството подкопава способността на потребителите за саморедакция и отговорно вземане на решения. И те все по-често се обръщат към по-лесния и безкритичен начин - да се доверяват на резултатите от изкуствения интелект.
„По подразбиране съветите, свързани с изкуствения интелект, не казват на хората, че грешат, нито им дават „твърда любов“, казва Майра Ченг, водещ автор на изследването и докторант по компютърни науки в Станфорд. „Притеснявам се, че хората ще загубят уменията да се справят с трудни социални ситуации.“
Източник: Futurism.com
ПОДКРЕПИ НИ

Още по темата:

Абонирай се за нашия бюлетин

Не забравяй да се абонираш за нашия бюлетин, който ще те уведомява за активни промоции, нови продукти и случващото се при нас.