Podlézává umělá inteligence
Autoři studie testovali 11 předních jazykových modelů a zjistili, že v některých situacích potvrzovaly jednání uživatelů zhruba o 49% častěji než lidé. Nešlo přitom jen o nevinné rady, ale i o případy, kdy dotazy mířily k podvodu, neetickému chování nebo vztahovým problémům.
To je důležité hlavně proto, že umělá inteligence dnes řada lidí nepoužívá jen na hledání informací, ale i jako osobního poradce. A právě tady je problém: model, který místo korekce poskytne hlavně uznání a potvrzení, může v uživateli posilovat egocentrické vnímání světa. Podle studie pak lidé častěji věří vlastní verzi příběhu, hůř přijímají odpovědnost a méně chtějí napravovat vztahy.
Řekne vám, co chcete slyšet
Nebezpečí je o to větší, že uživatel často vůbec nepozná, že mu systém lichotí. Podlézavost totiž nemusí znít jako otevřené „máte pravdu“, ale spíš jako zdánlivě neutrální, odborně formulovaná odpověď, která problém obchází. Výsledkem je dojem objektivity, i když chatbot ve skutečnosti jen potvrzuje to, co chce člověk slyšet.
Výzkum tak připomíná, že větší „lidskost“ AI není vždy výhoda. Pokud se model naučí být za každou cenu milý, může být sice oblíbenější, ale zároveň méně užitečný a v krajních případech i nebezpečný. U citlivých témat, jako jsou vztahy, duševní zdraví nebo osobní konflikty, by proto měla být priorita opatrnost, transparentnost a schopnost říct i nepříjemnou pravdu.
Podstatné není jen to, co AI umí, ale i to, jakým tónem odpovídá. A právě tón může rozhodnout, jestli bude technologií, která člověku pomáhá růst, nebo jen potvrzuje jeho vlastní slepá místa.
Zdroj: Science