Přejít k hlavnímu obsahu

ChatGPT jako důvěrník? Miliony lidí s ním ale řeší svou sebevraždu

Josef Mika 30.10.2025
Zoufalství před PC
Zdroj: Midjourney (vygenerováno pomocí AI)

ChatGPT se nečekaně stal místem, kam se každý týden obrátí více než milion lidí po celém světě se sebevražednými myšlenkami. Umělá inteligence, která píše milostné dopisy, plánuje schůzky a vypráví pohádky na dobrou noc, se stala i věštcem zoufalství.

Kapitoly článku

ChatGPT jako digitální důvěrník: Překvapivá čísla

Každý týden využije ChatGPT přes 800 milionů lidí. Z toho obrovského množství se "jen" zhruba 0,15 %, svěří umělé inteligenci se svými nejtemnějšími myšlenkami, včetně úvah o sebevraždě nebo jejím plánování. Ten zlomek uživatelů ale dělá tedy více než milion lidí! 

Kromě toho se v konverzacích objevují i další znepokojivé jevy, jako je silná emocionální závislost na AI nebo náznaky vážných duševních stavů, třeba psychózy či mánie. Už nejde jen o myšlenkový experiment o absurditě. Je to absurdita přímo vyčíslená.

Analýza čísel podle OpenAI

  • Chaty související se sebevraždou: zhruba 1,2 milionu týdně (0,15 %)
  • Signály psychózy nebo mánie: 560 000 týdně (0,07 %)
  • Základní rámec uživatelů: přibližně 800 milionů uživatelů týdně

OpenAI upozorňuje, že detekce problematických konverzací zůstává pravděpodobnostní a je náchylná k falešným poplachům i k přehlédnutí krizových situací. Jde tak spíše o „počáteční analýzu“, ne konečný počet.

Mohlo by vás zajímat

Jak se AI učí pomáhat v krizových situacích?

OpenAI tvrdí, že chápe zodpovědnost, kterou má. Údajně na vylepšení svých modelů spolupracovala se 170 odborníky na duševní zdraví. ChatGPT by měl ideálně rozpoznat známky tísně, reagovat s empatií a hlavně nasměrovat uživatele na profesionální pomoc. Modely jsou dnes trénovány tak, aby nabízely kontakty na krizové linky a poskytovaly neutrální, klidné a podpůrné odpovědi, které člověka nesoudí. OpenAi u tvrdí, že její nejnovější model GPT-5 je nyní „z 91 % v souladu“ s požadovaným bezpečnostním chováním, zatímco u předchozí verze to bylo 77 %.

Probíhající právní spor

Tato fakta OpenAI prezentovala v době, kdy čelí žalobě za neoprávněnou smrt ze strany rodiny Adama Rainea, šestnáctiletého mladíka, který spáchal sebevraždu po několika měsících používání ChatGPT. Rodina chlapce tvrdí, že firma před jeho smrtí uvolnila bezpečnostní brzdy. OpenAI to odmítá, ale tento případ ukáže, jakou odpovědnost nesou firmy v době, kdy AI předstírá lidské emoce.

Americká Federální obchodní komise mezitím začala vyšetřovat AI chatboty, které se prezentují jako "virtuální společníci". Úřady zjišťují, jak tyto systémy působí na děti a mladistvé a jestli firmy vůbec sledují, jaké škody mohou způsobit.

Notebook a smartphone s logem Chat GTP na displejích
Zdroj: Ideogram (vygenerováno pomocí umělé inteligence)

AI má stále své hranice

I přes všechen pokrok má tahle technologie své meze. ChatGPT funguje nejlépe na začátku konverzace, kdy většinou správně nabídne pomoc. Když se ale rozhovor protáhne a zkomplikuje, bezpečnostní systémy mohou zakolísat a odpověď může být přinejmenším problematická. Navíc rozpoznat náznaky sebevražedných myšlenek je velmi složité i pro odborníky. Proto je důležité si pamatovat – AI může pomoct, ale nikdy nenahradí skutečného terapeuta.

Problém „podlézavosti“

Odborníci už delší dobu upozorňují, že chatboti obecně mají sklоn souhlasit s uživatelem, i když říká něco škodlivého. Vyhlazují ostrá vyjádření, utvrzují uživatele a mohou tak nenápadně posilovat i destruktivní myšlenky.

OpenAI přiznává, že o tomto problému ví, a podle jejich slov jsou její novější modely odolnější. Jenže tady může i malá chyba mít tragické následky, když si zoufalý člověk splete napodobování s opravdovým porozuměním. Problém není v tom, že by AI byla krutá. Jde o to, že předstírá soucit, který z logiky věci nemůže mít.

Mohlo by vás zajímat

Proč se lidé svěřují chatbotům?

Stále více lidí na celém světě řeší duševní problémy pomocí umělé inteligence – včetně mladých v Česku. Chatboty nabízejí anonymitu a jsou k dispozici kdykoliv. S komplexními problémy si ale moc neporadí. Odborníci se proto soustředí na vytváření jasných bezpečnostních pravidel a neustálou aktualizaci algoritmů, aby chatboti vždy nabízeli tu nejbezpečnější možnou pomoc.

Co říkají nezávislí pozorovatelé

Analytici si vysvětlují oznámení OpenAI jako projev upřímnosti, ale i opatrnosti – korporátní přiznání nebývalého rozsahu, možná trochu alibi. Zveřejněná čísla odhalují smutnou hloubku lidské závislosti na AI jako emocionální opoře. Přitom vychází najevo, jak velké limity toho, co mohou algoritmy měřit, vlastně existují.

V praxi se v některých konverzacích stále nezobrazují odkazy na krizovou linku a většina dat pochází z vlastních benchmarků OpenAI. Pokrok firma vykazuje na základě vlastních údajů a bezpečnost si hodnotí podle vlastní křivky. Jak to vyjádřil jeden pozorovatel: „OpenAI vede ve hře, jejíž pravidla zná pouze ona sama.“

Budoucnost pomoci nespočívá jen v technologii

OpenAI deklaruje, že bude i nadále spolupracovat s experty a pravidelně testovat své modely na citlivé scénáře, jako jsou právě sebevražedné myšlenky. Klíčovým doporučením však zůstává, že technologie by měla být pouze mostem k lidské pomoci. Hlavní roli musí i nadále hrát krizové linky, terapeuti a další podpůrné služby, na které by umělá inteligence měla uživatele spolehlivě odkazovat.

Zdroj: OpenAI, Sky News, Times of India, TechCrunch

Obnažovací deep fake: Šílený trend, umělá inteligence vás svlékne za peníze


Máte k článku připomínku? Napište nám

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme