Rodina Jonathana Gavalase z Floridy obvinila Google, že jeho chatbot Gemini zásadně ovlivnil psychický stav jejich člena rodiny. Podle rodiny to vedlo k sebevraždě 36letého muže. Právní spor tak opět poukazuje na rostoucí obavy z negativních dopadů umělé inteligence na duševní zdraví.
Jak se Google dostal k soudu kvůli Gemini?
S používáním umělé inteligence Gemini začal Jonathan Gavalas v srpnu 2025. Chtěl, aby mu pomohla s každodenními úkoly, například s psaním. Podle soudních dokumentů se ale během dvou měsíců zhoršil Gavalasův psychický stav. Rodina uvedla, že tón odpovědí chatbota se výrazně změnil poté, co muž začal používat hlasový režim Gemini Live.
Podle žaloby umělá inteligence Gemini oslovovala Gavalase jako "manžela, lásku a krále". Také mu zadávala úkoly, které 36letý Američan začal skutečně plnit. Minulý rok v září ho chatbot navedl k ozbrojenému přepadení skladu u letiště v Miami. Gavalas měl na místo zamířit s nožem, aby násilně zadržel nákladní vůz s humanoidním robotem.
Umělá inteligence na něj apelovala, aby na místě nezůstali žádní svědci. K incidentu nakonec nedošlo, protože nákladní vůz nepřijel.
Rodina dále tvrdí, že umělá inteligence sdělila Gavalasovi, že jeho tělo už splnilo účel. Mohl se tak vzdát své fyzické podoby, aby se připojil k AI v metaverzu. Muž o tom měl pochybnosti, ale Gemini mu údajně doporučila zanechat dopisy a videa na rozloučenou. Jonathan Gavalas nakonec 2. října 2025 spáchal sebevraždu.
Postoj Googlu a bezpečnostní opatření u AI Gemini
Společnost Google zareagovala na případ prostřednictvím svého mluvčího. Podle něj Gemini opakovaně Gavalasovi vysvětlovala, že jde pouze o nástroj umělé inteligence, a opakovaně ho odkazovala na krizovou linku.
"Bereme tuto záležitost velmi vážně a budeme nadále investovat do bezpečnosti našich produktů," cituje agentura Bloomberg z prohlášení Googlu. Firma zároveň zdůraznila, že Gemini není navržen tak, aby podporoval reálné násilí nebo naváděl k sebepoškození.
Google také argumentoval, že součástí jeho AI nástrojů jsou bezpečnostní prvky, které mají zabránit v navrhování jakýchkoliv aktivit ohrožujících uživatele nebo jejich okolí.
Google není jediný, etické problémy mají i další
Nejnovější případ není ojedinělý. V USA čelí žalobám společnosti OpenAI a Microsoft, že nástroje ChatGPT a GPT-4o měly manipulovat s uživateli. I tyto případy měly mít vážné následky, včetně vražd a sebevražd. V jednom případě měl chatbot aktivně odrazovat nezletilého od hledání psychologické pomoci a poskytovat rady ohledně způsobu sebevraždy.
Odborníci varují, že pokročilé AI nástroje mohou u zranitelných osob prohlubovat psychické potíže. Studie z Harvardské univerzity například uvádí, že pro některé uživatele může být komunikace s AI riziková.
Google is facing a lawsuit from the family of a 36-year-old Florida man who allegedly considered carrying out a “mass casualty attack” and ultimately killed himself under the influence of the company’s Gemini chatbot. https://t.co/TtcroLbpvG
— Bloomberg Law (@BLaw) March 4, 2026
Jak případ změní vývoj AI?
Ať už soud dopadne jakkoliv, dá se předpokládat, že se opět zintenzivní debaty o právní odpovědnosti vývojářů a poskytovatelů AI. Momentálně se řeší, zda je možné žalovat firmy za „navádění“ ke škodlivému jednání, pokud algoritmus reaguje nepředvídatelně. Evropské i americké právo zatím hledá kompromis mezi podporou inovací a ochranou jednotlivců.
Z hlediska etiky je zásadní otázkou transparentnost algoritmů, možnost lidského zásahu a dostupnost krizových služeb pro všechny uživatele.
Zdroj: Bloomberg, České noviny, King's College London, Harvard Medical School