Claude upravuje svou „cenzuru“
Redakce The Verge si všimla, že Claude nově blokuje jeho použití k syntéze nebo jinému vývoji vysoce výbušných látek nebo biologických, chemických, radiologických či jaderných zbraní nebo jejich prekurzorů.
Ačkoli jeho smluvní podmínky již dříve obsahovaly ustanovení zakazující navrhování „zbraní, výbušnin, nebezpečných materiálů nebo jiných systémů určených k působení škody“, je to poprvé, co zahrnují tak podrobné informace. Kromě toho Claude stále zakazuje jeho prostřednictvím generovat kódy pro kybernetické či malwarové útoky.

Nevědomky mohl pomoct teroristům
Opatření, které by mohl někdo nazvat „cenzurou“, však má svůj význam. V dubnu 2025 bezpečnostní výzkumníci ze společnosti HiddenLayer potvrdili, že je možné obejít bezpečnostní opatření v běžných AI nástrojích od OpenAI, Anthropic, Meta a Google a vytvořit návody na obohacování uranu (což je klíčová součást výroby jaderné zbraně).
Ačkoli chatboti neposkytovali informace, které již nebyly dostupné na internetu, byly tyto informace prezentovány v čitelném formátu, který může být srozumitelnější pro osoby bez potřebných technických znalostí – například teroristy.
A co teprve čínský DeepSeek
Velké jazykové modely – ať už jde o ChatGPT, Perplexity, Claude či Gemini – mají ve svých podmínkách zákaz používání jejich služeb k propagaci, podpoře či zapojení se do nezákonných aktivit. Jde například o výrobu, šíření nebo distribuci nelegálních látek, včetně drog, zbraní i výbušnin a další činnosti s trestní kvalifikací.
Malou výjimkou byl na začátku čínský DeepSeek, který schytal masivní vlnu kontroverze za to, že nabízel ucelené návody na výrobu ilegálních látek. V tomto ohledu došlo také k zpřísnění podmínek, přesto je však DeepSeek trnem v oku západních regulátorů, zejména kvůli netransparentnímu zacházení s uživatelskými daty.
Zdroj: AIAAIC, The Verge, PCMag