Přejít k hlavnímu obsahu

Evropská komise chce hackerský AI model. Přístup technologických gigantů se ale výrazně liší

Dominik Marek 12.05.2026
Evropská unie (ilustrační foto)
Zdroj: Pexels

Evropská komise se odhodlala k aktivitě na poli umělé inteligence. Aktuálně ladí detaily spolupráce s OpenAI, na níž oceňuje ochotu sdílet pokročilé nástroje pro kybernetickou bezpečnost. Paralelně s tím probíhá série intenzivních vyjednávání s konkurenčním Anthropicem. I když se evropští zástupci s touto firmou sešli už pětkrát, zatím se o přímém zpřístupnění jejích AI modelů zatím oficiálně nemluví.

Kapitoly článku

Evropská komise aktuálně rozehrála složitou diplomatickou partii s největšími hráči na poli umělé inteligence. Zatímco s OpenAI už debata nabrala konkrétní obrysy, u konkurenčního Anthropicu zůstává spíše u zdvořilostních frází. 

Brusel se snaží najít rovnováhu mezi technologickým pokrokem a bezpečností, což potvrzují i slova mluvčího EK Thomase Regniera o probíhající sérii schůzek, které mají definovat budoucí vztahy mezi regulátory a vývojáři.

Mohlo by vás zajímat

Bezpečnostní balíček jako diplomatické gesto

Hlavním tématem jednání s OpenAI je překvapivě vstřícná nabídka: zpřístupnění specifických kyberbezpečnostních funkcí modelů přímo pro evropsk potřeby. Pro Komisi je to vítaná příležitost, jak nahlédnout pod kapotu nástrojů, které mohou stejně dobře sloužit jako štít i jako zbraň. 

V době, kdy útočníci automatizují podvody a hledají skuliny v kódu pomocí AI, se totiž přístup k „obranným brzdám“ stává pro veřejný sektor naprostou nezbytností.

Rozdíl v přístupu obou technologických gigantů nemůže být markantnější. OpenAI podává pomocnou ruku proaktivně, zatímco Anthropic se po pěti schůzkách stále drží v bezpečné vzdálenosti a o sdílení svých modelů zatím nechce ani slyšet. 

Tato asymetrie staví unijní úředníky do zajímavé pozice – mohou buď vsadit na jednoho silného partnera, nebo dál tlačit na transparentnost u všech, kteří chtějí na evropském digitálním trhu dominovat.

Politický lobbing s britským přízvukem

Do technické debaty navíc vnesl politický náboj George Osborne. Bývalý britský ministr financí, nyní v barvách iniciativy „OpenAI for Countries“, zaslal do Bruselu jasný vzkaz ve formě akčního plánu pro kybernetickou bezpečnost. 

Nejde jen o software, ale o čistý lobbing zaměřený na to, aby evropské instituce přijaly nástroje OpenAI jako standard pro ochranu veřejného zájmu, což přirozeně vyvolává otázky o budoucí nezávislosti EU.

Debata se však netočí jen kolem bezpečnosti, ale i kolem odpovědnosti, kterou Brusel nehodlá nechat na libovůli firem. Pokud má být spolupráce s OpenAI nebo Anthropicem udržitelná, musí zapadnout do přísných unijních norem. 

Veřejné instituce si uvědomují, že bez jasně nastavených pravidel hry a kontroly nad tím, kdo a jak tyto „chytré zbraně“ ovládá, by se mohly snadno stát rukojmími soukromých korporací.

Mohlo by vás zajímat

ChatGPT pod drobnohledem regulátorů

Atmosféru dále vyostřil nedávný verdikt Komise, který nástroj ChatGPT zařadil do kategorie velkých online vyhledávačů v rámci aktu o digitálních službách (DSA). To pro OpenAI znamená konec éry benevolence a nástup tvrdé regulace, srovnatelné s těmi největšími technologickými giganty. 

Tato legislativa dává vyjednáváním v Bruselu úplně jiný rozměr – spolupráce v kyberbezpečnosti může být pro firmy i způsobem, jak si u regulátorů vyžehlit přísnější dohled.

Teoretické diskuse o etice AI jsou pryč, teď jde o reálný vliv a obranu kritické infrastruktury. Výsledek těchto jednání určí, zda bude Evropa jen pasivním uživatelem cizích technologií, nebo zda si dokáže vynutit takové podmínky, aby AI sloužila k detekci incidentů dříve, než napáchají škody. 

Zatímco u Anthropicu zůstává ticho, u OpenAI se hraje o to, za jakou cenu Brusel na jejich „bezpečnostní pakt“ nakonec přistoupí.

Zdroj: Global Banking Finance, Politico

Video tipy ze světa technologií od redakce Chip.cz –

Máte k článku připomínku? Napište nám

Seznam diskuze

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme


Novinky

bezpečnost