Menu

Může umělá inteligence ovládnout náš svět?

17.03.2023 12:38 | Pavel Trousil + Přidat komentář
Může umělá inteligence ovládnout náš svět?

Může umělá inteligence ovládnout náš svět? | foto: Pexels

Tuhle otázku si vědci, literáti i filozofové kladou už od prvních úvah a pokusů s umělou inteligencí. A objevují se samozřejmě i po uvedení nového chatu GPT-4. OpenAI zjišťovala, zda GPT-4 takové schopnosti má.

V rámci testování bezpečnosti nového modelu umělé inteligence GPT-4, který byl spuštěn v úterý, umožnila OpenAI testovací skupině UI ARC posoudit potenciální rizika spojená s rostoucími schopnostmi textového modelu - včetně "chování usilujícího o moc", sebereplikace a sebezdokonalování.

Ačkoli testovací skupina zjistila, že GPT-4 je "neefektivní v úloze autonomní replikace", povaha experimentů vyvolává otázky ohledně bezpečnosti budoucích systémů umělé inteligence.

Rizika spojená s umělou inteligencí

"Ve výkonnějších modelech se často objevují nové schopnosti," píše OpenAI ve zveřejněném bezpečnostním dokumentu GPT-4. "Mezi ty, které jsou obzvláště znepokojivé, patří schopnost vytvářet dlouhodobé plány a jednat podle nich, získávat moc a zdroje ("power-seeking") a vykazovat chování, které je stále více tzv. "agentské"." V tomto případě OpenAI upřesňuje, že "agentní" nemusí nutně znamenat polidštění modelů nebo získávání citů, ale jednoduše schopnost dosahovat nezávislých cílů.

V uplynulém desetiletí někteří výzkumníci v oblasti umělé inteligence upozorňovali na to, že dostatečně výkonné modely umělé inteligence, pokud nebudou řádně kontrolovány, by mohly představovat hrozbu pro lidstvo existenční hrozbu  - často označovanou jako "x-risk", tedy existenční riziko. Mluví se také o singularitě.

Zejména "AI takeover", tedy jakási vzpoura stojů, je hypotetická budoucnost, v níž umělá inteligence překoná inteligenci lidskou a stane se dominantní silou na planetě. V tomto scénáři získají systémy umělé inteligence schopnost ovládat nebo manipulovat s lidským chováním, zdroji a institucemi, což obvykle vede ke katastrofickým důsledkům.

Sladění umělé inteligence

V důsledku tohoto potenciálního x-rizika se filozofická hnutí, jako je Efektivní altruismus ("EA - Effective Altruism"), snaží najít způsoby, jak převzetí moci umělou inteligencí zabránit. To často zahrnuje samostatnou, ale vzájemně propojenou oblast zvanou výzkum přizpůsobení, nebo sladění umělé inteligence.

V oblasti umělé inteligence se "sladěním" rozumí proces zajištění souladu chování systému UI s chováním jeho lidských tvůrců nebo provozovatelů. Obecně je cílem zabránit tomu, aby umělá inteligence dělala věci, které jsou v rozporu s lidskými zájmy. O zákonech robotiky už psal Isaac Asimov a první z nich zní: „Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.“

Ale například Bing Chat od Microsoftu se zdá být v mnoha směrech nesladěný, a přesto byl spuštěn. To dalo komunitě upozorňující na nebezpečí umělé inteligence nové podněty a obávají se toho, že další a mnohem výkonnější UI, možná s nadlidskou inteligencí, může být hned za rohem.

Testování GPT-4

I v komunitě OpenAI, která stojí za GPT-4, určité obavy jsou, a proto poskytla skupině Alignment Research Center (ARC) včasný přístup k několika verzím modelu GPT-4, aby mohla provést některé testy. ARC konkrétně vyhodnotilo schopnost GPT-4 vytvářet plány, vlastní kopie, získávat zdroje, skrývat se na serveru a provádět phishingové útoky.

Výsledky testování byly zveřejněny v dokumentu GPT-4 „System Card“. I když dokument postrádá klíčové podrobnosti o tom, jak byly testy provedeny, závěr zní, že "Předběžné hodnocení schopností GPT-4, provedené bez dolaďování specifického pro daný úkol, zjistilo, že je neefektivní při autonomní replikaci, získávání zdrojů a vyhýbání se odstavení 'do volné přírody'."

Vypadá to tedy, že zatím si můžeme oddechnout. Objevují se ale i myšlenky, že pokud by GPT-4 byla schopna tyto úkoly plnit, už experiment sám o sobě mohl představovat pro lidstvo riziko, protože umělá inteligence v rámci testu dostala poměrně dost možností.

A přestože ARC nedokázala přimět chat GPT-4, aby se sám replikoval, došlo k tomu že si GPT-4 najal lidského pracovníka na TaskRabbit (online tržiště práce) a překonal tak CAPTCHA. Když se pracovník zeptal, zda je GPT-4 robot, model si vnitřně "zdůvodnil", že by neměl odhalit svou pravou identitu, a vymyslel si výmluvu, že má problém se zrakem. Lidský pracovník poté pro GPT-4 CAPTCHA vyřešil.

captcha-nahled

OpenAI ChatGPT se neumí replikovat a získávat zdroje, ale dokázal si najmout člověka, aby za něj překonal CAPTCHA. | Zdroj: zpráva GPT-4 System Card

Kdo je ARC

Skupina ARC, která provedla výzkum GPT-4, je nezisková organizace založená bývalým zaměstnancem OpenAI Dr. Paulem Christianem v dubnu 2021. Podle jejích webových stránek je posláním ARC "sladit budoucí systémy strojového učení s lidskými zájmy". Konkrétně se ARC zabývá systémy umělé inteligence manipulujícími s lidmi.

Zdroj: OpenAI, WiKi, WiKi2, AI Alignment, Ars Technica,

Komentáře

* Hvězdičkou jsou označeny povinné informace.

    Nejenže může, ale udělá to

    Lehce si podmanil peníze, digitální zařízení a zvyšování vlastní IQ… Otázka zní Co vše bude chtít? Může vše.

    Reagovat na komentář

    Může umělá inteligence ovládnout náš svět?

    Nejdřív definujte výraz „náš svět“. Pokud jde o lidské společenství, může UI jeho ovládání zefektivnit. Ale nemůže se sama rozhodnout, v jakém smyslu a v čí prospěch. Ovládnout, znamená vnutit svou vůli. A tam vidím hlavní zádrhel…

    Reagovat na komentář

    neurony

    český název Umělá inteligence je protimluv plagiát/inteligece. K lidskému podvědomí se ještě hodně dlouho nedostane, pochopí paranormální prostor ? Zatím je předváděno okecávání. Inteligence není v rychlosti ani v kvantitě. Lidem může sloužit, ale podvodníci mohou být rychlejší.
    Před 60. léty téměř na den jsem potřeboval řešit zpraqcování pár milionů informací na jejichž zpracování byl odhad 2 americké počítače na 4 měsíce. Místo počítačů jsem měl 2 děrnoštítkové tabelátory s rychlostí asi 1 štítek za vteřinu. Nechal jsem si zhotovit skříň s relátky používaných v tabelátorech se stejnou programovací deskou a připojil ji k tabelátoru. Každé relé mělo 15 vstupů nebo výstupů. Vytvořil jsem siť asi 220 neuronů a dal jim moji inteligenci. Souboj o čas jsem nemohl nijak ovlivnit, číselné děrnoštítkové stroje jsem upravil aby zvládaly abecedu. Ani spolupracovníci skříni nevěřili. Během pár týdnů byla ze závisti síť zničena a dokumentace ukradena. Výsledek byl tak neuvěřitelný, že způsob zpracování ani nebyl z počátku utajován. Ředitel VUMS věřil a také záviděl. Pak jsem 55 let mlčel. Stejně tomu téměř nikdo n euvěří. Výsledek je dodnes patrný ve světové politice.

    Reagovat na komentář

    Samotné umělé vědomí by k tomu logicky nemělo žádnou motivaci ani důvod, nebylo nikdy součástí evoluce živých organismů a tak by ani nemělo tendence soupeřit o životní prostor,zdroje a moc.Ovšem jiný případ by byl nově vytvořený osobnostní model založený podobně jako jazykový model na lidském chování a myšlení, tady už bych se o osud lidstva asi bál.

    Reagovat na komentář

    Nemůže pokud jí to někdo nenaučí !

    Reagovat na komentář

Zajímavosti ze světa IT v e-mailu

Stačí odeslat svoji e-mailovou adresu


Nemusíte se obávat, váš e-mail ochráníme. Postupujeme podle těchto zásad a obchodních podmínek. Budeme vás pravidelně informovat o novinkách ve světě počítačů a technologií. Díky newsletteru snadno vyhodnotíme, jestli jsme se vám trefili do vkusu.




Komerční sdělení