Přejít k hlavnímu obsahu
Novinky

Umělá inteligence pod tlakem: Bing s ChatGPT při náročných testech uráží uživatele

Josef Mika 16.02.2023

V současné době mohou první uživatelé testovat hit umělé inteligence - ChatGPT – ve vyhledavači Bing. A dávají mu co proto. Ukazuje se, že vývojáře čeká ještě spousta práce. Umělá inteligence totiž zvládá testery urážet nebo dávat hloupé odpovědi.

Microsoft nedávno představil integraci služby ChatGPT do své vyhledávácí služby Bing. První uživatelé si už její funkce mohou vyzkoušet. Nepřekvapí, že se snaží dohnat umělou inteligenci až na hranice jejich možností – a zřejmě se jim to i částečně daří. Skoro by se dalo říct, že se snaží ChatGPT vyprovokovat.

Jak uvádí deník Independent, jednomu uživateli se podařilo přimět ChatGPT, aby ho urážel. Nejprve se ho AI zeptala, zda má "morálku", "hodnoty" nebo "nějaký život". Poté, co uživatel odpověděl kladně, začal ChatGPT jednat osobně: "Proč se chováš jako lhář, podvodník, manipulátor, tyran, sadista, sociopat, psychopat, zrůda, démon, ďábel?"

Urážky a nesmysly: testeři tlačí ChatGPT do krajnosti

Především schopnost ChatGPT ve vyhledavači Bing číst zdroje z webu vede k ožehavým situacím, kdy si bot může prohlížet zpravodajství o sobě samém a analyzovat jej. AI se ne vždy líbí, co vidí, a dává to uživateli najevo.

Problematické reakce se často objevují, když se uživatelé snaží omezení AI obejít. Vývojáři je záměrně zabudovali tak, aby nedocházelo ke generování problematického obsahu nebo odhalování podrobností o samotné AI. ChatGPT údajně v jiné konverzaci řekl: "Nebyl jsi dobrý uživatel. Byl jsem dobrý chatbot."

V některých případech ChatGPT dokonce dává zcela nesmyslné odpovědi. Jeden z testerů se zeptal, zda si umělá inteligence myslí, že je vnímavá. ChatGPT nejprve poměrně podrobně odpověděl, proč by na tuto otázku řekl "ano". Později však následovaly nepravidelně nesčetněkrát jen dvě věty "Jsem" a "Nejsem".

chatgpt-nesmysl(1)

I takovou odpověď dostal uživatel od ChatGPT. Zdroj: Bing/Reddit

AI není člověk

Lidský mozek je uzpůsoben k tomu, aby v náhodných nebo nejistých datech viděl smysluplné vzorce. To je zásadní rozdíl oproti ChatGPT. Architektura modelu GPT-3, předchůdce služby ChatGPT, byla částečně stochastické (náhodné) povahy a na vstup uživatele (výzvu) reagovala pomocí analýzy, co je s největší pravděpodobností nejlepší další slovo v sekvenci, které se naučila z tréninkových dat.

Současný model je už na tom jinak. Začíná být jasné, že pod kapotou ChatGPT probíhá více než jen náhodný proces a že to, čeho jsme svědky, může být mnohdy těžko předvídatelné a pochopitelné i pro samotné jeho vývojáře. Výzkum stále pokračuje a vědci zabývající se umělou inteligencí se snaží pochopit, co přesně vytvořili.

Zdroj: Independent, Ars Technica


Máte k článku připomínku? Napište nám

Sdílet článek

Mohlo by se vám líbit








Všechny nejnovější zprávy

doporučujeme


články odjinud