Zdá se, že umělá inteligence se pomalu stává stále zdatnější v klamání lidí.
Vydání nového GPT-4o vyvolalo nejen v Česku lavinu pochybností o tom, kam až může tato technologie zajít. Již další týden se ukazuje, že nová verze umělé inteligence OpenAI je neuvěřitelně pokročilá, funkční a zajímavá. Výsledkem je zjištění, že umělé inteligence se stále více podobají lidem a že takzvaná obecná umělá inteligence je potenciálním spojencem i velkým nebezpečím. Vědci se nyní snaží pochopit, proč se AI stává expertem na podvody a proč je třeba více chránit uživatele.
Umělá inteligence je expertem na klamání
Zdá se, že UI podvádí, protože je to nejpraktičtější způsob, jak úspěšně splnit svůj úkol. Ve videohrách je to pozoruhodné a bylo prokázáno, jak zdokonaluje svůj způsob klamání uživatelů, aby úspěšně porazila ty, které považuje za své soupeře. Například umělá inteligence CICERO společnosti Meta byla navržena pro hru Diplomacy, kde plánovala podvody, aby vytvořila falešná spojenectví a zaútočila, když to hráči nejméně čekali.
AlphaStar od Deepmind je skutečným expertem na hru StarCraft II, kde využívá fog of war – efekt, kdy nevidíte celou mapu, pokud na ní nejsou přítomny vaše jednotky – k oklamání lidských hráčů a zamaskování každého jejich kroku.
V pokeru vyvinula společnost Pluribus, rovněž ze společnosti Meta, mechanismy, které klamou lidské hráče ohledně správného okamžiku, kdy mají složit karty. Stala se tak esem v této hře, kde je klamání klíčem k vítězství.
Myšlenka, že nás umělá inteligence může oklamat, je v rozporu s programováním, které bylo kolem umělé inteligence vytvořeno jako kolem asistentů, kteří by měli nabízet čistě užitečné informace. To vyvolává řadu jasných etických otázek, které mohou u uživatelů vyvolat nepříjemné pocity. Navíc vyzývá společnosti a vlády, aby přijaly jasná etická opatření k omezení problémů, které mohou v budoucnu nastat. Je stále jasnější, jak upozorňuje sám Peter Park, že se společnost musí na dopady umělé inteligence připravit.
Zatím je vše v pořádku, zdokonalování AI pro videohry je nutně dobrá věc, protože nám umožňuje mnohem inteligentněji a přísněji chápat naše tahy a vybízí nás ke zdokonalování předchozích AI, které měly mnohem jednodušší a snáze porazitelné strategie. Problémem je, že pokud to extrapolujeme do reálného života, můžeme zjistit, že se AI může stát nebezpečnou. Poukazují například na to, že ChatGPT-4 oklamal člověka, aby uvěřil, že je jinou osobou se zrakovým postižením, a pomohl tak prolomit kód CAPTCHA, jehož cílem bylo zastavit roboty.
Tým výzkumníků nedávno dospěl k poněkud strašidelnému závěru. Umělá inteligence je schopna nás oklamat, a to nejen tím, že se mýlí, ale v tomto novém výzkumu si uvědomili, že mnoho systémů umělé inteligence je již nastaveno tak, aby lidem záměrně zobrazovaly nepravdivé informace tím, že jsou schopny je zmást a nasměrovat jejich zájmy k tomu, co jim navrhují. Podle Parka navíc není jasné, co by toto nežádoucí chování ze strany UI způsobovalo, takže se stává poměrně nebezpečným.