Nikoho nepřekvapí, že stále vyspělejší umělá inteligence bude stále lidštější, bude schopna odpovídat na složitější otázky, ale také nás přirozeně klamat tím, že bude nesprávné odpovědi vydávat za pravdivé.
Často se stává, že zákony přicházejí na jakýkoli večírek vždy pozdě, a pravdou je, že ani v případě umělé inteligence tomu nebude jinak. Ve skutečnosti je pokrok umělé inteligence stále ještě v plenkách, což je docela děsivé, předčí člověka prakticky ve všem a předjímá, že jelikož je to teprve začátek, budoucnost vypadá ještě nejistěji, pokud jde o její možnosti a způsob, jakým bude začleněna do našich životů a/nebo do naší práce.
Tuto situaci samozřejmě budou muset v budoucnu vyřešit odborníci, i když již nyní v současnosti existuje řada studií, které předvídají, jak se bude umělá inteligence chovat, jak poroste, bude se učit a postupovat, jako v tomto případě nedávná recenze v časopise Futurism, která nám říká o stále sofistikovanější umělé inteligenci, a tedy stále větší náchylnosti ke lhaní.
Původní studie, publikovaná v časopise Nature, zkoumala některé z předních komerčních LLM, tedy modely, které jsou s každou další iterací stále výkonnější, ale s rostoucím počtem se ukazují jako méně spolehlivé, a to z jednoduchého důvodu.
Nejmodernější a nejvýkonnější chatboty si myslí, že jsou příliš chytré, a tak tráví čas vymýšlením faktů a odpovědí, místo aby odmítaly otázky, pro které neznají platné řešení. Netřeba dodávat, že mluvíme o GPT od OpenAI, LLaMA od Meta nebo BLOOM od BigScience, což jsou tři nejdůležitější možnosti.
Takto to popisuje José Hernández-Orallo, odborník z Valencijského institutu pro výzkum umělé inteligence a spoluautor původní studie:
„V dnešní době umělá inteligence reaguje téměř na všechno a to znamená, že existuje více správných odpovědí, ale také více špatných.“
Umělé inteligence se samozřejmě stávají mnohem přesnějšími a inteligentnějšími, ale to má nezamýšlený důsledek, protože jsou také schopny lépe předstírat, že jsou dobře vycvičené, a budou nám proto schopny dávat přesvědčivé odpovědi, které jsou zcela nepravdivé.
Debata se vede o tom, že problém už není ani tak v tom, že jim klademe velmi složité otázky, protože s postupujícím vývojem jsou stále schopnější na tyto otázky odpovídat, ale že velkou nevýhodou je, že stále selhávají v jednoduchých otázkách, přičemž úroveň přesnosti se ve studii pohybuje kolem 60 %.
Poslední zmíněná skutečnost je znepokojující, protože lidé zapojení do studie vnímali odpovědi umělé inteligence jako přesné, ale v mnoha případech nesprávné, přičemž se mýlili v 10 až 40 % případů kvůli tomu, jak přesvědčivě umělá inteligence působila.
„Lze nastavit práh, aby v případě náročnější otázky mohl chatbot říci ‚nevím‘ a vyhnout se nesprávné odpovědi.“
Výzkumníci mají jasno v tom, že v ideálním případě by chatboti a LLM měli být naprogramováni tak, aby se vyhnuli systematické odpovědi na vše, zejména pokud jim není jasný kontext nebo si nemohou ověřit a překontrolovat správnost svých informací.
To by se však dostalo do rozporu se zájmy průmyslu, firem a mnohamiliardového byznysu, v němž se každý chce stavět do pozice de facto standardu a kde by chatbot, který je upřímný a řekne, že některé věci neví, byl vnímán jako omezený, což by komplikovalo jeho prosazení na trhu vzhledem k jiným možnostem, které odpovídají na vše, i když riskují, že se mýlí.
Samozřejmě nemluvíme o stroji, který by lhal, jako takovém, protože zatím se stále jedná o vycvičené AI, ale studie dochází k závěru, že s tím, jak se stávají sofistikovanějšími, se velké jazykové modely (LLM) více podobají lidem, jsou schopny „lépe simulovat, že mají znalosti“.