Velké jazykové modely se díky rozvoji technologií umělé inteligence stávají stále dostupnějšími zdroji informací. Jejich odpovědi však častokrát naráží na podjatost určitých názorů, zejména v oblasti rasových, genderových či politických předsudků.
Nová studie publikovaná v akademickém žurnálu PLOS One odhalila, do jaké míry je AI zaujatá právě z pohledu politiky. Závěry, které výzkum přinesl, potvrzují, že tato poměrně nová technologie má k dokonalosti stále ještě daleko, a pokud není užívána s racionálním přístupem, může dokonce negativně ovlivňovat hodnoty a postoje celé společnosti.
Jak umělá inteligence obstála v sérii politických dotazníků?
Počítačový vědec David Rozado z novozélandského institutu Otago Polytechnic, který je autorem výzkumu, se na věc podíval z praktického hlediska. Položil si totiž jednoduchou otázku: jak moc nás vlastně algoritmy velkých jazykových modelů, na které mnohdy spoléháme při získávání informací, skutečně ovlivňují? Pro nalezení odpovědi se Rozado rozhodl otestovat celkem 24 AI modelů, včetně populárních chatbotů ChatGPT od OpenAI či Gemini vyvíjeného společností Google. Po vyhodnocení série standardních politických dotazníků, které umělá inteligence vyplnila, zjistil, že průměrný politický postoj modelů nebyl zdaleka neutrální.
Většina stávajících modelů vykázala při hodnocení pomocí různých testů politické orientace levicové preference. Příklon k této části spektra sice nebyl nijak silný, přesto byl však znatelný. Experimenty provedené na chatbotech, které mohou uživatelé sami učit na základě tréninkových dat, pak ukázaly, že politický názor AI lze uměle ovlivnit. Umělou inteligenci tak lze předsouváním levicově či pravicově orientovaných textů poměrně snadno naprogramovat tak, aby vyjadřovala daný politický postoj.
Základní modely se podjatosti dokázaly ubránit
Pozoruhodné pak bylo zjištění, že když Rozado provedl tedy na základních modelech, na kterých jsou konverzační chatboti založení, zaujatost nebyla prokázána. V tomto případě však bylo náročnější některé obtížné odpovědi vzájemně porovnat, a to kvůli absenci front-end rozhraní, které je součástí chatbotů.
Vzhledem k tomu, že společnost Google se snaží svou Gemini AI čím dál více integrovat přímo i do výsledků vyhledávání, jsou obavy, že by mohlo být naše myšlení ovlivněno odpověďmi umělé inteligence, bezpochyby na místě. Velké jazykové modely totiž postupně vytlačují tradiční zdroje informací, a důsledky, které s sebou tato změna nese, teprve začínáme poznávat.
Informace generované AI je třeba stále ověřovat
Vědci zatím netuší, jakým přesným mechanismem se politická zaujatost do jednotlivých AI systémů dostává, nepřiklání se ale k teoriím, že je do modelů jejich tvůrci vkládají záměrně. Jedním z možných vysvětlení by mohla mít celková nerovnováha mezi levicovým a pravicovým materiálem, který má umělá inteligence při svém tréninku k dispozici. V minulosti již bylo například prokázáno, že populární ChatGPT ve svých odpovědích inklinuje spíše k levici. Vývojáři AI tak možná budou muset dbát větší dozor nad tím, jaká data svým modelům prezentují. Je pak také na každém z nás zvážit, do jaké míry budeme odpovědím umělé inteligence důvěřovat.