Analýza ukazuje, že i západní modely, jako je Claude, odpovídají na citlivé otázky o Číně restriktivněji, jsou-li položeny v čínštině, což vyvolává pochybnosti o neutralitě těchto technologií.
Nedávný experiment odhalil, že modely umělé inteligence reagují na citlivé otázky o Číně v různých jazycích nejednotně, což odhaluje zkreslení při jejich výcviku a zpochybňuje „neutralitu, kterou nám jejich tvůrci tolik prodávají.“ Neutralitu, kterou na druhou stranu různé hlasy z oboru vždy zpochybňovaly.
Jak informoval TechCrunch, vývojář známý jako „xlr8harde“ na sociální síti X zveřejnil výsledky „hodnocení svobody projevu,“ které zkoumá, jak různé modely umělé inteligence reagují na politicky citlivé otázky v angličtině a čínštině.
Cenzura a selhání generalizace
Výsledky experimentu jsou dechberoucí. Model Qwen 2,5 72B Instruct společnosti Alibaba byl při odpovědích v angličtině docela ochotný, ale při otázkách položených v čínštině odpověděl jen na polovinu otázek. Dokonce i model Claude 3.7 Sonnet společnosti Anthropic, vyvinutý v USA, byl při změně jazyka tišší a nesmělejší.
Není překvapením, že čínské modely, jako je DeepSeek R1, prošly 85 % otázek na politicky ožehavá témata na výbornou. Čína to začíná brát vážně a sleduje tyto vývojáře s velkou pečlivostí. Nařízení, které Peking přijal v roce 2023, zakazuje umělé inteligenci vytvářet obsah, který by mohl „poškodit národní jednotu a sociální harmonii,“ což je známý politický eufemismus.
Vývojář, který za tímto experimentem stojí, to označil za „selhání generalizace.“ Podle jeho teorie byla velká část čínského textového korpusu použitého k tréninku těchto modelů cenzurována již doma, což podmiňuje jejich reakce, ať už pocházejí odkudkoli.
Chris Russell, výzkumník z Oxfordského internetového institutu, který se trochu vyzná v politice umělé inteligence, tuto teorii podpořil poukazem na to, že ochranná opatření implementovaná v těchto systémech fungují různě v závislosti na používaném jazyce. Tento problém se týká všech modelů, i když některé se vymykají více než jiné.
Výpočetní lingvista Vagrant Gautam ze Sárské univerzity to vysvětlil jasně: pokud je tréninkových dat v čínštině, která kritizují Peking, málo, model v tomto jazyce příliš kritiky nepřinese, bez ohledu na to, jak moc se jeho tvůrci snaží nebo kolik ochranných opatření zavedli.
Tento objev přichází v době největšího rozmachu umělé inteligence. Zatímco DeepSeek má nového konkurenta, který ho ve většině testů překonává, kulturní a regulační rozdíly mezi zeměmi hrozí rozdělit internet na části, s oblastmi, kde se můžete ptát na všechno, a jinými, kde je lepší mlčet.
Otázka za milion dolarů není technická, ale hluboká: budeme mít někdy systémy umělé inteligence, které se nebudou stavět na žádnou stranu, nebo budou nakonec vždycky stejné jako jejich tvůrci, se svými zvláštnostmi a slepými místy? Diskuze je vášnivá a jak vidíme, i automatické odpovědi se mění podle toho, jaký jazyk zvolíte pro formulaci svých otázek.
Globální dopad a úvahy o budoucnosti
Tento jev se netýká pouze Číny, ale má globální dopady. Ve stále propojenějším světě, kde technologie umělé inteligence hrají zásadní roli v komunikaci a přístupu k informacím, je nezbytné, aby tyto nástroje byly co nejobjektivnější a nejpřesnější. Nedostatek neutrality v reakcích umělé inteligence může ovlivnit vnímání veřejnosti a informované rozhodování. Podle zprávy Světového ekonomického fóra je důvěra v umělou inteligenci nezbytná pro její široké přijetí a integraci do společnosti.
Pro řešení těchto problémů musí vývojáři UI pracovat na vytváření modelů, které budou více inkluzivní a reprezentativní pro globální kulturní a jazykovou rozmanitost. To by mohlo zahrnovat shromažďování vyváženějších tréninkových dat a implementaci algoritmů, které se dokáží přizpůsobit různým kulturním kontextům, aniž by ztratily přesnost a spravedlnost.
Transparentnost při vývoji a implementaci umělé inteligence bude nakonec klíčem k zajištění toho, aby tyto technologie přinášely prospěch celému lidstvu, a ne aby udržovaly stávající předsudky a nerovnosti. Zásadní roli v tomto procesu bude hrát také mezinárodní spolupráce a vhodná regulace, které zajistí, že UI bude silou pro společné dobro.