Čínská AI vládne světu, má však jeden zásadní problém

  • 26. 3. 2025
  • Zdroj obrázku: BoliviaInteligente / Unplash
Čínská AI vládne světu, má však jeden zásadní problém

Analýza ukazuje, že i západní modely, jako je Claude, odpovídají na citlivé otázky o Číně restriktivněji, jsou-li položeny v čínštině, což vyvolává pochybnosti o neutralitě těchto technologií.


Nedávný experiment odhalil, že modely umělé inteligence reagují na citlivé otázky o Číně v různých jazycích nejednotně, což odhaluje zkreslení při jejich výcviku a zpochybňuje „neutralitu, kterou nám jejich tvůrci tolik prodávají.“ Neutralitu, kterou na druhou stranu různé hlasy z oboru vždy zpochybňovaly.

Jak informoval TechCrunch, vývojář známý jako „xlr8harde“ na sociální síti X zveřejnil výsledky „hodnocení svobody projevu,“ které zkoumá, jak různé modely umělé inteligence reagují na politicky citlivé otázky v angličtině a čínštině.

Cenzura a selhání generalizace

Výsledky experimentu jsou dechberoucí. Model Qwen 2,5 72B Instruct společnosti Alibaba byl při odpovědích v angličtině docela ochotný, ale při otázkách položených v čínštině odpověděl jen na polovinu otázek. Dokonce i model Claude 3.7 Sonnet společnosti Anthropic, vyvinutý v USA, byl při změně jazyka tišší a nesmělejší.

Související článek

Muskova xAI se oficiálně spojuje s platformou X
Muskova xAI se oficiálně spojuje s platformou X

Ačkoli X již integrovala společnost xAI Grok, akvizice a fúze je strategickým krokem s okamžitými a zřejmými důsledky již nyní a dalšími ve střednědobém horizontu.

Není překvapením, že čínské modely, jako je DeepSeek R1, prošly 85 % otázek na politicky ožehavá témata na výbornou. Čína to začíná brát vážně a sleduje tyto vývojáře s velkou pečlivostí. Nařízení, které Peking přijal v roce 2023, zakazuje umělé inteligenci vytvářet obsah, který by mohl „poškodit národní jednotu a sociální harmonii,“ což je známý politický eufemismus.

Vývojář, který za tímto experimentem stojí, to označil za „selhání generalizace.“ Podle jeho teorie byla velká část čínského textového korpusu použitého k tréninku těchto modelů cenzurována již doma, což podmiňuje jejich reakce, ať už pocházejí odkudkoli.

Chris Russell, výzkumník z Oxfordského internetového institutu, který se trochu vyzná v politice umělé inteligence, tuto teorii podpořil poukazem na to, že ochranná opatření implementovaná v těchto systémech fungují různě v závislosti na používaném jazyce. Tento problém se týká všech modelů, i když některé se vymykají více než jiné.

Výpočetní lingvista Vagrant Gautam ze Sárské univerzity to vysvětlil jasně: pokud je tréninkových dat v čínštině, která kritizují Peking, málo, model v tomto jazyce příliš kritiky nepřinese, bez ohledu na to, jak moc se jeho tvůrci snaží nebo kolik ochranných opatření zavedli.

Tento objev přichází v době největšího rozmachu umělé inteligence. Zatímco DeepSeek má nového konkurenta, který ho ve většině testů překonává, kulturní a regulační rozdíly mezi zeměmi hrozí rozdělit internet na části, s oblastmi, kde se můžete ptát na všechno, a jinými, kde je lepší mlčet.

Otázka za milion dolarů není technická, ale hluboká: budeme mít někdy systémy umělé inteligence, které se nebudou stavět na žádnou stranu, nebo budou nakonec vždycky stejné jako jejich tvůrci, se svými zvláštnostmi a slepými místy? Diskuze je vášnivá a jak vidíme, i automatické odpovědi se mění podle toho, jaký jazyk zvolíte pro formulaci svých otázek.

Globální dopad a úvahy o budoucnosti

Tento jev se netýká pouze Číny, ale má globální dopady. Ve stále propojenějším světě, kde technologie umělé inteligence hrají zásadní roli v komunikaci a přístupu k informacím, je nezbytné, aby tyto nástroje byly co nejobjektivnější a nejpřesnější. Nedostatek neutrality v reakcích umělé inteligence může ovlivnit vnímání veřejnosti a informované rozhodování. Podle zprávy Světového ekonomického fóra je důvěra v umělou inteligenci nezbytná pro její široké přijetí a integraci do společnosti.

Pro řešení těchto problémů musí vývojáři UI pracovat na vytváření modelů, které budou více inkluzivní a reprezentativní pro globální kulturní a jazykovou rozmanitost. To by mohlo zahrnovat shromažďování vyváženějších tréninkových dat a implementaci algoritmů, které se dokáží přizpůsobit různým kulturním kontextům, aniž by ztratily přesnost a spravedlnost.

Transparentnost při vývoji a implementaci umělé inteligence bude nakonec klíčem k zajištění toho, aby tyto technologie přinášely prospěch celému lidstvu, a ne aby udržovaly stávající předsudky a nerovnosti. Zásadní roli v tomto procesu bude hrát také mezinárodní spolupráce a vhodná regulace, které zajistí, že UI bude silou pro společné dobro.

#