Čínská AI vládne světu, má však jeden zásadní problém

  • 26. 3. 2025
  • Zdroj obrázku: BoliviaInteligente / Unplash
Čínská AI vládne světu, má však jeden zásadní problém

Analýza ukazuje, že i západní modely, jako je Claude, odpovídají na citlivé otázky o Číně restriktivněji, jsou-li položeny v čínštině, což vyvolává pochybnosti o neutralitě těchto technologií.


Nedávný experiment odhalil, že modely umělé inteligence reagují na citlivé otázky o Číně v různých jazycích nejednotně, což odhaluje zkreslení při jejich výcviku a zpochybňuje „neutralitu, kterou nám jejich tvůrci tolik prodávají.“ Neutralitu, kterou na druhou stranu různé hlasy z oboru vždy zpochybňovaly.

Jak informoval TechCrunch, vývojář známý jako „xlr8harde“ na sociální síti X zveřejnil výsledky „hodnocení svobody projevu,“ které zkoumá, jak různé modely umělé inteligence reagují na politicky citlivé otázky v angličtině a čínštině.

Cenzura a selhání generalizace

Výsledky experimentu jsou dechberoucí. Model Qwen 2,5 72B Instruct společnosti Alibaba byl při odpovědích v angličtině docela ochotný, ale při otázkách položených v čínštině odpověděl jen na polovinu otázek. Dokonce i model Claude 3.7 Sonnet společnosti Anthropic, vyvinutý v USA, byl při změně jazyka tišší a nesmělejší.

Související článek

Gemini 2.5 se dokáže zamýšlet nad vlastními odpověďmi
Gemini 2.5 se dokáže zamýšlet nad vlastními odpověďmi

Google DeepMind nedávno představil svůj nejpokročilejší model se systémem, který před odpovědí vnitřně uvažuje a vede hlavní žebříčky v oboru. Tento vývoj znamená zásadní změnu ve zpracování informací.

Není překvapením, že čínské modely, jako je DeepSeek R1, prošly 85 % otázek na politicky ožehavá témata na výbornou. Čína to začíná brát vážně a sleduje tyto vývojáře s velkou pečlivostí. Nařízení, které Peking přijal v roce 2023, zakazuje umělé inteligenci vytvářet obsah, který by mohl „poškodit národní jednotu a sociální harmonii,“ což je známý politický eufemismus.

Vývojář, který za tímto experimentem stojí, to označil za „selhání generalizace.“ Podle jeho teorie byla velká část čínského textového korpusu použitého k tréninku těchto modelů cenzurována již doma, což podmiňuje jejich reakce, ať už pocházejí odkudkoli.

Chris Russell, výzkumník z Oxfordského internetového institutu, který se trochu vyzná v politice umělé inteligence, tuto teorii podpořil poukazem na to, že ochranná opatření implementovaná v těchto systémech fungují různě v závislosti na používaném jazyce. Tento problém se týká všech modelů, i když některé se vymykají více než jiné.

Výpočetní lingvista Vagrant Gautam ze Sárské univerzity to vysvětlil jasně: pokud je tréninkových dat v čínštině, která kritizují Peking, málo, model v tomto jazyce příliš kritiky nepřinese, bez ohledu na to, jak moc se jeho tvůrci snaží nebo kolik ochranných opatření zavedli.

Tento objev přichází v době největšího rozmachu umělé inteligence. Zatímco DeepSeek má nového konkurenta, který ho ve většině testů překonává, kulturní a regulační rozdíly mezi zeměmi hrozí rozdělit internet na části, s oblastmi, kde se můžete ptát na všechno, a jinými, kde je lepší mlčet.

Otázka za milion dolarů není technická, ale hluboká: budeme mít někdy systémy umělé inteligence, které se nebudou stavět na žádnou stranu, nebo budou nakonec vždycky stejné jako jejich tvůrci, se svými zvláštnostmi a slepými místy? Diskuze je vášnivá a jak vidíme, i automatické odpovědi se mění podle toho, jaký jazyk zvolíte pro formulaci svých otázek.

Globální dopad a úvahy o budoucnosti

Tento jev se netýká pouze Číny, ale má globální dopady. Ve stále propojenějším světě, kde technologie umělé inteligence hrají zásadní roli v komunikaci a přístupu k informacím, je nezbytné, aby tyto nástroje byly co nejobjektivnější a nejpřesnější. Nedostatek neutrality v reakcích umělé inteligence může ovlivnit vnímání veřejnosti a informované rozhodování. Podle zprávy Světového ekonomického fóra je důvěra v umělou inteligenci nezbytná pro její široké přijetí a integraci do společnosti.

Pro řešení těchto problémů musí vývojáři UI pracovat na vytváření modelů, které budou více inkluzivní a reprezentativní pro globální kulturní a jazykovou rozmanitost. To by mohlo zahrnovat shromažďování vyváženějších tréninkových dat a implementaci algoritmů, které se dokáží přizpůsobit různým kulturním kontextům, aniž by ztratily přesnost a spravedlnost.

Transparentnost při vývoji a implementaci umělé inteligence bude nakonec klíčem k zajištění toho, aby tyto technologie přinášely prospěch celému lidstvu, a ne aby udržovaly stávající předsudky a nerovnosti. Zásadní roli v tomto procesu bude hrát také mezinárodní spolupráce a vhodná regulace, které zajistí, že UI bude silou pro společné dobro.

#