Vývojáři AI hrají ruskou ruletu s lidským druhem bez našeho souhlasu, tvrdí expert

Vývojáři AI hrají ruskou ruletu s lidským druhem bez našeho souhlasu, tvrdí expert

Přední vědec Stuart J. Russell přirovnává současný vývoj umělé inteligence ke smrtící hře, v níž každá technologická společnost drží v ruce revolver s náboji, což zvyšuje riziko katastrofické chyby.


Vše, co se používá nezodpovědně, se může změnit ve zbraň. S tímto tvrzením zřejmě souhlasí i světový odborník na umělou inteligenci Stuart J. Russell, profesor informatiky na Kalifornské univerzitě v Berkeley a spoluautor přelomové knihy Artificial Intelligence: A Modern Approach. Russell kritizuje současný přístup k umělé inteligenci a již léta varuje před nebezpečím vývoje umělé inteligence bez etického dohledu. Russell přirovnává současný vývoj AI ke smrtící hře ruská ruleta.

Ruská ruleta pro umělou inteligenci

A proč Russell přirovnává AI k ruské ruletě? Do tohoto srovnání vstupují tři dobře definovaná rizika:

  1. Špatně definované cíle: současné umělé inteligence sledují pevně stanovené cíle (například vytvoření obrázku), aniž by rozuměly lidskému kontextu. Russell varuje, že při špatně stanovených cílech by nám mohly „uškodit, aby jich dosáhly“. Ne nutně na fyzické úrovni – vzpomeňte si, co způsobila Sora v kině
  2. Neregulované závody: O tom jsme mluvili před časem. Společnosti jako Perplexity, Anthropic a OpenAI mezi sebou soupeří o vedoucí postavení na trhu a upřednostňují rychlost vývoje před bezpečností. Podle Russella „má každý generální ředitel pistoli s náboji: jeden z nich omylem vystřelí“.
  3. Bod, odkud není návratu: právě teď jdou velké společnosti zabývající se umělou inteligencí po AGI (artificial general intelligence). Takový objev by mohl změnit svět, ale také by se mohl stát nekontrolovatelným. Jestliže opice prohrály bitvu, když se objevili první lidé (ne nutně homo sapiens), co myslíte, že by se s námi stalo, kdyby se objevila umělá inteligence dostatečně inteligentní na to, aby si uvědomila sama sebe?

Kromě těchto rizik existují čtyři specifická nebezpečí vyplývající z rozvoje UI. Prvním z nich jsou neprůhledné systémy; algoritmy, které rozhodují bez vysvětlení, což má za přímý důsledek rostoucí diskriminaci a ztrátu základních práv.

Související článek

Google uvolňuje placené funkce Gemini pro všechny. Váš asistent toho umí mnohem víc a nyní navíc i zdarma
Google uvolňuje placené funkce Gemini pro všechny. Váš asistent toho umí mnohem víc a nyní navíc i zdarma

Funkce Gems, Deep Research a nejpokročilejší modely Gemini jsou nyní dostupné všem uživatelům. Propojené aplikace Gemini jdou nahoru a umělá inteligence brzy dorazí i do Fotek Google

Druhým je vytvoření autonomních zbraní. Každý týden v tomtéž médiu hovoříme o bezpilotních letounech poháněných umělou inteligencí vytvořených k likvidaci cílů bez lidského dohledu. Vytváření těchto superzbraní má za následek eskalaci konfliktů a nárůst nevybíravého zabíjení.

Třetí je něco, co zažíváme již dnes: šíření deepfakes, hoaxů a zasahování do volebních procesů. V této souvislosti je umělá inteligence využívána k podkopávání demokratických systémů a svobod po celém světě.

Čtvrtým a posledním rizikem je nezaměstnanost spojená s nástupem UI. Umělá inteligence má schopnost nahradit intelektuální pracovníky, jako jsou právníci nebo novináři, což by mohlo vést k hospodářské krizi.

Existuje způsob, jak tomu zabránit?

Umělá inteligence může být spojencem nebo rizikem v závislosti na tom, jak je využívána a jak je regulována. To, co Russell navrhuje, je založeno na třech klíčových pilířích: naprogramovat stroje tak, aby maximalizovaly lidské preference, nikoliv pevně stanovené cíle, uznat, že naše preference plně neznají, a neustále se učit z našeho skutečného chování, nikoliv pouze z historických dat.

Aby to bylo možné, je třeba zavést řadu praktických opatření. Tato opatření zahrnují zákaz systémů hromadného sledování a autonomních zbraní, certifikaci kritických UI (např. ve zdravotnictví nebo justici), jak je tomu u letadel a ukládání pokut ve výši milionů dolarů za porušování etických norem.

EU v současné době UI reguluje nejvíce; klasifikuje různé systémy podle rizikovosti a zakazuje jejich nebezpečné použití. Mezitím USA a Čína, které v této oblasti vedou jednu ze svých specifických válek, upřednostňují technologický pokrok před regulací ve snaze rozdrtit jedna druhou. A zatímco 85 % odborníků na umělou inteligenci se domnívá, že by umělá inteligence měla být regulována, pouze 12 % z celkového počtu je přesvědčeno, že vlády toho dosáhnou.

A tak se dostáváme k velké otázce: Mělo by vás to všechno zajímat? Rozhodně ano. Existují reálné případy, kdy nebezpečí AI již pociťujeme: ve zdravotnictví umělá inteligence diagnostikuje rakovinu, ale na základě rasové zaujatosti; v justici existují algoritmy, které předpovídají recidivu a trestají etnické menšiny; a ve školství 73 % univerzitních studentů používá ChatGPT, ale zanechává ve své práci závažné chyby.

Umělá inteligence nás činí samolibými, hloupými a náchylnějšími k diskriminaci a posuzování na základě morálních norem těch, kteří ji naprogramovali. Možná bychom se měli dvakrát zamyslet, než se na ni obrátíme, aby plnila i ty nejmenší úkoly.

Zdroje článku:
medium.com

#