AI je jako Titanik, blíží se katastrofa, tvrdí odborník

  • 18. 2. 2025
  • Zdroj obrázku: NewAfrica / Depositphotos
AI je jako Titanik, blíží se katastrofa, tvrdí odborník

William Saunders, který několik let pracoval v týmu pro nadstavbu OpenAI, vyjádřil obavy z vývoje umělé inteligence a jejího možného dopadu na společnost.


V rozhovoru bývalý zaměstnanec americké společnosti přirovnal přístup společnosti, v níž pracoval, ke stavbě Titaniku a předpověděl, že v příštích letech bychom mohli čelit katastrofickým následkům, pokud se nezlepší bezpečnostní kontroly.

Saunders pracoval tři roky v týmu pro nadřazené řízení společnosti OpenAI, který se zabývá zajištěním toho, aby pokročilé systémy umělé inteligence jednaly v souladu s lidskými zájmy. Před necelým rokem, v únoru 2024, rezignoval s odůvodněním, že společnost nezodpovědně řídí rizika spojená s AI23.

Přirovnání umělé inteligence ke katastrofě

Jeho analogie s Titanikem vychází ze dvou klíčových aspektů. Na jedné straně přílišné spoléhání na současná bezpečnostní opatření, podobně jako na vodotěsné oddíly na lodi, které byly považovány za neomylné. Na straně druhé nedostatečná příprava na katastrofické scénáře, jako je možnost, že systémy AI vyvinou skryté schopnosti nebo se samy bez kontroly zdokonalí.

Související článek

Gemini 2.5 se dokáže zamýšlet nad vlastními odpověďmi
Gemini 2.5 se dokáže zamýšlet nad vlastními odpověďmi

Google DeepMind nedávno představil svůj nejpokročilejší model se systémem, který před odpovědí vnitřně uvažuje a vede hlavní žebříčky v oboru. Tento vývoj znamená zásadní změnu ve zpracování informací.

Saunders varuje, že umělá inteligence by mohla ovlivňovat kritická lidská rozhodnutí, jako jsou volby a finanční trhy, aniž bychom její zásah odhalili. To je v souladu s nedávnými studiemi, které ukazují, jak modely, jako je GPT-4, již dokážou oklamat člověka ve strategických hrách.

Kritizuje také OpenAI za to, že upřednostňuje komerční hřiště před bezpečnostním výzkumem a přirovnává její obchodní model k tradiční firmě, nikoli k průkopnické organizaci. A využívá tento moment k tomu, aby poukázal na případy, jako je propuštění Leopolda Aschenbrennera, dalšího výzkumníka, který upozornil na bezpečnostní chyby.

Situace nabývá na naléhavosti ve světle oznámení společnosti Meta o vývoji umělé inteligence „chytřejší než člověk, ale poslušnější“ a varování odborníků, jako je Yann LeCun, před technologickým zrychlením. Saunders trvá na tom, že skutečným nebezpečím není vzpoura strojů, ale naše neschopnost předvídat, jak by složité systémy mohly manipulovat se sociálním a ekonomickým prostředím.

#