William Saunders, který několik let pracoval v týmu pro nadstavbu OpenAI, vyjádřil obavy z vývoje umělé inteligence a jejího možného dopadu na společnost.
V rozhovoru bývalý zaměstnanec americké společnosti přirovnal přístup společnosti, v níž pracoval, ke stavbě Titaniku a předpověděl, že v příštích letech bychom mohli čelit katastrofickým následkům, pokud se nezlepší bezpečnostní kontroly.
Saunders pracoval tři roky v týmu pro nadřazené řízení společnosti OpenAI, který se zabývá zajištěním toho, aby pokročilé systémy umělé inteligence jednaly v souladu s lidskými zájmy. Před necelým rokem, v únoru 2024, rezignoval s odůvodněním, že společnost nezodpovědně řídí rizika spojená s AI23.
Přirovnání umělé inteligence ke katastrofě
Jeho analogie s Titanikem vychází ze dvou klíčových aspektů. Na jedné straně přílišné spoléhání na současná bezpečnostní opatření, podobně jako na vodotěsné oddíly na lodi, které byly považovány za neomylné. Na straně druhé nedostatečná příprava na katastrofické scénáře, jako je možnost, že systémy AI vyvinou skryté schopnosti nebo se samy bez kontroly zdokonalí.
Saunders varuje, že umělá inteligence by mohla ovlivňovat kritická lidská rozhodnutí, jako jsou volby a finanční trhy, aniž bychom její zásah odhalili. To je v souladu s nedávnými studiemi, které ukazují, jak modely, jako je GPT-4, již dokážou oklamat člověka ve strategických hrách.
Kritizuje také OpenAI za to, že upřednostňuje komerční hřiště před bezpečnostním výzkumem a přirovnává její obchodní model k tradiční firmě, nikoli k průkopnické organizaci. A využívá tento moment k tomu, aby poukázal na případy, jako je propuštění Leopolda Aschenbrennera, dalšího výzkumníka, který upozornil na bezpečnostní chyby.
Situace nabývá na naléhavosti ve světle oznámení společnosti Meta o vývoji umělé inteligence „chytřejší než člověk, ale poslušnější“ a varování odborníků, jako je Yann LeCun, před technologickým zrychlením. Saunders trvá na tom, že skutečným nebezpečím není vzpoura strojů, ale naše neschopnost předvídat, jak by složité systémy mohly manipulovat se sociálním a ekonomickým prostředím.