V posledních událostech v OpenAI, kdy byl rozpuštěn tým pro dlouhodobá rizika umělé inteligence a propuštěn jeden z hlavních kritiků Sama Altmana, se odhaluje napjaté vnitřní klima společnosti.
Od spuštění GPT-4o jsme zjistili, že nestabilita ve společnosti zůstává pozoruhodná. Ve skutečnosti se zdá, že způsobila zánik celého týmu a také propuštění jednoho z hlavních kritiků Sama Altmana. Zdá se tedy, že situace je uvnitř společnosti značně nestabilní, ale její produkty nadále zůstávají na špičce vědeckého vývoje umělé inteligence.
OpenAI porušuje slib a zapomíná na etické problémy AI
Podle CNBC společnost OpenAI rozpustila svůj tým, který se zaměřuje na přemýšlení o dlouhodobých rizicích, jež může AI mít. Rok po svém oznámení tým Superalignment zanikne a mnoho jeho zaměstnanců bude znovu začleněno do jiných částí společnosti. Vedoucí této sekce, Ilja Sutskever a Jan Leike, dali najevo jisté zklamání z OpenAI a prohlásili, že opouští bezpečnost ve prospěch vytváření stále bleskovějších produktů, přičemž cestou zapomínají na etické problémy, které mohou v důsledku toho existovat.
Leike byl k bývalé nadaci poměrně kritický, když prohlásil, že:
„Připojil jsem se k [OpenAI], protože jsem si myslel, že OpenAI bude nejlepším místem na světě pro tento výzkum. S vedením OpenAI jsem se však delší dobu rozcházel v názorech na základní priority společnosti, až jsme nakonec dospěli k bodu zlomu. Myslím, že mnohem více naší kapacity bychom měli věnovat přípravě na další generace modelů, na bezpečnost, monitorování, připravenost, ochranu, odolnost vůči protivníkům, (super)sladění, důvěrnost, sociální dopad a související otázky. Řešení těchto problémů je poměrně obtížné a obávám se, že nejsme na správné cestě, jak se k nim dostat.“
Zejména tento tým byl koncipován tak, že jeho pokroky měly být schopny řídit systémy umělé inteligence, když byla chytřejší než lidé. Tedy až dosáhne umělé obecné inteligence. OpenAI tak měla na tuto iniciativu po dobu čtyř let směřovat 20 % svých výpočetních kapacit. To se ukázalo jako příliš dlouhý horizont, zejména s ohledem na sílící konkurenci. V důsledku toho se společnost OpenAI rozhodla tuto službu ukončit.
Společnost OpenAI uvádí, že zvýšila povědomí o rizicích a možnostech AGI a že se snaží zajistit, aby společnost pochopila rizika, která tento typ technologie může přinášet.
Pravdou je, že tato propuštění vzbuzují větší obavy, než by se mohlo zdát. Ilja Sutskever byl před několika měsíci jedním z hlavních faktorů rezignace Sama Altmana. Ačkoli se jeho návrat setkal s řadou rezignací v rámci společnosti, Sutskever ve firmě zůstal, neboť byl jedním z jejích hlavních zakladatelů. Jeho odchod však znamená konec opozice vůči Altmanovi. To ukazuje na bouřlivé klima, které ve společnosti musí existovat, zejména vzhledem k neustálým bojům o moc, které se zdají existovat.
Vzhledem k tomu, že ostatní umělé inteligence postupují neustále kupředu, jako je tomu v případě modelu Claude, uvidíme, zda tento obrat událostí pomůže společnosti zlepšit její zpracovatelskou kapacitu na úkor etických nebezpečí, kterým by mohla v budoucnu čelit.