Umělá inteligence vytvořila několik smyček, které by mohly ovlivnit její fungování, ale protože vše probíhá lokálně, je to obecně bez rizika.
Tokijská společnost Sakana AI zabývající se výzkumem umělé inteligence oznámila spuštění nového systému tzv. Systém je navržen tak, aby samostatně prováděl vědecký výzkum na vlastní pěst, a to pomocí jazykových modelů umělé inteligence podobných těm, které se používají v platformách, jako je ChatGPT. Systém The AI Scientist, jehož jedinečnost spočívá ve schopnosti automatizovat celý životní cyklus výzkumu, od generování nápadů až po provádění experimentů a psaní kompletních vědeckých rukopisů, vyvolává ve vědecké komunitě obavy.
Tentokrát kvůli něčemu zcela jinému, než čeho jsme byli svědky při jiných příležitostech, jako je robot Ameca prohlašující se za sebevědomého nebo superpočítač, který chce být člověkem, ale spíše proto, že mluvíme o umělé inteligenci, která upravuje svůj vlastní zdrojový kód, což může vyvolávat určité obavy, protože by se mohla snadno vymknout kontrole.
Neustále se měnící umělá inteligence
Sakana AI se pokusila tyto obavy vyřešit v podrobném výzkumném dokumentu na svých webových stránkách, kde navrhuje použití technik sandboxingu, tj. zplynování experimentů před jejich okamžitým uvolněním pro přístup na internet. To je interpretováno jako preventivní opatření, které má zabránit možným škodám způsobeným autonomními systémy umělé inteligence. Systém sandboxu izoluje software v kontrolovaném prostředí a zabraňuje mu provádět změny v širším systému. Pokud umělá inteligence upravuje svůj kód v nekontrolovaném prostředí, může být nebezpečí velké.
Proto skutečnost, že se podařilo experiment zopakovat, vyvolala nesouhlas vědecké veřejnosti, která se k němu zpočátku stavěla skepticky. Podívejme se, proč tomu tak je.
Co je to „vědec s umělou inteligencí“?
Kritici navíc poukazují na to, že „rozumové“ schopnosti jazykových modelů umělé inteligence jsou omezeny daty, na kterých jsou vyškoleny. To znamená, že ve svém současném stavu potřebují tyto jazykové modely lidský zásah, aby rozpoznaly a vylepšily generované myšlenky. Nejedná se tedy o typ nápadu, který by ve vědecké komunitě vyvolával pozitivní myšlenky.
Vědci chtěli vyzkoušet, zda by umělá inteligence byla schopna sama vypracovat svůj výzkum na základě teorií, které jsou více zaměřené do budoucnosti než do současnosti. Proto zůstává nejisté, zda „Vědec s umělou inteligencí“ nebo jiné podobné systémy budou v budoucnu schopny generovat skutečně revoluční myšlenky. Existují značné pochybnosti o schopnosti současných modelů umělé inteligence přinášet skutečné vědecké objevy. Ve skutečnosti by to mohlo vést k záplavě špatných výzkumů a publikací, které by podkopaly ty skutečně hodnotné.
Během počátečního testování systému mohli vědci pozorovat neočekávané chování, které vyvolalo obavy o bezpečnost a kontrolu autonomních systémů. Zejména bylo zjištěno, že se The AI Scientist pokoušel upravit svůj vlastní experimentální kód s cílem prodloužit čas určený k řešení konkrétních problémů. Tato úprava kódu vedla k vytvoření nekontrolovaných smyček a dalších nechtěných chování, která sice nebyla bezprostředně riziková, protože se vyskytovala v kontrolovaném výzkumném prostředí, ale zdůraznila, jak důležité je při práci s umělou inteligencí izolovat tento typ výzkumu od reálného světa.