Sam Altman o možném konci světa: Pokud se AI vymkne kontrole, žádný bunkr vás nezachrání

Sam Altman o možném konci světa: Pokud se AI vymkne kontrole, žádný bunkr vás nezachrání

Sam Altman je bezpochyby jednou z klíčových postav tohoto desetiletí. Od doby, kdy na trh celosvětově vtrhla společnost ChatGPT, se s nezměrným úspěchem modelů umělé inteligence věci rok od roku jen zrychlují. Vyvolal však také nový strach, a to z apokalypsy způsobené umělou inteligencí, a proto si mnoho bohatých lidí pořizuje vlastní bunkry.


Nyní, kdy mezi USA a Čínou probíhá jakási studená válka, je strach ještě větší, zejména poté, co se na světovém trhu objevila čínská umělá inteligence, například DeepSeek. Nyní, když je Sam Altman v centru pozornosti kvůli svým střetům s Elonem Muskem, který chce koupit OpenAI, je na čase vrátit se k rozhovoru, který poskytl v roce 2023, na úsvitu umělé inteligence, a v němž vysvětlil nebezpečí umělé obecné inteligence (AGI) a to, že žádný bunkr nemůže zachránit lidstvo, pokud se vymkne lidské kontrole.

Zlá AGI a konec lidstva

Lidé se stali dominantním druhem především díky svému transformačnímu potenciálu a inteligenci. To není nic neobvyklého, ale nikdy jsme se nemuseli potýkat s inteligentnějším druhem, než jsme my. Cílem obecné umělé inteligence je, aby tomu tak bylo, což vyvolává určité obavy.

V rozhovoru pro Business Insider Altman prohlásil, že má „nějaké struktury“, ale nenazval by je bunkrem jako takovým, ale jakýmsi bezpečným útočištěm. O ničivém potenciálu AGI a nemožnosti najít bunkr, který by nás před ním zachránil, však mluvil otevřeně:

Související článek

Nová umělá inteligence od Googlu vyvolává kontroverze mezi fotografy a umělci
Nová umělá inteligence od Googlu vyvolává kontroverze mezi fotografy a umělci

Nová umělá inteligence společnosti Google má i temnou stránku: dokáže odstranit vodoznaky z jakéhokoli obrázku.

„Nic z toho nepomůže, pokud se AGI pokazí, je to směšná otázka.“

Sam Altman je tím, čemu se v americké kultuře říká „prepper“. Tento typ člověka se připravuje na situaci, která se vymkne kontrole a při níž by se mohla odehrát apokalypsa, ať už jaderná, nebo jiná. Je však jasné, že tak nečiní s ohledem na ničivé vypuknutí AGI, protože v takovém případě by se nezachránil ani jejich stvořitel.

Altman tak v roce 2023 objasnil svou vizi destruktivního potenciálu AI, ačkoli se chce této situaci vyhnout a pokračovat ve vývoji AI způsobem, který bude efektivní a bezpečný pro všechny. Nedávno prohlásil, že se ocitl na špatné straně dějin.

Zdroje článku:
wired.com
ted.com

#