Zaměstnanec OpenAI vysvětluje důvody své výpovědi: „Nechci pracovat na Titaniku umělé inteligence“

Zaměstnanec OpenAI vysvětluje důvody své výpovědi: „Nechci pracovat na Titaniku umělé inteligence“

Zaměstnanec si je zřejmě jistý, že OpenAI se nakonec potopí stejně jako tato obří loď.

Je jasné, že GPT-4o je jedním z nejfuturističtějších modelů, které jsme měli možnost testovat. Nová umělá inteligence OpenAI se osvědčila jako střela, a až konečně přijde její vylepšená aplikace, bude nesporným spojencem mnoha lidí. Umělá inteligence se však stala důvodem k pozdvižení obočí kvůli problémům s bezpečností, které může přinést. Mnoho zaměstnanců OpenAI dalo výpověď právě kvůli tomuto problému. Nedávno jeden z nich promluvil v podcastu a objasnil paralely mezi společností a historií.

Titanic umělé inteligence

Stále více zaměstnanců OpenAI opouští společnost, protože si uvědomují, že bezpečnost je zanedbávána na úkor stále výkonnějších verzí. V podcastu Alexe Kantrowitze jeden z bývalých zaměstnanců vysvětlil, proč dal výpověď, a poukázal na problémy ve společnosti, které by se měly napravit, než se bude pokračovat v cestě nepřetržitého vývoje:

„Opravdu jsem nechtěl skončit jako zaměstnanec Titaniku umělé inteligence, a proto jsem dal výpověď. Během tří let svého působení v OpenAI jsem si občas kladl otázku: podobala se cesta, po které se OpenAI vydala, spíše programu Apollo, nebo Titaniku?“

Podle Williama Saunderse, bývalého zaměstnance OpenAI, je podobnost mezi OpenAI a společností White Star Line zřejmá. Obě společnosti chtěly nové produkty rychle a bez posouzení bezpečnostních otázek před jejich uvedením na trh. Takto:

„Titanic byl označován za nepotopitelný, ale zároveň nebylo k dispozici dost záchranných člunů, a tak když došlo ke katastrofě, mnoho lidí zemřelo.“

Podle něj by přesně tohle dělala i samotná OpenAI, která by za každou cenu postupovala vpřed, uváděla na trh stále výkonnější a působivější modely, ale nebrala by v úvahu, že tento vývoj může způsobit vážný problém stávajícím technologiím a potažmo i lidem, kteří je používají a snaží se díky nim stát produktivnějšími.

OpenAI se tak jeví jako zcela nejasná. Altman vždy tvrdil, že pro společnost bude klíčová bezpečnost, ale jeho poslední kroky ukazují, že jeho zájem jde opačným směrem.

Nepopírá totiž, že nové technologie s sebou nesou zakořeněná rizika, ale je podle něj nutné mít alespoň nějakou kontrolu škod a neskočit do propasti, aby se stal první společností, která dosáhne umělé obecné inteligence (AGI), o níž se v poslední době tolik mluví. Společnost OpenAI navíc nemá jasnou bezpečnostní politiku ve své firmě, protože Altman rozpustil bezpečnostní tým a jeho šéf nakonec odstoupil, aby vedl novou společnost zaměřenou na rizika AI.