Technologická esa varují: Budoucnost AI přináší revoluci, ale za jakou cenu?

  • 18. 3. 2025
  • Zdroj obrázku: rokas91 / Depositphotos
Technologická esa varují: Budoucnost AI přináší revoluci, ale za jakou cenu?

Bývalý politický ředitel OpenAI kritizuje společnost za to, že přepisuje své strategie a upřednostňuje nablýskané produkty a vývoj, a to i před bezpečností tváří v tvář tak nebezpečné technologii, jakou je umělá inteligence.


V tomto týdnu, kdy se konal Světový mobilní kongres, jsme se nevyhnuli debatě a diskuse kolem vývoje umělé inteligence a hranic etiky a udržitelné evoluce nadále zvedá prach, protože čelíme technologii, která je stejně převratná, jako slibuje revoluci ve všech oblastech našeho života a naší společnosti. Sám Bill Gates uznává, že „umělá inteligence v budoucnu nahradí téměř vše“, takže naslouchat a číst nejpovolanější hlasy v oboru je právě teď důležité.

https://twitter.com/ITProToday/status/1806291776279371933

Nyní máme díky příspěvku redakce TechCrunch k dispozici další podrobnosti o dokumentu společnosti OpenAI, který popisuje její novou filozofii bezpečnosti při vývoji systémů AI, které si zachovávají žádoucí, člověkem vysvětlitelné chování. Je zajímavé si přečíst, jak samotná organizace OpenAI definuje AGI (umělou obecnou inteligenci) jako systém umělé inteligence, který dokáže provést jakýkoli úkol, který dokáže provést i člověk, a to „kontinuální cestou“, která bude vyžadovat iterativní implementaci a učení.

Související článek

AI revoluce: Baidu představuje ERNIE X1, nejlevnější konkurenci pro OpenAI
AI revoluce: Baidu představuje ERNIE X1, nejlevnější konkurenci pro OpenAI

Baidu je jedním z nejvýznamnějších čínských vyhledávačů a nyní i etalonem v oblasti umělé inteligence.

Otevřeně také hovoří o přílišné opatrnosti ve vztahu ke zjevné síle samotné AI, což je opatrná strategie, kterou kdysi přijali za působení Milese Brundage ve společnosti a kterou nyní hodlají změnit a otevřít další vývoj tím, že budou více riskovat:

„Poučení z bezpečnosti plyne z toho, že k dnešním systémům přistupujeme s přílišnou opatrností vzhledem k jejich zdánlivé síle, [což] je přístup, který jsme zvolili u [našeho modelu umělé inteligence] GPT-2. První AGI nyní vnímáme jen jako jeden bod v řadě systémů s rostoucí užitečností […]. Ve světě nepřetržitého vývoje je způsobem, jak zajistit, aby byl další systém bezpečný a přínosný, poučit se ze současného systému“.

Miles Brundage: Svět ještě není připraven na AGI

Není pochyb o tom, že tato debata je důležitá, protože celá společnost je právě teď zahlcena obrovským rozvojem umělé inteligence, jejími úžasnými možnostmi a tím, co bude její příchod znamenat pro každého z nás, pro naše současná zaměstnání a pro to, jak chápeme způsob, jakým žijeme a jak se vzájemně stýkáme, a to jak s ostatními lidmi, tak se stroji.

Brundage má jasno v tom, že i GPT-2 by si v době svého spuštění zasloužila mnohem větší opatrnost a že strategie OpenAI byly vždy „stoprocentně v souladu“ s politikou iterativního nasazení, kterou OpenAI popisuje v nedávném dokumentu.

Podle Brundageho, když v roce 2018 nastoupil do společnosti jako vědecký pracovník, bylo záměrem zaměřit se na zodpovědné nasazení generativních jazykových systémů, jako je chatbot, o kterém jsme se dozvěděli později a který byl v té době zpřístupněn v omezeném rozsahu, aby jej mohli někteří vývojáři, novináři a odborníci z oboru otestovat a sdělit své dojmy.

„Spuštění GPT-2, na kterém jsem se podílel, bylo stoprocentně koherentní a již definovalo současnou filozofii iterativního nasazení OpenAI. Model byl uvolňován postupně, v každém kroku byly sdíleny zkušenosti a mnoho bezpečnostních expertů nám tehdy za tuto prozíravost děkovalo.“ Miles Brundage.

V té době GPT-2 nabízel výsledky, které by se dnes zdály základní, ale v té době byly špičkové a předznamenávaly škodlivé využití technologie, kterého se dnes obáváme ještě více. Společnost OpenAI kód zpočátku nezveřejnila a sklidila za to kritiku s odůvodněním, že hrozba, kterou GPT-2 představuje, je přehnaná a že její možnosti jsou příliš velké na to, aby ji bylo možné udržet pod pokličkou. Brundage je však přesvědčen, že toto rozhodnutí bylo více než moudré a že každé opatření je důležité.

„Kdybych stále pracoval v OpenAI, ptal bych se sám sebe, proč byl tento dokument napsán tak, jak byl, a čeho přesně chce OpenAI dosáhnout tím, že takto nevyváženě ignoruje opatrnost.“ Miles Brundage.

Podle tohoto odborníka bychom měli mít největší obavy z toho, že cílem OpenAI je nastavit test, kdy každá obava je strašákem, a že se začnou vyžadovat velmi zdrcující fakta o hrozícím nebezpečí, aby bylo možné jednat a zastavit určitý vývoj. Podle Brundage je to nebezpečný přístup, protože neznáme nejpokročilejší možnosti, kam se může umělá inteligence dostat.

Jisté je, že existuje konkurenční tlak, zejména po změně vlády v Bílém domě, a historicky byla společnost OpenAI vždy obviňována z toho, že „upřednostňuje nablýskané produkty na úkor bezpečnosti“ a spěchá se všemi spuštěními, aby byla dříve než ostatní na rychle se vyvíjejícím trhu, kde Čína a její DeepSeek všechny překvapily.

Stojí za to připomenout, že společnost ročně prodělává miliardy na účtech zisků a ztrát kvůli obrovským výdajům na výzkum a vývoj, které plánuje do roku 2026 udržet a dokonce ztrojnásobit. Rychlejší vývoj jejich produktů jim přinejmenším v krátkodobém horizontu prospěje, ale je možné, že se na politiku bezpečnosti a maximální opatrnosti nebere takový ohled, a to je něco, co by mohlo mít katastrofální důsledkyUvidíme!

Naposledy se ozval Miles Brundage, bývalý ředitel společnosti OpenAI a jeden z lidí zodpovědných za její politiku výzkumu a vývoje, který společnost ostře kritizoval za „přepisování historie“ a změnu přístupu k zavádění potenciálně rizikových systémů. Stojí za zmínku, že Brundage již před několika měsíci odstoupil ze svých pozic v OpenAI a otevřeně prohlásil, že „svět není připraven“ na příchod obecné umělé inteligence.

Zdroje článku:
techcrunch.com

#