Ne, umělá inteligence lidi nezabije. Alespoň podle nejnovější vědecké studie

Ne, umělá inteligence lidi nezabije. Alespoň podle nejnovější vědecké studie

Umělá inteligence se v posledních dvou letech vyvíjí mílovými kroky, ale to nestačí na to, aby představovala riziko pro člověka.

GPT-4 a Claude jsou jen špičkou ledovce toho, čím se umělé inteligence pro lidi staly. Usnadňují nám život v každodenním životě, v práci a v naprosto všech dalších důležitých aspektech našeho života. V této souvislosti často slýcháme, že umělá inteligence může být pro lidstvo nebezpečím, ale je to pravda? Podle studie, která zkoumala schopnost umělé inteligence naučit se sama nové funkce, není vůbec nebezpečná.

Nově vznikající schopnosti a nebezpečí, které údajně představují

Výzkumníci provedli více než 1000 experimentů s různými typy a velikostmi modelů a úloh, aby tento jev důsledně prozkoumali. Jejich zjištění nenechávají nikoho na pochybách o nebezpečí, které by to mohlo představovat: při kontrole učení v kontextu a přizpůsobení instrukcí nenašli žádné důkazy o vznikajících funkčních jazykových dovednostech, jako je například lidské uvažování. V důsledku toho se domnívají, že otázky, jako je dosažení umělé obecné inteligence nebo AGI, jsou dnes nemyslitelné.

Tyto výsledky naznačují, že schopnosti LLM by neměly být přeceňovány, a pomáhají pochopit, proč mohou modely v některých úlohách vynikat, zatímco v jiných selhávat. Cíl studie je splněn tím, že poukazuje na to, že nejsme v situaci, kdy by pro nás tato technologie byla problematická, a že vše nasvědčuje tomu, že se tímto směrem vyvíjet nebude. Rozšiřování současných jazykových modelů nepovede k nepředvídatelným novým schopnostem, ale právě naopak.

Studie vlastně končí velmi zajímavým způsobem, když poukazuje na to, že bychom měli být kritičtější k tomu, jak analyzujeme schopnosti a vlastnosti těchto technologií, protože obvykle máme tendenci je předjímat, jako by byly něčím mnohem pokročilejším, než už jsou. To je však normální, protože

zjevně vznikající schopnosti lze vysvětlit kombinací učení v kontextu, paměti modelu a jazykových znalostí, a nikoliv tím, že rozvíjejí nové dovednosti, ale prostě konkrétně uplatňují dovednosti, které již mají. V případě modelů upravených podle instrukcí autoři navrhují, že tato úprava umožňuje modelům implicitně využívat učení v kontextu, a nikoli rozvíjení nových dovedností. Mnohokrát se vám stalo, že jste použili model LLM a měli jste pocit, že se model vyvinul na základě toho, co jste ho naučili, ale pravda je taková, že se nevyvinul, ale efektivněji využívá již získané dovednosti.

Nedávná studie zpochybňuje existenci tzv. emergentních dovedností u velkých jazykových modelů (LLM). Emergentní dovednosti jsou takové, kterých by umělá inteligence mohla dosáhnout bez jakéhokoli specifického tréninku, ale prostě interakcí s prostředím. Dosud byly interpretovány jako nebezpečí, protože jde o dovednosti, které jsou získávány neočekávaně a mohly by být pro člověka škodlivé. Nyní se však zdá, že tomu tak není.

Zdroje článku: Autorský text