Nedávný výzkum univerzity v Bathu a Technické univerzity v německém Darmstadtu tvrdí, že jazykové modely (LLM), jako je ChatGPT, se nemohou samostatně učit ani získávat nové dovednosti.
Rychlý rozvoj umělé inteligence v posledních několika letech vede mnoho odborníků k tomu, že se začínají zajímat o to, kam až může tato technologie zajít a jaké důsledky může mít její vývoj. Několik vědců varovalo, že by nás umělá inteligence mohla připravit o práci a dokonce vyhladit lidstvo.
Nuže, pokud se obáváte o budoucnost lidstva, přestaňte se bát, protože nová studie právě potvrdila, že AI nepředstavuje pro lidstvo hrozbu.
Podle nové studie nepředstavuje umělá inteligence pro budoucnost lidstva žádné riziko
Webové stránky britské University of Bath nedávno informovaly o výzkumu, který provedla University of Bath společně s odborníky z Technické univerzity v německém Darmstadtu a který tvrdí, že ChatGPT a další velké jazykové modely (LLM) se nemohou samostatně učit ani získávat nové dovednosti, což znamená, že pro lidstvo nepředstavují žádnou skutečnou hrozbu.
Studie odhaluje, že LLM mají povrchní schopnost sledovat instrukce a osvojit si jazyk, ale nemají potenciál naučit se nové dovednosti bez předchozího poučení.
Podle těchto odborníků je navíc pravděpodobné, že časem budou tyto modely schopny vytvářet sofistikovanější jazyk a poskytovat explicitnější a podrobnější instrukce, ale je velmi nepravděpodobné, že si budou schopny osvojit složité rozumové schopnosti.
Za účelem provedení této studie provedli vědci z obou univerzit experimenty, jejichž cílem bylo otestovat schopnost LLM plnit úkoly, se kterými se modely nikdy předtím nesetkaly: tzv. emergentní dovednosti, a ty jasně prokázaly absenci komplexních emergentních rozumových dovedností u LLM.
Dr. Harish Tayyar Madabushi, počítačový vědec z University of Bath a spoluautor této studie, v této souvislosti říká, že obavy, že by umělá inteligence mohla vyhladit lidstvo, jsou zcela neopodstatněné:
„I když je důležité zabývat se existujícím potenciálem zneužití umělé inteligence, jako je vytváření falešných zpráv a zvýšené riziko podvodů, bylo by předčasné přijímat předpisy na základě domnělých existenčních hrozeb. Důležité je, že pro koncové uživatele to znamená, že spoléhat se na to, že UI bude interpretovat a provádět složité úkoly, které vyžadují komplexní uvažování bez explicitních instrukcí, bude pravděpodobně chyba. Namísto toho uživatelům pravděpodobně prospěje, když výslovně specifikují, co od modelů požadují, a pokud možno uvedou příklady pro všechny úlohy kromě těch nejjednodušších.“
To znamená, že velké jazykové modely „zůstávají ze své podstaty kontrolovatelné, předvídatelné a bezpečné“.