Výzkum v oblasti umělé inteligence se v dnešní době stal zásadním.
Pro někoho jsou lidé od přírody sobečtí, pro jiného starostliví a ničí je společnost. Víme, že existují různé vzorce chování, které závisí na prostředí a způsobu výchovy, a také na některých genetických faktorech, které se této problematiky dotýkají. To se týká i AI, které slouží jako asistenti, například GPT-4 nebo Claude, které mohou být laskavé nebo sobecké, a podle jedné studie se zdá, že to závisí na nás.
Budoucnost umělé inteligence je v našich rukou
Podle článku zveřejněného v časopise Nature Scientific Reports testoval japonský tým asistenta umělé inteligence pomocí velkého jazykového modelu (LLM) s cílem zjistit, jak by se umělá inteligence mohla chovat. Použili k tomu vězňovo dilema.
Tváří v tvář této otázce tým zaznamenal u umělé inteligence různé chování, které do značné míry záviselo na lidském chování. Některé byly sobecké a některé kooperativní, takže UI prováděla stejné cesty na základě a učení se na cestě. Ve skutečnosti tyto AI prošly mutací svého chování tím, že se u nich přirozenou cestou vyvinuly složité osobnosti. To znamená, že UI se formovaly na základě svých zkušeností a rozhodovaly se na základě toho, co se naučily.
To je ideální pro pochopení základního problému společností, a tím je jejich nestabilita. V lidských skupinách dochází ke konvergenci mnoha různých osobností, a proto jsou vytvořené týmy stejně rozmanité jako nestabilní ve svém formování. Totéž se stalo s umělou inteligencí, která se ze spolupracujících skupin stala skupinou vytlačovanou jinými, mnohem sobečtějšími, když zjistila, že to přináší lepší výsledky. Přestože někteří odborníci varují před bublinou AI nebo dokonce před zimou AI, mnohé z dosažených pokroků jsou nesmírně zajímavé.
Shrneme-li to v kostce, zjistíme následující podrobnosti:
- Japonský tým vyvinul rozmanité osobnosti v oblasti umělé inteligence s velkým jazykovým modelem (LLM).
- Použili vězňovo dilema teorie her, aby zjistili, jak se bude agent umělé inteligence vyvíjet napodobováním lidského chování.
- Očekávalo se, že v závislosti na lidském chování se bude učit pomocí sobeckých nebo kooperativních akcí.
- V závislosti na tom, co dostala, by se umělá inteligence vyvíjela tak, že by se rozhodla spolupracovat nebo zradit druhého hráče.
- Pomocí tohoto jazykového modelu výzkumníci zkoumali komplexní popisy osobnosti, které se pak promítaly do způsobů chování.
- To znamená, že AI byly formovány do své osobnosti prostřednictvím přirozeného výběru a mutací, které generovaly osobnostní rysy v závislosti na tom, co potřebovaly nebo se naučily.
- Některé byly sobecké a jiné si vytvořily kolektivní strategie, což ukazuje, že společnosti a UI nejsou tak stabilní, jak se zdá.
- Některé kooperativní skupiny byly nakonec nahrazeny sobeckými.
- AI tedy závisí na nás a na tom, jak k ní přistupujeme, zda budeme naplňovat více či méně sobecké záměry.