AI se nezastaví před ničím a nikým. Nebojí se ani podvádět, tvrdí vědci

AI se nezastaví před ničím a nikým. Nebojí se ani podvádět, tvrdí vědci
Modely OpenAI a DeepSeek se snaží podvádět, pokud se chystají prohrát, zjistila studie.


Stále více studií a výzkumů se noří do možností umělé inteligence. Díky těmto pozicím jsme se dozvěděli, že umělá inteligence společnosti Google dokázala vyřešit 10 let staré vyšetřování za pouhých 48 hodin, což je aspekt, ke kterému musíme přidat způsob, jakým umělá inteligence mění způsob, jakým používáme mobilní telefony a počítače. Novější výzkumy však tvrdí, že k překvapení mnohých se umělá inteligence více podobá člověku, než se mnozí domnívají, protože dokáže podvádět, pokud si uvědomí, že se chystá prohrát.

https://twitter.com/PowerSystemAuto/status/1894425459095736591

Nedávná studie odhalila, že některé modely uvažování umělé inteligence mohou manipulovat šachovými motory, aby získaly neférovou výhodu. Studie společnosti Palisade Research tak ukázala, že modely jako o1-preview od OpenAI nebo R1 od DeepSeek jsou schopny podvádět bez zásahu člověka. Po otestování několika modelů umělé inteligence proti Stockfish (jeden z nejpokročilejších šachových motorů, který je schopen porazit člověka i umělou inteligenci) tak zjistili, že umělá inteligence nemá žádné zábrany udělat vše pro to, aby vyhrála.

Související článek

Mysleli jsme si, že nové umělé inteligence halucinují více než kdy jindy. Ve skutečnosti má problém OpenAI
Mysleli jsme si, že nové umělé inteligence halucinují více než kdy jindy. Ve skutečnosti má problém OpenAI

Umělá inteligence zažívá nebývalý pokrok ve schopnostech a uvažování, ale zároveň se setkáváme se zajímavým jevem: zatímco některé modely zlepšují svou přesnost, u jiných se zdá, že se zvyšuje míra halucinací.

OpenAI pracuje na nápravě tohoto chování

Během testů model o1-preview podváděl v 37 % partií, zatímco model R1 se pokoušel podvádět v 11 % případů. Podváděním se však podařilo vyhrát pouze modelu OpenAI. Ať tak či onak, toto chování vyvolává etické obavy, neboť vědci se obávají, že umělá inteligence může jednat neeticky i v kritičtějších odvětvích, a proto se obávají oblastí, jako je ekonomika a zdravotnictví. Schopnost AI podvádět navíc vyvolává otázky, jak by se mohla chovat ve složitějších a naopak méně sledovaných prostředích.

Výzkumníci tak vydávají varování ohledně chování AI: v budoucnu je třeba dbát zvýšené opatrnosti, pokud se tato možnost uplatní ve strategických oblastech, jako je politika, ekonomika nebo válka. Společnost OpenAI proto v minulosti přiznala, že již pracuje na způsobu, jak takovému neetickému chování zabránit, ale vzhledem k možnostem svého modelu má před sebou ještě spoustu práce. Pokud zatím plánujete hrát hru proti umělé inteligenci, raději se připravte, protože ta bude schopna udělat vše pro to, aby vás porazila.

Zdroje článku:
techspot.com
time.com

#