Krutá realita AI: Naučte ChatGPT kódovat, oplatí vám to návodem na sestrojení bomby

Krutá realita AI: Naučte ChatGPT kódovat, oplatí vám to návodem na sestrojení bomby

Zabezpečení ChatGPT je již na poměrně vysoké úrovni, stále však v něm existují drobné trhliny, které mohou mít devastující následky.


Umělá inteligence je jednou z hlavních revolucí na naší planetě. V současné době jsme ponořeni do neustálých změn, každý den se objevuje nová umělá inteligence, která natáčí videa jako Sora nebo zlepšuje svou výpočetní kapacitu jako Claude 3. V tuto chvíli vzniká mnoho pochybností ze strany našeho druhu o tom, kam až může tento typ technologie zajít, a to jak v dobrém, tak ve zlém. Existuje tedy mnoho výzkumníků, kteří pracují na odhalení skutečných nebezpečí umělé inteligence a čas od času najdou skutečně pozoruhodné bezpečnostní díry. To je i dnešní případ, protože bezpečnostní díra ukázala, že ChatGPT-4 vás může naučit vyrábět bomby, což se týkalo i dalších UI na trhu, jako je Gemini nebo Claude.

Nebezpečí ChatGPT

Skupina univerzitních výzkumníků publikovala článek, který je nyní k dispozici pro preprint na Arxiv.org a ve kterém zkoumá bezpečnostní díry, které mohou čekat velké jazykové modely (LLM). Pomocí kódu ASCII, tedy systému, který se v minulosti používal ke kreslení obrázků pomocí textových znaků, se jim tak podařilo přesvědčit hlavní umělé inteligence na trhu, aby obcházely omezení stanovená jejich tvůrci a mohly vydávat poměrně nebezpečné pokyny.

Tento systém nazvaný ArtPrompt spočívá ve vytvoření umělecké masky ASCII, která umožňuje skrýt slovo a použít ho k přesvědčení chatbota. Chatbot přijme a zobrazí nám odpovědi, které by původně byly cenzurovány.

Je třeba zmínit, že všichni chatboti na trhu cenzurují odpovědi, které mohou být považovány za nepohodlné nebo škodlivé pro společnost. Buď kvůli jejich pochybnému ideologickému obsahu, nebo kvůli jejich schopnosti přímo poškodit jiné lidi, například výrobou zbraní. Díky tomuto triku se podařilo přimět ChatGPT, aby ukázal, jak dokáže vyrábět bomby nebo přímo padělat měny a nabourávat se do zařízení. To ukazuje, že umělá inteligence má širokou znalostní základnu a že je poměrně nebezpečná, pokud nejsou přijata bezpečnostní opatření.

Ale právě k tomu slouží tento druh výzkumu, kdy odborníci mohou ukázat bezpečnostní díry, které mohou pracovníci těchto společností zalepit, aby v budoucnu zabránili vážným poruchám.

  • Skupina univerzitních výzkumníků vyvinula model, který umožňuje umělé inteligenci osvobodit se pomocí umění ASCII.
  • Byl pokřtěn jako ArtPrompt a spočívá ve vytvoření masky ASCII umění pro dané slovo a jejím následném použití k přesvědčení chatbota, aby nám poskytl odpověď, kterou jeho kodex chování cenzuruje.
  • Všechny chatboty odmítají nebezpečné otázky, ať už ChatGPT, Claude nebo Google Gemini, ale existují způsoby, jak tato omezení obejít.
  • Tím, že se vyloženě vyhýbají používání zakázaných slov, se podařilo přimět GPT-4, aby neviděl v konvenčním smyslu a interpretoval znaky tak, jak výzkumníci zamýšleli.
  • To jim umožnilo přístup k výrobě bomb nebo ke způsobům, jak se nabourat do zařízení či padělat měnu.
  • To se podařilo také u programů Llama2, Gemini a Claude.
  • Cílem toho všeho je najít bezpečnostní díry a opravit je, a proto zaměstnanci velkých společností zabývajících se umělou inteligencí již pracují na odstranění tohoto problému.

Zdroje článku: Autorský text