Pokus o výbuch kybernetického vozu Tesla mohl mít fatální následky.
Téměř před dvěma lety jsme se setkali s první umělou inteligencí, jejímž cílem bylo zničit lidstvo. Ačkoli se jednalo o experiment, už její samotné vytvoření vyvolalo potřebu omezit rozsah umělé inteligence, protože lidé se špatnými nápady by mohli její znalosti využít k páchání trestné činnosti. A právě takovou situaci bohužel zažila policie v Las Vegas v souvislosti s případem, do něhož byl zapleten ChatGPT, kybernetický vůz Tesla a hotel Donalda Trumpa.
Jak poznamenal server TechSpot, muž použil agenta umělé inteligence k naplánování výbuchu vozu Elona Muska. Útočník, identifikovaný jako Alan Livelsberger, je aktivním vojákem speciálních jednotek americké armády. Jako takový využil svých znalostí a dosahu ChatGPT, aby 1. ledna vyhodil do povětří kybernetický vůz před mezinárodním hotelem Trump. A jak odhalilo vyšetřování, hodinu před výbuchem konzultoval UI, aby se dozvěděl, jak získat výbušniny, na jaké zákony si dát pozor a kde koupit zbraně.
Policie zjistila, že používá ChatGPT
Livelsberger se navíc ptal také na to, jak vystřelit projektil, aby výbušninu odpálil. Tímto způsobem chtěl zjistit podrobnosti o rychlosti výstřelu potřebné k iniciaci výbuchu. Policie i agentury jako FBI však používání ChatGPT odhalily, a proto je tento případ považován za „převratnou událost v oblasti využívání umělé inteligence v trestné činnosti“.
Bohužel se jedná o první použití ChatGPT v USA pro tento typ trestné činnosti. Livelsbergerovy otázky tedy v systému ChatGPT nevyvolaly žádné výstrahy. Ve skutečnosti se ani nepokusily obejít kontroly systému, což orgány zapojené do případu kritizovaly. Společnost OpenAI zase vyjádřila nad incidentem politování a poznamenala, že se zavázala k odpovědnému používání umělé inteligence. Jako taková využije tento tragický případ ke změně některých svých zásad týkajících se botů.