Jako odborník na danou problematiku varuje před riziky, která plynou z nekontrolovatelné umělé inteligence, a před nutností nově definovat její zabezpečení.
Chris Sestito, spoluzakladatel a generální ředitel společnosti HiddenLayer, startupu zaměřeného na kybernetickou bezpečnost a prevenci útoků umělé inteligence, vyjádřil obavy, že se umělá inteligence může rychle vymknout kontrole, pokud nebudou správně zpracovány definice a přístupy k zabezpečení. Jeho hlavním argumentem je, že redukcionistické přístupy k regulaci této technologie mohou být nebezpečné, protože se snaží komplexně řešit její mnohostranné rozměry.
V nedávném rozhovoru pro Axios Sestito kritizuje tendenci uměle oddělovat technické a etické aspekty politiky AI. Poukazuje například na to, že toto rozdělení na „algoritmické předsudky“ a „bezpečnostní hrozby“ je zavádějící a neodráží komplexní realitu výzev, které umělá inteligence představuje. Svou argumentaci navíc opírá o konkrétní případy, kdy problémy, které by mohly být považovány za čistě technické, jako jsou algoritmy generující instrukce pro výrobu zbraní, mají významné a přímé společenské důsledky.
K výzvám AI je třeba přistupovat s jasným cílem
Tento pohled nabývá na aktuálnosti v souvislosti s nedávným přejmenováním britského Institutu pro bezpečnost umělé inteligence na Institut pro kybernetickou bezpečnost umělé inteligence a plánovanými rozpočtovými škrty v obdobné instituci v USA. Podle podnikatele, který má více než desetileté zkušenosti s vedením globálních týmů pro výzkum hrozeb, zpravodajství, inženýrství a datovou vědu, tyto kroky odrážejí úzký pohled, který bezpečnost ztotožňuje s ochranou před hackery.
Na druhou stranu článek zveřejněný americkým zpravodajským webem ukazuje, jak spoluzakladatel společnosti HiddenLayer kategoricky odmítá spojování obav o bezpečnost umělé inteligence s debatami o cenzuře. Uznává sice paralely s kontroverzemi v oblasti sociálních médií, zdůrazňuje však, že rizika spojená s UI jdou mnohem dál:
„Sahají od uchování jaderných tajemství v modelech až po zabránění jejich využití při masivních kybernetických útocích,“ říká Chris Sestito.
Generální ředitel společnosti HiddenLayer se domnívá, že dosavadní regulační rámce jsou nedostatečné a neúčinné. Důvod? Podle něj nedostatek mezinárodní koordinace, škrty v bezpečnostním výzkumu a podcenění rizik, protože se vždy jedná spíše reaktivně než preventivně. Závěrem zdůrazňuje, že klíčové je vypracovat politiky, které integrují technické, etické a geopolitické hledisko.
Jeho vyjádření navíc přichází v kontextu, kdy USA a Velká Británie odmítly na pařížském summitu před několika týdny podepsat mezinárodní deklaraci o etické, inkluzivní a bezpečné umělé inteligenci, na rozdíl od Evropy a dalších 60 zemí, které prosazovaly přístup založený na etických a udržitelných principech. Sestito, známý také jako „Tito“, interpretuje toto rozhodnutí jako známku toho, že obě země dávají přednost hospodářskému růstu a konkurenceschopnosti před komplexními regulačními opatřeními.
Tento přístup však ignoruje důležité rozměry, jako jsou zranitelnosti umožňující získávání citlivých informací z modelů a diskriminační algoritmická rozhodnutí v oblasti soudnictví nebo lékařství. Nemluvě o vytváření nebezpečného obsahu, od návodů na výrobu výbušnin po materiály o zneužívání dětí.