Další obavy z AI: Může se velmi rychle vymknout kontrole, tvrdí expert

Další obavy z AI: Může se velmi rychle vymknout kontrole, tvrdí expert

Jako odborník na danou problematiku varuje před riziky, která plynou z nekontrolovatelné umělé inteligence, a před nutností nově definovat její zabezpečení.


Chris Sestito, spoluzakladatel a generální ředitel společnosti HiddenLayer, startupu zaměřeného na kybernetickou bezpečnost a prevenci útoků umělé inteligence, vyjádřil obavy, že se umělá inteligence může rychle vymknout kontrole, pokud nebudou správně zpracovány definice a přístupy k zabezpečení. Jeho hlavním argumentem je, že redukcionistické přístupy k regulaci této technologie mohou být nebezpečné, protože se snaží komplexně řešit její mnohostranné rozměry.

V nedávném rozhovoru pro Axios Sestito kritizuje tendenci uměle oddělovat technické a etické aspekty politiky AI. Poukazuje například na to, že toto rozdělení na „algoritmické předsudky“ a „bezpečnostní hrozby“ je zavádějící a neodráží komplexní realitu výzev, které umělá inteligence představuje. Svou argumentaci navíc opírá o konkrétní případy, kdy problémy, které by mohly být považovány za čistě technické, jako jsou algoritmy generující instrukce pro výrobu zbraní, mají významné a přímé společenské důsledky.

K výzvám AI je třeba přistupovat s jasným cílem

Tento pohled nabývá na aktuálnosti v souvislosti s nedávným přejmenováním britského Institutu pro bezpečnost umělé inteligence na Institut pro kybernetickou bezpečnost umělé inteligence a plánovanými rozpočtovými škrty v obdobné instituci v USA. Podle podnikatele, který má více než desetileté zkušenosti s vedením globálních týmů pro výzkum hrozeb, zpravodajství, inženýrství a datovou vědu, tyto kroky odrážejí úzký pohled, který bezpečnost ztotožňuje s ochranou před hackery.

Související článek

Mark Zuckerberg předpovídá zánik lidské práce: AI zcela nahradí práci inženýrů
Mark Zuckerberg předpovídá zánik lidské práce: AI zcela nahradí práci inženýrů

Vaše zaměstnání se může stát historií již tento rok, zejména pokud jste programátor nebo vývojář.

Na druhou stranu článek zveřejněný americkým zpravodajským webem ukazuje, jak spoluzakladatel společnosti HiddenLayer kategoricky odmítá spojování obav o bezpečnost umělé inteligence s debatami o cenzuře. Uznává sice paralely s kontroverzemi v oblasti sociálních médií, zdůrazňuje však, že rizika spojená s UI jdou mnohem dál:

„Sahají od uchování jaderných tajemství v modelech až po zabránění jejich využití při masivních kybernetických útocích,“ říká Chris Sestito.

Generální ředitel společnosti HiddenLayer se domnívá, že dosavadní regulační rámce jsou nedostatečné a neúčinné. Důvod? Podle něj nedostatek mezinárodní koordinace, škrty v bezpečnostním výzkumu a podcenění rizik, protože se vždy jedná spíše reaktivně než preventivně. Závěrem zdůrazňuje, že klíčové je vypracovat politiky, které integrují technické, etické a geopolitické hledisko.

Jeho vyjádření navíc přichází v kontextu, kdy USA a Velká Británie odmítly na pařížském summitu před několika týdny podepsat mezinárodní deklaraci o etické, inkluzivní a bezpečné umělé inteligenci, na rozdíl od Evropy a dalších 60 zemí, které prosazovaly přístup založený na etických a udržitelných principech. Sestito, známý také jako „Tito“, interpretuje toto rozhodnutí jako známku toho, že obě země dávají přednost hospodářskému růstu a konkurenceschopnosti před komplexními regulačními opatřeními.

Tento přístup však ignoruje důležité rozměry, jako jsou zranitelnosti umožňující získávání citlivých informací z modelů a diskriminační algoritmická rozhodnutí v oblasti soudnictví nebo lékařství. Nemluvě o vytváření nebezpečného obsahu, od návodů na výrobu výbušnin po materiály o zneužívání dětí.

Zdroje článku:
hiddenlayer.com

#