Pentagon plánuje využít umělou inteligenci k posílení bezpečnosti svých jaderných systémů a zajistit, aby konečné rozhodnutí vždy zůstalo v lidských rukou.
Ministerstvo obrany USA oznámilo svůj záměr zapojit umělou inteligenci ke zlepšení schopností svých systémů jaderných zbraní. Tento krok sice zaručuje, že konečné rozhodnutí bude vždy v lidských rukou, ale zároveň vyvolává obavy ohledně rizik spojených se začleněním umělé inteligence do tak citlivých zbraní. Generál Anthony J. Cotton, velitel amerického strategického velení, uvedl, že zkoumají všechny možné technologie k modernizaci svých schopností velení a řízení jaderných zbraní. Začlenění umělé inteligence má za cíl zefektivnit rozhodování ve stále složitějším a náročnějším prostředí.
Umělá inteligence v jaderném zbrojení: pokroky i obavy
V posledních letech byla vyvinuta řada vojenských systémů řízených umělou inteligencí, včetně stíhacích letounů, bezpilotních letounů a automatizovaných zbraní. Možnost, že by AI byla součástí systémů jaderných zbraní, však vyvolává obavy, zejména z chyb, kterých se tyto technologie mohou ještě dopustit.
The Pentagon wants AI to enhance the capabilities of US nuclear weapons systems
— TechSpot (@TechSpot) November 5, 2024
The US is one of several countries that previously declared it would always keep control of nuclear weapons in the hands of humans, not AI. But the Pentagon… https://t.co/YMM2icHq0h
Generál Cotton veřejnost ujistil, že AI sice zlepší rozhodovací schopnosti v oblasti velení a řízení jaderných zbraní, ale „nikdy nesmíme dovolit, aby umělá inteligence činila tato rozhodnutí za nás“. Zdůraznil, že je důležité, aby byl v rozhodovacím procesu vždy přítomen člověk, aby se maximalizovalo bezpečné přijetí těchto schopností.
Oznámení přichází v mezinárodním kontextu, kdy i další mocnosti zkoumají možnosti integrace umělé inteligence do svých vojenských systémů. Například uvedení jaderných zbraní do služeb AI je nejnovějším krokem Číny, který spustil poplašné zvony a zvýšil napětí v technologických a vojenských závodech.
Chris Adams, generální ředitel divize strategických vesmírných systémů společnosti Northrop Grumman, vysvětlil, že dnešní jaderné systémy velení a řízení se skládají ze stovek systémů, které se v průběhu času modernizují, aby reagovaly na měnící se hrozby. Umělá inteligence by mohla pomoci všechna tato data efektivněji shromažďovat, interpretovat a prezentovat.
Nicméně i bez toho, aby jí byla svěřena přímá kontrola nad kódy pro odpalování jaderných zbraní, s sebou použití umělé inteligence v jakémkoli systému jaderných zbraní nese rizika. Cotton upozornil, že je třeba zaměřit výzkumné úsilí na pochopení nebezpečí kaskádových efektů, emergentního a neočekávaného chování a nepřímého začlenění AI do rozhodovacích procesů v jaderné oblasti.
Lidé se umělé inteligence stále bojí. Chceme jí svěřit kontrolu nad jadernými střelami?
Tento krok Pentagonu se rovněž shoduje se skutečností, že se USA vrátily k výrobě jaderných zbraní, což neudělaly od roku 1989 a což zřejmě naznačuje možnou eskalaci modernizace jejich arzenálu.
Nedávný výzkum navíc ukázal potenciální rizika spoléhání se na umělou inteligenci při kritických rozhodnutích. V únoru byly provedeny simulace mezinárodních konfliktů s různými jazykovými modely, včetně GPT-4 a GPT-3.5. Výsledky ukázaly, že tyto systémy často eskalovaly válečné situace a v několika případech nasadily jaderné zbraně bez předchozího varování.
Integrace umělé inteligence do jaderné oblasti je citlivou otázkou, která vyžaduje rovnováhu mezi technologickým pokrokem a globální bezpečností. Mezitím američtí vojenští představitelé trvají na tom, že do kritických rozhodnutí bude vždy zasahovat člověk, aby se předešlo nechtěným důsledkům.
Na tomto pozadí mají USA hlavní plán, jak zmařit čínské rakety, a snaží se udržet si pozici vedoucí vojenské mocnosti. Součástí této snahy o udržení náskoku před protivníky je i začlenění umělé inteligence do jejich obranných systémů.