Investor a poradce pro národní bezpečnost tvrdí, že autonomní stíhací letouny překonají lidi a navždy změní pravidla letecké války.
Svět vojenského letectví se kvůli nedávným výrokům Marca Andreessena rozbouřil. Technologický investor a současný poradce pro národní bezpečnost USA rozpoutal debatu tvrzením, že letadla řízená umělou inteligencí podávají mnohem lepší výkony než letadla řízená lidmi. Tento postoj přichází v době, kdy vrcholí nástup autonomních systémů, technologie, která mění tradiční strategie vzdušného boje.
Andreessen během podcastu The Joe Rogan Experience tvrdil, že stíhací letouny řízené umělou inteligencí jsou „mnohem lepší“ než ty s lidskou posádkou. Spoluzakladatel společnosti Andreessen Horowitz svůj argument opírá o dva konkrétní faktory: již není třeba chránit lidské životy a odpadají fyzická omezení, která piloti v kokpitu zažívají.
Technologická převaha umělé inteligence ve vzdušném boji
Data mu dávají za pravdu: v testech v roce 2020 systém umělé inteligence porazil lidského pilota ve všech střetech s letouny F-16. Pilot potřebuje na reakci stovky milisekund, zatímco algoritmy zpracovávají a jednají téměř okamžitě. Čína již má vojenské drony, které se v polovině letu oddělují a vytvářejí autonomní roje, což demonstruje tento taktický posun.
This is Marc Andreessen.
Co-founder of Netscape and one of the most controversial minds in Silicon Valley.
He sat down with Joe Rogan and shared some mind-blowing revelations about how the government really works.
Here are 8 of his most shocking insights:
(No. 7 is… pic.twitter.com/u2RguOpCvu
— Mushfiq Sajib (@heysajib) January 3, 2025
Andreessen uvádí případy, jako je Ghost Bat společnosti Boeing, bojový dron navržený pro činnost v roji. Představuje si scénář, kdy se „na obzoru objeví tisíce těchto dronů“, což zcela změní taktiku vedení války. Elon Musk tento názor posílil tím, že program F-35 označil za neefektivní tváří v tvář opakovaně použitelným dronům.
Nezodpovězené otázky však zůstávají: kdo zareaguje, pokud algoritmy během mise selžou? Odborníci varují, že zbavení se lidského úsudku ve složitých situacích by mohlo vyvolat závažné chyby. Nedávné úspěchy s vozidly bez řidiče, jako je Maserati, které při kontrolovaných testech dosáhlo rychlosti 318 km/h, ukazují na pokrok, ale kritici zdůrazňují, že tyto testy mají daleko k reálným bojovým podmínkám.
Modely, jako je Air-Guardian od MIT, naznačují, že schůdnější cestou by byla kombinace lidí a strojů, nikoli jejich úplné nahrazení. Tyto systémy využívají výpočetní výkon, ale zachovávají lidský úsudek pro rozhodnutí, která vyžadují etický úsudek.
Na globální šachovnici Andreessen poznamenává, že malé, technologicky vyspělé země by mohly prostřednictvím bezpilotních letounů získat rozhodující vojenskou výhodu, což by změnilo zavedené mocenské poměry. Přesto tento proces brzdí regulace, protože FAA vyžaduje, aby autonomní lety řídil člověk. Tato změna postupuje, ale k úplnému nahrazení lidských pilotů v krátké době nedojde. Trend směřuje ke smíšeným týmům, kde, jak řekl Ramin Hasani z MIT: AI neodstraní lidský úsudek v letectví, ale vynese ho do výšin, které se dříve zdály nemožné“.
Etické a bezpečnostní výzvy
Využití umělé inteligence ve stíhacích letounech představuje významné etické a bezpečnostní výzvy. Schopnost umělé inteligence činit rozhodnutí ve zlomku sekundy je působivá, ale vyvolává také obavy ohledně odpovědnosti a etiky v bojových situacích. Pokud autonomní bezpilotní letoun učiní rozhodnutí, které má za následek civilní oběti, kdo za to ponese odpovědnost? Na tyto otázky se snaží odpovědět odborníci na etiku a mezinárodní právo.
Kromě toho existuje riziko, že systémy umělé inteligence jsou zranitelné vůči kybernetickým útokům. Pokud se protivníkovi podaří hacknout dron nebo autonomní stíhačku, důsledky mohou být katastrofální. Kybernetická bezpečnost se proto stává klíčovým aspektem při vývoji těchto technologií.
A konečně, ačkoli technologie rychle postupuje, integrace umělé inteligence do bojových systémů musí být opatrná a postupná. Vývojáři a armády musí před nasazením systémů do reálných bojových situací zajistit jejich robustnost a spolehlivost.
Závěrem lze říci, že ačkoli umělá inteligence slibuje revoluci ve vzdušném boji, je třeba k jejímu zavádění přistupovat obezřetně a brát v úvahu jak technologické výhody, tak etické a bezpečnostní výzvy, které přináší.