5:0! Jak umělá inteligence v testu sundala lidského pilota?

TLDR: V simulovaném leteckém střetu AlphaDogfight porazilo strojové učení lidského pilota v pěti soubojích z pěti soubojů. Jde o impresivní posun, ale neznamená to konec lidského létání. Oznámení DARPA tu, výstup Jane’s tu.

Nebe patří připraveným

Pětkrát se lidský pilot v simulaci AlphaDogfight vydal proti umělé inteligenci z dílny Heron Systems, a pětkrát byl při tom poražen! Nejnovější experiment strojového učení z dílny americké DARPA je rozhodně impresivním posunem možností umělé inteligence – ale jako takový je třeba jej také vnímat, tedy „mírný posun v mezích zákona“. Máme se bát počátku SkyNetu z Terminátora?

Jak informoval třeba Forbes, lidský pilot (označený pod callsignem „Banger“) se postupně zlepšoval a v pátém souboji už lépe reagoval na taktiku umělé inteligence. Také platí, že svým způsobem mašinu podcenil – časopis cituje jeho tvrzení, že při souboji „získal respekt“ vůči umělé inteligenci, protože algoritmy projevily pro něj nečekanou míru schopnosti naučit se reálnou taktiku pilotů.

Potud rozhodně platí, že experiment byl co do testování možností strojového učení jistě užitečný. Ale – a jsem si vědom, že tomu tímhle článkem sám napomáhám – věnuje se mu trochu přehnaně velká pozornost. Při pohledu na specifika simulace se totiž objevuje celá řada úskalí, pokud bychom výsledek pokusu chtěli zobecňovat jako předzvěst toho, že „stíhačky budou již brzy ovládané jenom stroji“…

Předně, souboje při AlphaDogfight probíhaly jen ve scénáři „jeden na jednoho“ a především pouze na kanóny (!), což je rozhodně velmi atypické. Piloti dnes samozřejmě trénují souboj jeden na jednoho, v reálu ale na podobné střety dochází výjimečně. Skutečnost, že při autentických podmínkách by na obou stranách sporu bylo vícero aktérů, kalí jasné soudy nad budoucností lidských pilotů.

Co je ale významnější, na souboje na kanóny dnes prakticky nedochází

Souboj vypadal nějak takto – celý záznam zde.

Člověk, dron, stroj…

Poslední skutečně potvrzené střety dvou letadel na kanóny proběhly na přelomu 60. a 70. let – šlo o souboje indo-pakistanské války z roku 1971 a arabsko-izraelské války z let 1967 a 1973. To je prakticky kolem půlstoletí zpátky. Ačkoliv od té doby došlo na sporadické sestřely provedené pomocí palubních kanónů, nejpozději od 90. let je tato taktika hrubě upozadněna ve prospěch využívání řízených střel.

Pokud tak na sestřel pomocí palubních kanónů dojde, jedná se typicky o nějaký nerovný a/nebo nahodilý souboj (jako když v Zálivu sestřelila A-10 (!) irácký vrtulník).

Pozor – neznamená to, že souboje vedené pomocí řízených střel jsou nutně brnkačka. Ale jejich taktika je diametrálně odlišná. Více záleží na zrychlení, více záleží na senzorech, více záleží na nejrůznějších protiopatřeních na matení nepřítele (a jeho senzorů). Občas třeba panuje dojem, že pokud neviditelná stíhačka není doopravdy neviditelná, je to skoro k ničemu – ve skutečnosti v souboji na rakety obvykle stačí, aby házela menší ozvěnu než klamné cíle, aby se stíhačka tak oněch raket soupeře mohla zbavit…

Ale to už zabíháme. Pointou každopádně je, že dnešní piloti v souboji, který simulace AlphaDogfight simulovala, příliš neexcelují. Protože se na něj ani nezaměřují. Protože se takhle už skoro půlstoletí skoro nebojuje!

To samozřejmě vůbec neznamená, že vítězství umělé inteligence není impresivní! Ale o reálném kontextu využití umělé inteligence ve vojenském letectví to říká spíše málo nežli moc. K tomu, aby se piloti z masa a kostí museli bát o svou profesi, by je AI musela porážet ve simulovaném souboji mezi perutěmi využívajícíma moderní zbraně a taktiky. A na to prostě nedošlo.

File:Боевой многофункциональный робототехнический комплекс Уран-9 - Международного военно-технического форума АРМИЯ-2016 01.jpg
Ruský pozemní dron Uran-9. Zdroj: Vitaly V. Kuzmin/Wikipedia/CC BY

Omezený rámec simulace

Souboj AlphaDogfight rozebral také C.W. Lemoine, youtuber a bývalý vojenský pilot, přičemž přihodil ještě několik pikošek z pohledu někoho, kdo neseděl za svůj život jenom v kokpitu kluzáku. Lemoine předně vypíchl, že podmínky simulovaného souboje zdaleka nevystihují celý kontext reálného leteckého souboje. A to i pokud odhlédneme od velmi limitovaných podmínek, za jakých AlphaDogfight probíhal. Z mnoha detailů třeba platí, že při simulaci se sestřely „doopravdy“ nesimulovaly.

K vítězství nebylo třeba stisknout spoušť ani nedošlo na simulování balistiky projektilů – vítěz musel jednoduše dostat oponenta do vektoru před svým virtuálním letounem. Nu a nakonec je tu ta skutečnost, že umělá inteligence měla oproti člověkovi tu výhodu, že znala parametry letounu soupeře

Ale i pokud by v nějakém pokračujícím scénáři AI porazila formaci lidských strojů, stále není nebe hned otevřené pro mašiny. V neposlední řadě je tu totiž také eticko-právní stránka té možnosti, že bojoví piloti z masa a kostí budou nahrazeni umělou inteligencí. Platí totiž, že nasazení podobného systému si dnes nikdo (zatím?) nedovolí provést kvůli kontroverzi autonomních bojových systémů. Jasně, řada armád světa má drony – ale ty jsou typicky dálkově ovládané lidmi.

Drony nejsou stále mašinou, která „mačká spoušť“ sama od sebe. A i proto jsou drony obvykle vyhrazeny jenom pro velmi specifické úkoly – jako je utajené a dlouhodobé sledování nepřítel, a případné vyslání řízené střely jejich směrem. To je ale využití, u kterého nevadí pomalá odezva typická pro dálkové ovládání. Například pro palebnou podporu jednotek na zem (CAS mise) se drony využívají stále menšinově a spíše jako nouzovější řešení. Protože člověk stále reaguje rychleji než mašina ovládaná na dálku, takže pilot A-10 je typicky užitečnější než dron.

Nabízí se samozřejmě možnost vyvinout robotický dron, který je ovládán (na dálku) lidmi mimo okamžiky souboje, a přepíná na palubní umělou inteligenci v momentech, „kdy jde do tuhého“. A podobné projekty doopravdy již jsou ve vývoji! Ale s nimi souvisí také dva poslední, leč významné detaily.

XQ-58A Valkyrie demonstrator first flight.jpg
Bezpilotní demonstrátor XQ58-A Valkyrie. Zdroj: 88 Air Base Wing Public Affairs/Wikipedia/CC BY

Rage Against The Machines

Pokud ale někde panuje nechuť vůči strojům, které můžou „stisknout spoušť autonomně“ bez souhlasu člověka, pak je to v armádách. Vojáci jsou paradoxně vůči autonomním bojovým strojům skeptičtější, než si většina uvědomuje – pokud se totiž podobná mašina rozbije a splete si nepřátele s vlastní stranou, budou první na ráně.

Americká námořní pěchota tak již třeba testovala několik robotů (byť ne vždy nutně přímo v boji), ale z vícera důvodů je odmítla. Není to tak, že k ideji SkyNetu nemají důvěru jen pacifisté – ve skutečnosti tomu nevěří skoro nikdo

Druhou skutečností je fakt, že i vyvíjené autonomnější bojové stroje jsou stále vyvíjené jako doplněk člověka. USAF vloni například otestoval bezpilotní bojový letoun XQ58-A Valkyrie! Jeho cílem je ale sloužit jako wingman pro lidmi pilotované stroje a v případě nutnosti vytvoření jakési první linie útoku/obrany tak, aby se dále snížily lidské ztráty. Což je taktika, kterou předpokládají i jiné strany. Analogického robotického wingmana vyvíjí myslím i Jižní Korea a Japonsko.

Povolení k likvidaci cíle budou u takových mašin nejspíše stále dávat lidé. Robotičtí wingmani tak v součtu nejsou zase tak odlišní od řízených střel, které nahradily ony souboje na kanóny – jenom tentokrát ty střely umí víc psích kusů, a startují samy, nikoliv zavěšeny pod křídly lidské mašiny.

Fištróni mezi čtenáři teď jistě namítnou, že pokud se umělá inteligence zblázní nebo takové letouny nahackuje nějaký šílenec, může se obrátit proti lidem! Jasně, to se určitě může stát. Ale je to zhruba na stejné úrovni, jako kdybyste dnes chtěl nahackovat dopravní letadlo (které stejně už majoritně létají „podle přístrojů“) a nabourat s ním do Eiffelovky. Nějak by to asi šlo, a je to vlastně i překvapivě snadné. Ale pro řízený útok (nikoliv „jenom“ vypnutí či nabourání někam do pole) to tak neuvěřitelně nepraktické a potřebovali byste k tomu takovou míru informací „zevnitř“ druhé strany, že to nikdo nikdy mimo filmovou zápletku neudělá.

Tedy: snad! Zdroj memu: The Weinstein Company/Boeing/USAF/CC BY, vlastní

Evoluce, nikoliv revoluce

Tím méně se tak stane v bojových podmínkách. Narušení kyberbezpečnosti dnes existuje, ne že ne, ale má typicky spíše podobu úniku kreditních karet nebo hanbatých fotek než získání přístupu k jaderným kódům. Ale i kdyby nakonec takový hack hrozil, budou tu stále stroje řízené lidmi.

Shodou okolností experiment AlphaDogfight dal vzpomenout na únorové prohlášení Elona Muska jako ilustraci vítězství umělé inteligence. Stejný Musk by rád za tři dny představil nový průlom jeho Neuralinku, který by rád lidem dodal nové možnosti k tomu, abychom drželi krok s umělou inteligencí. Jeho vyjádření je tedy třeba brát s jistou marketingovou rezervou. Faktem ovšem je, že Neuralink po boku umělé inteligence slouží jako perfektní metafora toho, jak nejspíše budou vypadat i letecké souboje budoucnosti (a nejen ty).

Když to totiž shrneme a zakončíme – umělá inteligence rozhodně jde kupředu, a vaše nenarozené děti by si to s dráhou bojového pilota měly za generaci či dvě hodně rozmýšlet! Ale momentálně lidští piloti z mnoha, mnoha důvodů do důchodu nejdou a

nepůjdou. A možná, pokud budeme mít pokročilá neurální rozhraní, nepůjdou do důchodu nikdy. Protože nakonec dojde i na vylepšování pilotů samotných. To však už větším z lógru.

Vítězství v simulaci DARPA je tedy sice zvláštní předzvěstí toho, co nás čeká – ale kdy a jak přesně náš to čeká, stále ještě visí za nejasným horizontem.

[Ladislav Loukota]

Zprávy o AI mají tendenci být obvykle velkolepější, než jaké AI fskutečnosti dává výsledky. Ale ne absolutně…

Vědátor vzniká v dílně spolku studentů a popularizátorů vědy UP Crowd za podpory MUDRstart, který tvoří přípravné testy pro studenty vysokých škol. Krom různých autorů projekt jako šéfredaktor vede Ladislav Loukota – jeho kontaktní mail je vedatororg@seznam.cz

Napsat komentář

Vaše emailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Reklama