Umelá inteligencia už dávno nie je sci‑fi z filmov, ale tichý motor moderných armád. Od zosieťovaného bojiska cez drony až po simulácie mení spôsob, akým sa velí, bojuje a rozhoduje. S prínosmi však prichádzajú aj vážne riziká a etické otázky, ktorým sa nedá vyhnúť.
Od zosieťovaného bojiska k rozhodovacej prevahe
Technológie putujú medzi civilom, vesmírom a vojenstvom oboma smermi už celé desaťročia. Algoritmy, ktoré dnes nazývame AI, pomáhajú zachytávať a ničiť vzdušné ciele dlhý čas a dnešné armády stoja na dátach, výpočtovej sile a cloude. Kľúčom už nie je len vzdušná či námorná prevaha, ale schopnosť rýchlejšie sa rozhodovať a robiť účinné kroky.
Prednáška pomenovala celú „oktávu“ využitia AI: od systémov velenia a riadenia, cez spravodajstvo a prieskum so satelitmi a taktickými dronmi až po autonómne zbrane a výber priorít cieľov. V kybernetickej obrane aj útoku AI stráži, útočí aj nenápadne ťaží informácie pre ďalšie rozhodnutia. V logistike optimalizuje zásobovanie a presuny, vo výcviku umožňuje bezpečné simulácie od jednej zbraňovej platformy až po aliančné štáby. Umelá inteligencia pomáha aj pri vývoji nových materiálov a pri prepise civilných nápadov do vojenského použitia.
Čo získavame a čo riskujeme
Výhody sú hmatateľné: lepšie a rýchlejšie vyhodnocovanie informácií zvyšuje kvalitu rozhodnutí. Rastie účinnosť jednotiek a autonómne systémy znižujú riziko pre vlastných vojakov, napríklad pri prieskume mínových polí či núdzovom zásobovaní. Presnejšie zameranie obmedzuje spotrebu drahej munície a minimalizuje zásahy klamlivých cieľov. Výcvik v syntetickom prostredí je lacnejší a šetrí životy.
Rizík je však rovnako veľa: modely môžu pri podobných vstupoch produkovať rozdielne výstupy, čo mätie plánovačov operácií. „Čierna skrinka“ rozhodovania je problém tam, kde treba spätne preukázať proporcionalitu a legitimitu použitia sily. Hrozí chybná identifikácia a zaujatosť, ale aj nebezpečné „učenie“ sa zo zlých príkladov, keď systém začne považovať civilný objekt za legitímny cieľ. Navyše sa objavujú halucinácie a falošné pozitívne nálezy.
Etika, pravidlá a možná budúcnosť
Etické dilemy sú zásadné: strata ľudskej kontroly nad použitím sily, nejasná zodpovednosť za chyby a civilné obete a tlak na dodržiavanie medzinárodného humanitárneho práva. Prednášajúci spomenul aj systémy, ktoré navrhujú ciele a ľudia ich len schvaľujú, ako Hapsora či Lavender, čo posúva hranicu mechanizovaného zabíjania. Takéto postupy narážajú na otázku ľudskej dôstojnosti a na to, či stroje smú rozhodovať o živote a smrti. Aj preto volá prax po transparentnosti a vysvetliteľnosti tam, kde to dnes AI neposkytuje.
Otázka „Skynetu“ nie je len sci‑fi, ale pripomienka, že chýba už najmä umelá všeobecná inteligencia; podľa niektorých odhadov by mohla prísť v horizonte 5 až 10 rokov. Zároveň sú etické obmedzenia nedostatočné, čo zvyšuje riziko, že automatizované systémy sa dostanú do slučky rýchlych reakcií a vzájomného nepochopenia. V lepšom scenári sa takúto eskaláciu podarí zastaviť a dohodnú sa pravidlá pre použitie AI vo vojenstve. V tom horšom sa špirála dotiahne k deštrukcii, a preto je dnes čas pravidlá nastaviť a dodržiavať.