Umelá inteligencia je dnes zároveň nástrojom obrany aj novým zdrojom rizík v kyberpriestore. Jej vplyv zatiaľ nie je všemocný, no rýchlo rastie a mení mierku aj kvalitu útokov. Kľúčom ostáva pripravenosť: technické opatrenia, rozumné pravidlá a najmä vzdelaní používatelia.
AI ako hrozba aj štít
AI vie automatizovať útoky a škodlivé kampane, čím zvyšuje ich rozsah a rýchlosť. Zároveň však prináša nové spôsoby aktívnej ochrany – od rýchlejšej detekcie anomálií až po adaptívne reakcie na hrozby. Odborníci upozorňujú, že ide o preteky v zbrojení: rovnaké princípy, ktoré vytvoria klamlivý obsah, môžu pomôcť aj pri jeho odhaľovaní.
Prax ukazuje, že najväčší skok nie je v „genialite“ útokov, ale v ich škále. AI urýchľuje prípravu textov, hlasov či obrázkov, a tak pribúda viac dobre vyzerajúcich podvodov v kratšom čase. Platí preto staré pravidlo: technológie pomáhajú, no bez základnej hygieny a obozretnosti používateľov neochránia všetko.
Phishing, deepfaky a falošné e‑shopy
Phishingové e‑maily už často znejú bezchybne po slovensky a prichádzajú z dôveryhodne vyzerajúcich adries. Problémom je hlavne objem: zatiaľ čo jedna antivírusová firma pred Vianocami nahlásila približne 55 podvodných webov, paralelné sledovanie odhalilo až 441 stránok s rovnakým redakčným systémom, hostovaných z dvoch dátových centier v Číne. Hoci štát nevie potvrdiť každý prípad nákupom, ide o zreteľné varovné signály kampane vo veľkom.
Pri deepfakoch sa vedie „ťahanica o milisekundy“: nástroje na tvorbu podvodného obsahu a nástroje na jeho detekciu sa vyvíjajú ruka v ruke. Okrem štatistických detektorov a overovania konzistencie obsahu pomáha aj vkladanie skrytých vodotlačí do výstupov modelov. Pre používateľov platí jednoduché pravidlo: overujte zdroj a porovnávajte s oficiálnymi kanálmi, najmä pri citlivých vyhláseniach verejných osôb.
Bezpečné používanie a kde by mala pomôcť regulácia
Najviac chýb vzniká pri samotnom používaní AI. Citlivé firemné údaje vkladané do verejných služieb sa môžu vrátiť vo výstupoch modelov, a interné chatboty napojené na API môžu neúmyselne prezrádzať informácie pri šikovne navrhnutých dotazoch. Pomáha poctivá analýza rizík, princíp „minimum potrebných dát“, viacfaktorové overenie a pravidelný tréning používateľov vrátane simulovaných phishingových kampaní.
Technické blokovanie na „národnej IP úrovni“ je síce možné, no ide o tenký ľad – nástroj by mohol byť zneužiteľný. Európsky prístup preto hľadá rovnováhu: AI Act rámcuje rizikové oblasti a etiku, no bezpečné nasadenie v praxi si vyžaduje interné pravidlá, dohľad doménových expertov a priebežné vzdelávanie. Keďže výskum útočných aj obranných techník napreduje súčasne (napr. matica MITRE ATLAS pre AI), poslednou líniou zostáva informovaný človek, ktorý kontroluje výstupy modelov a neverí slepo prvému kliknutiu.