Diskusia odborníkov z bánk, konzultingu a dodávateľov bezpečnosti ukázala, že umelá inteligencia sa stáva súčasťou kyberobrany, no jej nasadzovanie brzdí správa dát a regulácie. Jazykové modely môžu uľahčiť prácu analytikov, ale rovnako ich využívajú aj útočníci. Kľúčom budú rozumné interné pravidlá, verifikácia výstupov a postupné piloty.
Ako banky a integrátori skúšajú AI
Banky zatiaľ s verejnými nástrojmi typu ChatGPT vyčkávajú, najmä pre otázky kam a aké dáta odchádzajú a ako to celé obstojí právne. Prioritou je šifrovanie v cloude, zmluvné nastavenia a presné pravidlá použitia; nástroje ako Copilot či GitHub si vyžadujú dohodnuté podmienky. Niektoré tím y už testujú prvé interné use‑casy výhradne na interných dátach, s jasne zadefinovanými filtrami a obmedzeniami. Pri analýze incidentov pracujú najmä s metadátami a pseudonymizovanými údajmi, detailné dôkazy sa zbierajú lokálne.
Konzultačné a integračné firmy, ako napríklad Aliter, vkladajú prvky AI do nasadzovaných produktov a zároveň si vyvíjajú interné nástroje na správu procesov a dokumentov. Ťažia z vlastných vývojárskych tímov a snažia sa optimalizovať aj vnútorné postupy. V obrannom sektore narážajú na prísnejšie regulácie, preto sa preferuje vývoj „na vlastnom piesku” a používanie v obmedzenom, dôkladne kontrolovanom prostredí. Reálne nasadenia tu postupujú opatrnejšie a s dôrazom na suverenitu dát.
Virtuálni asistenti pre SOC: pomoc aj limity
Najbližší trend je využiť veľké jazykové modely ako asistentov pre bezpečnostných analytikov a správcov. Vedia prejsť konfigurácie, upozorniť na chyby, navrhnúť priority a urýchliť manuálne hľadanie informácií pri komplexných bezpečnostných produktoch. Takéto nástroje môžu skrátiť čas implementácie aj dohľadu, ak sa dobre nastavia otázky a kontext. Zároveň treba zachovať kontrolu: overovať výstupy a sledovať, či odporúčania skutočne sedia na dané prostredie.
Útočníci už AI využívajú na presvedčivejšie phishingové kampane, preto sa úloha juniorov posunie od skriptovania k overovaniu a praktickej analýze incidentov. Panelisti pripomenuli, že AI je „len” štatistický nástroj: môže triafať 99,9 % prípadov, no počítať treba aj s výnimkami. Ochrana preto musí byť viacvrstvová a kombinovať viaceré systémy, nie spoliehať sa na jediný model. Dôležité je tiež chrániť tréningové dáta a priebežne kontrolovať, čo model generuje, lebo stroj sám o sebe tieto riziká neodstráni.
Kedy sa AI stane kľúčom kyberbezpečnosti?
Predpovede sa líšia: podľa jedného pohľadu sa AI stane kľúčovou súčasťou nástrojov už do roka, najmä vďaka nárastu produktivity a lepšiemu vyhľadávaniu informácií. Iní hovoria o horizonte dvoch až troch rokov pre rutinné, úzko vymedzené úlohy. Ďalší vidia tri až päť rokov a varujú, že najprv treba riešiť „pravdivosť” modelov a minimalizovať halucinácie. Zhodujú sa však, že schopnosť správne sa pýtať a dôsledne verifikovať výstupy bude rovnako dôležitá ako samotná technológia.
Komplexné úlohy, ako ucelený pohľad na veľké objemy bezpečnostných logov, môžu trvať dlhšie – padli odhady aj na sedem až osem rokov. Turbulencie v prostredí veľkých hráčov a investícií môžu tempo zrýchliť alebo pribrzdiť, no smer je jasný. AI bude stále viac asistovať, niekde nahradí základnú rutinu, inde zostane pod dohľadom ľudí. V praxi rozhodnú pravidlá práce s dátami, regulácie a ochota overovať, nie slepo veriť tomu, čo sa zobrazí na obrazovke.