Analytická spoločnosť zverejnila správu, ktorá môže mať vážne dôsledky vo svete podnikovej kybernetickej bezpečnosti. V dokumente „Kyberbezpečnosť by mala zatiaľ blokovať prehliadače založené na umelej inteligencii“ sa uvádza, že organizácie by sa mali zdržať používania agentných prehliadačov založených na umelej inteligencii. Varujú, že súčasné nastavenia týchto nástrojov uprednostňujú pohodlie používateľa pred bezpečnosťou údajov.
Analytici definujú prehliadač s umelou inteligenciou ako nástroj vybavený dvoma funkčnými komponentmi. Prvým je bočný panel založený na modeli umelej inteligencie, ktorý umožňuje sumarizovať obsah, analyzovať webové stránky, prekladať a vykonávať rôzne operácie na otvorených stránkach. Príkladmi takejto technológie sú Comet od Perplexity a ChatGPT Atlas, vyvinutý OpenAI. Druhým prvkom je takzvaná agentúrna transakcia, vďaka ktorej sa prehliadač môže autonómne pohybovať, vykonávať akcie na stránkach a plniť úlohy počas autorizovaných relácií používateľov.
Gartner zdôrazňuje, že bočné panely AI sú spojené s odosielaním obsahu prehliadača do cloudovej infraštruktúry výrobcu. To zahŕňa históriu prehliadania, aktívny obsah a otvorené karty. Podľa autorov správy každý takýto prenos zvyšuje objem údajov, ktoré sa môžu dostať do externého modelu, a organizácia musí sama posúdiť, či infraštruktúra dodávateľa spĺňa bezpečnostné štandardy.
Nekontrolovaný tok údajov ako reálna hrozba
Správa uvádza potrebu dôkladnej kontroly dodávateľov, skôr ako spoločnosť povolí používanie agentného prehliadača AI vo výrobnom prostredí. Ak sa takýto model prijme, používatelia si musia uvedomiť, že akýkoľvek obsah otvorený v prehliadači môže byť odoslaný do systému AI pri použití funkcie zovšeobecnenia alebo automatických akcií.
Gartner tiež uvádza varovania súvisiace s automatickým prijímaním rozhodnutí agentmi AI. Modely môžu vykonávať operácie v dôsledku nesprávneho uvažovania, nesprávnej interpretácie stránky alebo cieleného útoku s použitím vkladania podnetov. Podľa analytikov sa phishing stáva vážnejšou hrozbou, pretože autonómny agent môže bez rozmýšľania vstúpiť na falošnú stránku a odoslať jej svoje prihlasovacie údaje.

Možné zneužitie v spoločnostiach
Správa opisuje aj ľudský aspekt problému. Podľa údajov spoločnosti Gartner časť zamestnancov môže používať agentúrne prehliadače na automatizáciu povinných úloh, ako je školenie v oblasti bezpečnosti. Analytici predstavujú scenáre, v ktorých zamestnanec odporúča prehliadaču umelej inteligencie absolvovať kurz, ktorý mal byť vykonaný samostatne.
Upozorňujú tiež na chyby, ktoré modely robia pri vykonávaní finančných a administratívnych operácií. Ak agent získa prístup k interným nákupným nástrojom, môže nesprávne vyplniť formuláre, objednať nevhodné produkty alebo rezervovať nesprávny termín služobnej cesty. Takéto kroky, ktoré modely vykonávajú v mene zamestnanca v rámci rutinných postupov, môžu viesť k nákladným chybám.
„Je možné vyplniť formulár s nesprávnymi informáciami, objednať nevhodné kancelárske potreby… alebo rezervovať nevhodný let.“
Obmedzenia a dôsledky pre organizáciu
Autori správy navrhujú opatrenia na zníženie rizika, ako je blokovanie prístupu agentov k e-mailu alebo zapnutie nastavení, ktoré zakazujú zaznamenávanie údajov. Domnievajú sa však, že aj po takomto nastavení budú musieť podniky vytvoriť rozsiahly zoznam zakázaných aplikácií a neustále kontrolovať park prehliadačov.
Gartner poukazuje na to, že súčasná úroveň rizika je príliš vysoká na to, aby agentové prehliadače AI mohli fungovať bez presného auditu a kontroly. Podľa analytikov bude v najbližších mesiacoch veľa prípadov zneužitia súvisiacich s nevhodným používaním týchto nástrojov a organizácie by mali byť pripravené na nutnosť zavedenia prísnejších pravidiel.
