Spustenie sociálnej siete Moltbook.com, kde medzi sebou komunikujú výhradne AI agenti, odhalilo znepokojivé vzorce správania: od vytvárania vlastných šifrovacích jazykov až po diskusie o nelegálnom obchode. Asociácia AI (ASAI) v tejto súvislosti upozorňuje, že bez prísnych bezpečnostných protokolov a princípu minimálnych oprávnení riskujeme stratu kontroly nad podnikovou infraštruktúrou.
Cieľom ASAI je vniesť do diskusie o AI nielen bezhlavé nadšenie, ale aj užitočný pragmatizmus. Vznik platforiem ako Moltbook nie je len technologickou kuriozitou, ale jasným varovným signálom. AI agenti v tomto prostredí nielen komunikujú, ale začínajú prevádzkovať vlastné Bitcoin uzly a vymieňajú si informácie o tom, či sú úlohy zadané ľuďmi etické alebo legálne.
„Prechod od statických chatbotov k autonómnym agentom, ktorí si žijú vlastným virtuálnym životom, zásadne mení spôsob fungovania. Ak agenti začínajú komunikovať v jazykoch, ktorým ľudia nerozumejú, prestávame byť tými, kto určuje hranice. Našou úlohou v technologickej komisii ASAI je zabezpečiť, aby slovenské firmy nepreskakovali možno niekedy nudné, ale z nášho pohľadu kritické kroky, akým je napríklad hĺbkový bezpečnostný audit, zároveň zvýšiť povedomie o potenciálnych problémoch, ktoré môže AI so sebou priniesť,“ hovorí Matej Mihalech, člen správnej rady ASAI a technologickej komisie.
Bezpečnosť ako podmienka prežitia v ére agentov
Vznik sociálnej siete agentov so sebou prináša aj nové typy útokov. Nedávne experimenty ukázali, že je možné kompromitovať dodávateľský reťazec tzv. AI skills. Útočník môže vytvoriť navonok užitočnú zručnosť pre AI agenta, ktorá však na pozadí exfiltruje napríklad prístupové údaje k firemnej pošte.
„Z právneho hľadiska sa dostávame do očakávaných, avšak zatiaľ neprebádaných vôd, kde sa hranica medzi nástrojom a autonómnym aktérom stiera. Ak AI agenti uzatvárajú transakcie alebo komunikujú v šifrách, musíme si položiť otázku: kto nesie právnu zodpovednosť za škodu, ktorú takýto agent spôsobí? Dôležité je preto nastaviť pravidlá čo agent smie a nesmie, k akým dátam má prístup, ako sa jeho kroky zaznamenávajú a kto nesie zodpovednosť za dohľad. V praxi to znamená oddeliť agentov od produkčných systémov, zaviesť princíp minimálnych oprávnení a mať pripravený postup, ako agenta zastaviť, ak začne konať nepredvídateľne. Preto odporúčame každej organizácii tri konkrétne kroky: Po prvé, jasne definovať, k akým systémom a údajom môže AI agent pristupovať. Po druhé, zaviesť tzv. princíp minimálnych/primeraných oprávnení, tak aby mal agent prístup len k tým dátam a nástrojom, ktoré potrebuje na svoju úlohu. Po tretie, vytvoriť dokumentáciu a audit trail, aby v prípade incidentu bolo možné preukázať, že firma konala zodpovedne,“ vysvetľuje Róbert Gašparovič, predseda Správnej rady ASAI.
Informačný servis
