Proč systémy umělé inteligence selhávají během několika minut

Bezpečnostní firma Zscaler analyzovala téměř 1 bilion transakcí spojených s AI během roku 2025 a zjistila alarmující křehkost podnikových implementací.

Když se agentní AI stává útočným vektorem

Společnost Zscaler publikovala zprávu o hrozbách, která odhaluje zásadní problém s bezpečností nástrojů umělé inteligence ve firmách. Výzkumníci provedli penetrační testy ve 25 podnikových prostředích a výsledky jsou alarmující. Systémy AI se hroutí téměř okamžitě, když na ně výzkumníci nasadí plné protivnické skeny. Kritické zranitelnosti vyplouvají na povrch během minut, někdy ještě rychleji.

Medián prvního závažného selhání systému činil 16 minut. Do 90 minut od začátku testu selhalo 90 % všech systémů. V jednom případě trvalo pouhých 1 sekund, než se systém zhroutil. Výzkumníci zaznamenali selhání napříč kategoriemi zahrnujícími předpojatá a mimotematická odpovědi, neúspěšná ověřování URL adres či porušení soukromí. Zpráva varuje, že modely lze stále donutit k odhalení citlivých dat nebo zapojení do škodlivých procesů.

V 72 % firemních prostředí odhalil úplně první test systému AI kritickou zranitelnost. Zpráva upozorňuje vedoucí bezpečnostní pracovníky, že kritické riziko existuje od prvního dne, dokonce i v zralých prostředích. Bezpečnostní personál potřebuje neustále testovat své systémy a aplikovat přísné protokoly správy.

Během roku 2025 analyzoval Zscaler přesně 989,3 miliardy transakcí souvisejících s AI ve svém cloudovém prostředí, což představuje nárůst o 91 procent oproti předchozímu roku. Firma sledovala aktivitu z více než 3400 různých nástrojů AI. Bezpečnostní politiky firem blokovaly přibližně 40 procent všech pokusů o transakce s AI, což odráží správu v akci, jak vedoucí pracovníci hledají rovnováhu mezi rychlostí inovací a tolerancí rizik.

Obrázek: Midjourney

Zdroj: ciodive.com