Shadow AI: Tichý pomocník v pozadí a zkouška firemní kultury

19. 2. 2026

Co je to Shadow AI a proč by vás mělo zajímat 

Shadow AI (doslova „stínová umělá inteligence“) označuje využívání AI nástrojů zaměstnanci bez formálního schválení či dohledu IT oddělení. Jde o obdobu fenoménu shadow IT (tj. neoficiálních technologií ve firmě), avšak v podání AI jsou bariéry vstupu ještě nižší a šíření rychlejší. Zaměstnanci dnes mohou během pár minut začít používat třeba generativní AI typu ChatGPT k usnadnění práce, aniž by o tom management vůbec věděl. A nejedná se o výjimečné případy: studie ukazují, že přes 80 % organizací vykazuje známky takové neformální AI aktivity napříč všemi odděleními – od obchodních týmů zadávajících údaje o klientech do ChatGPT po HR nahrávající životopisy kandidátů do veřejných AI aplikací. Jiný průzkum odhalil, že více než polovina zaměstnanců (59 %) již nějaký nepovolený AI nástroj v práci využila, a ve většině těchto případů o tom jejich přímý nadřízený dokonce ví a tiše to toleruje. Shadow AI tak není okrajový jev, ale běžná realita  i v českých firmách a současně varovný signál z hlediska firemní kultury

Proč Shadow AI ve firmách vzniká 

Shadow AI nevzniká proto, že by zaměstnanci chtěli vědomě porušovat pravidla – naopak často nemají jinou možnost v situaci, kdy potřebují podat výkon. Hlavních důvodů, proč se lidé uchylují k neoficiálním AI nástrojům, je několik: 

  • Hlad po efektivitě a inovacích: Zaměstnanci jsou pod tlakem dělat svou práci rychleji a chytřeji, a AI jim v tomto směru nabízí okamžitou pomoc. Mnohé AI nástroje jsou navíc dostupné zdarma nebo za nízkou cenu, takže jejich přínos (rychlé shrnutí textu, vygenerování návrhu, automatizace rutiny) se projeví téměř okamžitě. Podle nedávných zjištění většina zaměstnanců vnímá AI jako cestu, jak si ulehčit práci, nikoli někomu práci vzít, a využívají ji tedy ke zvýšení vlastní efektivity. Když cítí, že jim to pomůže stihnout termín nebo zvládnout úkol lépe, příliš neváhají, zejména pokud firma zatím žádnou oficiální alternativu nenabízí. 

  • Pomalé interní procesy a chybějící podpora: Mnoho organizací teprve tvoří strategie, politiky a pravidla pro využití AI, což ale trvá měsíce. (Pokud vás toto téma zajímá, přečtěte si článek od Davida Nováka) Interní schvalování nových nástrojů, bezpečnostní prověrky a nákupní procesy jsou často tak zdlouhavé, že zaměstnanci už mezitím sami našli řešení. Zatímco vedení debatuje o AI strategii, lidé „na frontové linii“ už AI využívají k vyřešení reálných problémů v reálném čase. Ve výsledku vzniká propast mezi opatrností vedení a iniciativou jednotlivců. Zaměstnanci optimalizují svou práci dneška, zatímco leadership teprve plánuje na zítřek. K rozmachu shadow AI přispívá i to, že oficiální AI nástroje buď nejsou dostupné, nebo nevyhovují potřebám. Podle průzkumu má sice 77 % firem nějakou politiku k AI, ale jen polovina z nich poskytuje zaměstnancům schválené AI nástroje a pouze třetina zaměstnanců soudí, že tyto oficiální nástroje skutečně pokrývají jejich potřeby. Kde oficiální podpora chybí nebo vázne, nastupují osobní účty a vlastní řešení „na černo“. 

  • Tlaky na výkon vs. pravidla: V kulturním podhoubí mnoha firem zaznívá dvojí vzkaz: na jedné straně „buďte inovativní, využívejte AI, zrychlete”, na straně druhé „dodržujte naše postupy, počkejte na schválení, řiďte se regulacemi”. Tyto smíšené, a někdy až protichůdné informace, z nejvyšších míst staví zaměstnance do obtížné situace. Cítí silný tlak na produktivitu a vidí, že konkurence AI využívá, takže nechtějí zaostat. Současně však nemají k dispozici jasné nástroje ani mantinely, protože oficiální standardy „budou až časem”. Výsledek? Aby vyhověli požadavku na rychlost, najdou si vlastní cestu, i když to znamená obejít dosavadní pravidla. Zaměstnanci tím řeší paradox, kdy mají zároveň 1) inovovat a zrychlovat pomocí AI, 2) vyčkávat na směrnice shora, 3) chránit firmu před riziky, které dohromady nejdou splnit, a tak improvizují ve prospěch prvního zákona, zatímco ten druhý ignorují. 

Faktory firemní kultury podporující stínovou AI 

Shadow AI je zrcadlem firemní kultury. Její existence často poukazuje na „neviditelné tření“ uvnitř organizace – překážky a obavy, kvůli nimž lidé raději inovují potají. Určité kulturní vzorce mohou tento jev posilovat: 

  • Nedostatek důvěry a psychologického bezpečí: Pokud zaměstnanci mají pocit, že by za používání AI mohli sankcionováni, raději o tom mlčí. Jestliže ve firemní kultuře chybí otevřenost k experimentování, inovace se přesouvá „do stínu“. Jak říká AI konzultantka Dee Marshall: „Když mají lidé pocit, že musí skrývat, jak pracují, znamená to, že se necítí zmocněni ani důvěřováni, aby mohli inovovat otevřeně.” Firemní kultura s nedostatkem důvěry tak paradoxně vede k většímu utajování – zaměstnanci inovují tajně, protože nevěří, že by to vedení přijalo pozitivně. 

  • Přehnaná kontrola a zákazy bez vysvětlení: Firmy, které reagují na nové technologie primárně zákazy a přísnými omezeními, mohou problém nevědomky zhoršit. Plošné blokování AI nástrojů tlačí využívání AI do ilegality, čímž organizace ztrácí přehled i vliv na to, jak zaměstnanci AI používají. Pokud chybí konstruktivní “bezpečná cesta”, stává se neoficiální použití nejmenším odporem nejsnazší variantou, jak si pomoci. Kulturně se tak firma může profilovat jako příliš rigidní. Oproti tomu organizace, které místo zákazů dávají mantinely a důvěru, často zjistí, že lidé rádi využijí oficiální nástroje, pokud existují. Cílem totiž není porušovat pravidla, ale udělat práci efektivně. 

  • Role IT security: Fenomén shadow AI je úzce spojen také s oblastí IT security. Pokud zaměstnanci využívají neschválené AI nástroje, může docházet k neúmyslnému úniku dat, obcházení interních bezpečnostních opatření nebo k narušení konzistence bezpečnostních procesů. IT security týmy tak často stojí před dilematem: jak chránit organizaci, aniž by svými omezeními podporovaly přesun inovací “do ilegality”. Právě proto je klíčové, aby byly bezpečnostní politiky srozumitelně komunikovány, vysvětleny a doplněny o bezpečné, schválené alternativy. Tím se riziko shadow AI výrazně snižuje a zároveň vzniká prostředí, kde mohou uživatelé AI využívat zodpovědně a bezpečně.  

  • Mlčení a tabuizace tématu: Někdy kultura vysílá signál, že o AI se raději nemluví. Může to být případ, kdy vedení ignoruje probíhající experimenty nebo střední management aktivně odrazuje od využívání AI s tím, že je to nebezpečné či nežádoucí. Důsledkem je, že místo aby se o možnostech AI vedla otevřená diskuse, děje se vše potichu, izolovaně, bez sdílení poznatků. Shadow AI vzkvétá v prostředí, kde chybí transparentní komunikace: pokud politika k AI neexistuje, nebo téma nikdy nepřijde na poradu, zaměstnanci nabydou dojmu, že nejlepší bude dělat si to po svém a raději o tom nahlas nemluvit. 

  • Dvojí metr a smíšené signály shora: Jak už bylo zmíněno, nejasné či rozporné pokyny z vedení vytvářejí úrodnou půdu pro stínové aktivity. Klasickým kulturním nešvarem je vyžadovat inovace, ale neposkytovat k nim zdroje ani pravidla včas. Dokonce se ukazuje, že nejvyšší vedení samo někdy obchází vlastní pravidla – v jednom průzkumu přiznává 93 % top manažerů, že i oni osobně používají neschválené AI nástroje. Takovéto tiché schvalování shora fakticky legitimizuje tento přístup. Pokud firma formálně něco zakazuje, ale neformálně to všichni dělají, podkopává to důvěru v pravidla i leadership. Zaměstnanci pak berou firemní politiky s rezervou a jedou si “co potřebují”, protože vidí, že ani šéfové se jimi striktně neřídí. 

Za pozornost stojí, že shadow AI není jen problém IT nebo compliance, ale i otázka důvěryhodnosti a jednoty firmy. Pokud se potají používají nástroje, které mohou ovlivnit výstupy práce, hrozí nesoulad v rozhodování i ohrožení konzistence značky. Odborníci varují, že neřešené shadow AI může podkopat firemní kulturu a reputaci. Jaký signál to vysílá zaměstnancům, když se oficiálně něco zakazuje, ale neoficiálně toleruje? Nebo když se skrytě spoléhá na AI při strategických rozhodnutích? Dlouhodobě jde o erozi důvěry, pokud se situace neřeší otevřeně. 

Jak poznat, že ve vaší organizaci existuje Shadow AI 

Je velmi pravděpodobné, že určitá forma shadow AI se vyskytuje i u vás, zvlášť pokud firma zatím nenabídla jasné směrnice či nástroje. Jak takovou skrytou AI aktivitu rozpoznat? Níže jsou některé znaky a projevy, které mohou na shadow AI ukazovat: 

  1. Náhlý nárůst produktivity nebo kvality výstupů: Pokud jednotlivec či tým začne skokově plnit úkoly rychleji než dříve nebo dodávat výstupy nečekaně vysoké kvality, může v tom hrát roli tichá pomoc AI nástroje. Extrémní zlepšení rychlosti tvorby obsahu či analytických výsledků bez jiné zjevné příčiny bývá raným varovným signálem. Samozřejmě, někdy může jít i o přirozené zlepšení procesů – odlišit AI od lidského pokroku není snadné. Nicméně prudká změna výkonu určitě stojí za pozornost. 

  2. Změna stylu práce nebo komunikace: Markantní posun ve stylu psaní dokumentů, e-mailů či zpráv může naznačovat, že část textů generuje AI. Například jednotvárný, velmi konzistentní způsob vyjadřování nebo používání frází, které daný zaměstnanec dříve nepoužíval, může být stopou po LLM modelu. Stejně tak pokud analytik přijde s detailní analýzou během chvilky, mohl si pomoci AI nástrojem na zpracování dat. 

  3. Neochota sdílet pracovní postupy: Setkáváte se s vyhýbavými nebo mlhavými odpověďmi na otázku “Jak jsi k tomu došel/došla?” Případně s tím, že zaměstnanci neradi ukazují své meziprodukty nebo proces práce? To může signalizovat, že používají nástroje, o nichž se domnívají, že by je vedení neschválilo. Když se lidé obávají odsudku, raději tají své postupy – a shadow AI je přesně ten případ. Firemní kultura, kde se úspěch oceňuje, ale prostředky k němu raději nerozebírají, poskytuje živnou půdu pro skryté využívání AI. 

  4. Obcházení oficiálních kanálů: Dalším signálem jsou situace, kdy zaměstnanci využívají soukromé účty či nepodporované aplikace k práci, ať už to zmiňují mezi řádky, nebo to vyjde najevo nepřímo. Příkladem může být personalista, který nahraje data kandidátů do veřejné AI služby (místo interního HR systému) kvůli rychlejšímu zpracování životopisů. Nebo obchodník, jenž si nechá vygenerovat návrh nabídky pomocí své osobní verze ChatGPT. Někdy se to projeví i účetně, např. ve fakturách se objeví předplatná AI aplikací, která oficiálně nikdo neschválil. Pokud lidé obcházejí IT zabezpečení (třeba posílají soubory do externích služeb), jde už o jasný důkaz, že shadow AI u vás funguje. 

  5. Tichý souhlas managementu: Specifickým “symptomem” je situace, kdy střední manažeři či vedoucí týmů vědí o neoficiálním využívání AI a tolerují ho. Jak ukázal výše citovaný průzkum, ve 57 % případů přímí nadřízení vědí a nic nenamítají. Možná sami vidí přínos a nechtějí brzdit tým v produktivnější práci. Pro celkovou kulturu je však alarmující, pokud se to děje pokoutně. Svědčí to o nesouladu mezi oficiální politikou a každodenní praxí. Takový tichý souhlas funguje jako signál, že porušování pravidel je v pořádku, pokud to přináší výsledky, což dlouhodobě podrývá respekt k pravidlům obecně. 

Jak může leadership pracovat se Shadow AI 

Klíčovou otázkou pro leadership je, jak reagovat na fenomén shadow AI konstruktivně a tak, aby se z něj firma poučila a vytěžila benefity, místo aby jen zaváděla přísné kontroly a sankce. Odborníci v Kogi se shodují, že nejlepší cesta spočívá v posílení důvěry, otevřené komunikace a zapojení zaměstnanců, spíše než v represích. Zde jsou osvědčené postupy a principy: 

1. Přiznejte, že AI ve firmě žije svým životem a destigmatizujte to.
Prvním krokem je otevřeně pojmenovat existenci shadow AI namísto předstírání, že se nic neděje. Manažeři by měli jasně říct, že vědí o tom, že lidé nějaké AI nástroje používají, a deklarovat, že cílem není trestání, ale hledání cesty k bezpečnému využití. Toto prohlášení samo o sobě uleví tlaku, zaměstnanci uvidí, že se nehodlá “dělat hon na čarodějnice”. Místo zákazů dejte najevo ochotu k partnerství: vyzvěte týmy, ať sdílí, jaké nástroje již využívají a k čemu. Ukažte uznání pro jejich iniciativu („vidíme, že už nacházíte chytrá řešení“), čímž ukážete respekt k jejich motivaci inovovat. Takové uznání odstraňuje stigma.  

2. Vytvořte prostředí psychologického bezpečí a důvěry.
Je nezbytné ujistit zaměstnance, že sdílet své zkušenosti s AI nebo přiznat se k použití nepovoleného nástroje pro ně nebude mít negativní následky. Odstraňte atmosféru strachu tím, že třeba vyhlásíte “amnestii” na minulá porušení pravidel v této oblasti – cílem je pochopit, co lidé potřebují, ne je nachytat. Odměňujte otevřenost a poctivost (např. veřejnou pochvalou týmu, který přišel s nápaditým AI řešením), místo abyste slepě trvali na dodržování pravidel za každou cenu. Budování důvěry také znamená naslouchat obavám. Leadership by měl tyto obavy otevřeně adresovat a vysvětlit lidem, jakou roli má AI hrát (např. že jde o nástroj pro zlepšení jejich práce, ne náhradu). Když zaměstnanci pochopí, proč firma AI zavádí a že to není proti nim, získáte je pro spolupráci. Důvěra a bezpečí jsou základy, bez nichž jakákoli AI iniciativa narazí. V prostředí strachu budou lidé dál raději “v ilegalitě”. 

3. Zaveďte jasná pravidla spolu s vzděláváním.
Jakmile je atmosféra otevřená, je čas nastavit srozumitelné mantinely pro používání AI. Důležité je, aby pravidla nevznikala odtrženě od praxe. Ideální je zapojit do jejich tvorby přímo ty zaměstnance, kteří už AI používají. Politika pro AI by neměla být jen seznam zákazů, ale hlavně návodů – tedy pozitivní rámec, co je povoleno a za jakých podmínek. Například vyjmenujte schválené nástroje a oblasti, kde je lze použít, aby lidé neměli důvod utíkat jinam. Opatření je vhodné stavět na vysvětlení důvodů: když něco zakážete (třeba sdílet zákaznická data s veřejnou AI službou), vysvětlete, že je to kvůli ochraně dat klientů apod. Lidé mnohem spíš přijmou pravidla, kterým rozumí a která dávají smysl pro byznys. Zároveň musíte zaměstnance vzdělávat – nabídněte tréninky, workshopy či zdroje, kde se zaměstnanci naučí, jak AI efektivně a bezpečně využít. Nespoléhejte, že si všichni dobře uvědomují rizika AI. Školení proto stavte jako podporu, ne jako nutné zlo kvůli compliance. Trénujte a koučujte, místo abyste jen policajtsky dohlíželi. Cílem je společně se naučit nové postupy. 

4. Zapojte vnitřní ambasadory a podpořte experimentování.
V každé firmě se najdou nadšenci do nových technologií – ti, kteří už s AI experimentují a dobrovolně si o tom zjišťují více. Najděte tyto “AI šampiony” napříč týmy a zapojte je do iniciativy. Dejte jim možnost testovat nové nástroje v malém měřítku (pilotní projekty), pořádat interní “AI office hours” nebo minikurzy pro kolegy. Podporujte je v tom, ať sdílejí své poznatky, třeba formou firemního diskusního kanálu o AI, kde se budou probírat tipy a triky. Nebojte se menších experimentů, i kdyby neměly hned dokonalé výsledky. Firemní kultura, která odměňuje zvědavost a učení se, získá náskok. Úkolem leadershipu je vytvořit zázemí, kde je bezpečné zkoušet a chybovat, zároveň však monitorovat rizika. Tím dále posílíte důvěru – lidé uvidí, že cílem vedení je společně se naučit, jak AI využít zodpovědně, nikoli někoho nachytat. 

5. Komunikujte konzistentně a transparentně.
Jakákoliv opatření zavedete, jejich úspěch stojí na komunikaci. Ujistěte se, že zaměstnanci přesně vědí, jaké jsou cíle zavádění AI, jaká jsou pravidla a jak se dělají rozhodnutí ohledně AI ve firmě. Nezapomínejte sdílet úspěchy: pokud nějaký tým díky oficiálně nasazené AI zrychlil proces o 30 % nebo vymyslel něco nového, zveřejněte to interně jako případovou studii. Otevřeně mluvte i o chybách či incidentech (bez pranýřování konkrétních lidí). Ukážete tím, že transparentnost je důležitější než dokonalost. Nejasnost a nejistota jsou totiž živnou půdou pro to, aby se AI nadále používala pokoutně. Jasná, konzistentní komunikace snižuje potřebu utajovaných aktivit. Každý zaměstnanec by měl rozumět tomu, jak AI zapadá do strategie firmy a jak může sám přispět. 

6. Proaktivně sledujte a vyhodnocujte situaci.
Je dobré si udělat reálný obrázek o současném stavu a průběžně ho aktualizovat. Proveďte třeba anonymní anketu či audit: zeptejte se lidí, jaké nástroje používají k ulehčení práce, nebo se podívejte na nedávné vynikající výstupy a zjišťujte, zda v nich nehrála roli AI. Možná objevíte více inovací (a zároveň potenciálních rizik), než jste tušili. Tyto informace pak využijte pozitivně - jako vstup pro další úpravy pravidel, pro nabídku nových školení či pro identifikaci oblastí, kde by investice do oficiálního AI nástroje dávala smysl. Udržujte otevřený kanál zpětné vazby: povzbuzujte týmy, aby hlásily, kde jim oficiální nástroje nestačí a proč sahají po jiných. Tím získáte náskok a místo hašení požárů v podobě bezpečnostních incidentů budete o krocích zaměstnanců vědět dopředu a budete je moci včas usměrnit. Zároveň tím vysíláte signál, že vám jde o podporu, nikoli špionáž. 

Jak proměnit shadow AI z rizika v konkurenční výhodu 

Shadow AI není něco, co by šlo jednoduše zakázat nebo ignorovat. Je to zpětná vazba od vašich zaměstnanců, která říká, kde vaše organizační struktury a procesy nestíhají tempo inovací. 

Shadow AI je v praxi konflikt motivací: vedení chce rychlost a inovaci, byznys chce výkon a výsledky, ale security má KPI postavené tak, že „nejlepší incident je žádný incident“. A když je bezpečnost hodnocená hlavně podle toho, že se nic nestalo, přirozeně skončí u zákazu, protože zákaz je nejjednodušší způsob, jak snížit osobní riziko. Jenže firma si tím nevytvoří bezpečí, ale slepou skvrnu: používání AI se přesune mimo oficiální nástroje a kontrolu, a riziko se ve skutečnosti zvýší. 

Proto to není primárně technická otázka, ale governance a leadership. Pokud management nesladí cíle (a odpovědnost) napříč rolemi, bude každý hrát „svou hru“: bezpečnost bude brzdit, byznys bude obcházet, IT bude frustrované a zaměstnanci si to zařídí po svém. Řešení je dát AI jasný mandát shora, definovat přijatelnou míru rizika podle typů dat a nastavit KPI tak, aby odměňovaly bezpečné umožnění (safe enablement), ne plošné blokování.