Studie ukazuje, že mezi zaměstnanci a zaměstnavateli stále existuje mnoho nedorozumění (nebo celkový nedostatek komunikace), pokud jde o nástroje AI. Mnoho společností nemá žádnou oficiální politiku týkající se používání AI a pracovníci přiznávají, že sdílejí citlivé informace s nástroji AI.
Vzhledem k tomu, že mnoho z těchto nástrojů AI nakonec vede k úniku zákaznických dat, mohou být ohroženy tisíce podniků. Společnost IBM navíc nedávno odhalila, že stínová AI (používání neschválených nástrojů AI v práci) může zvýšit náklady na porušení ochrany dat v průměru o 670 000 dolarů.
Celkem 59 % zaměstnanců přiznává, že používá nástroje AI, které nebyly schváleny jejich zaměstnavateli. Ještě zajímavější je, že z těch, kteří používají neschválené nástroje, 57 % tvrdí, že jejich přímí nadřízení s tím souhlasí a podporují to, a 16 % tvrdí, že jejich přímému nadřízenému je to jedno. To ukazuje, že společnosti nevynakládají dostatečné úsilí na zvyšování povědomí o rizicích nezodpovědného používání AI.
„Pokud zaměstnanci používají neschválené nástroje AI pro práci, není možné zjistit, jaké informace s nimi jsou sdíleny. Vzhledem k tomu, že nástroje jako ChatGPT působí dojmem, jako byste chatovali s přítelem, lidé zapomínají, že tato data jsou ve skutečnosti sdílená se společností, která za chatbotem stojí. Ukazuje se, že mnoho manažerů tiše schvaluje používání těchto nástrojů, i když nejsou oficiálně schváleny. To vytváří šedou zónu, ve které se zaměstnanci cítí povzbuzeni k používání AI, ale společnosti ztrácejí přehled o tom, jak a kde jsou citlivé informace sdíleny,“ říká Mantas Sabeckis, bezpečnostní výzkumník ve společnosti Cybernews.
Většina sdílí potenciálně citlivá data
Největším rizikem používání neschválených nástrojů AI v práci je to, že zaměstnanci s nimi nakonec budou sdílet citlivá data. Ukázalo se, že 75 % zaměstnanců, kteří používají neschválené nástroje AI, přiznává, že s nimi sdílí potenciálně citlivé informace. Nejčastěji přiznali sdílení údajů o zaměstnancích, zákaznících a interních dokumentů.
Zajímavé je, že celkový podíl zaměstnanců (včetně těch, již používají i nepoužívají neschválené nástroje), kteří sdílejí citlivá data s nástroji AI, činil 44 %. To znamená, že pracovníci, již používají neschválené nástroje, je s mnohem větší pravděpodobností používají nezodpovědně.
HP Knowledge HUB pro moderní firemní IT
NOVINKA Navštivte novou speciální on-line zónu CIO Business Worldu, kde vám ve spolupráci s HP budeme průběžně radit, jak snadno a bezpečně pracovat na cestách, jak si usnadnit život používám správných nástrojů, jak zvládnout přechod z kanceláří domů a zase nazpátek a jak se přitom chovat ekologicky.
Pomoc a inspiraci pro moderní IT najdete v našem HP Knowledge HUBu.
„Když zaměstnanci vkládají citlivá data do neschválených nástrojů AI, neexistuje žádná záruka, kde tato data skončí,“ říká Žilvinas Girėnas, vedoucí produktového oddělení ve společnosti nexos.ai, která se zabývá komplexní platformou AI pro podniky.
„Mohou být uložena, použita k trénování modelu někoho jiného, odhalena v protokolech, nebo dokonce prodána třetím stranám. To znamená, že údaje o zákaznících, smlouvy nebo interní dokumenty mohou tiše uniknout mimo společnost, aniž si toho někdo všimne.“
„Jakmile citlivá data vstoupí do nezabezpečeného nástroje AI, ztratíte nad nimi kontrolu. Mohou být uložena, znovu použita nebo odhalena způsoby, o kterých se nikdy nedozvíte. Proto společnosti potřebují bezpečné, schválené nástroje, aby byly důležité informace chráněné a sledovatelné.“
Nepěkný příklad nastavují vedoucí
Na 93 % vedoucích pracovníků a vyšších manažerů přiznalo, že v práci používají neschválené nástroje AI. Manažeři, vedoucí týmů a supervizoři také překvapivě často používali neschválené nástroje AI. To vytváří zajímavý paradox – ti, kteří by měli jít příkladem a upřednostňovat bezpečnost společnosti, se zdají být nejméně zodpovědní, pokud jde o používání AI v práci.
Jak již víme, většina zaměstnanců, kteří používají AI nástroje neschválené svými zaměstnavateli, má souhlas svých přímých nadřízených. To opět ukazuje, jak důležité je vzdělávat všechny pracovníky o rizicích AI nástrojů, zejména ty, kteří řídí týmy.
Téměř všichni respondenti průzkumu chápou rizika spojená s nástroji AI. Nejčastějším nebezpečím, na které zaměstnanci poukazovali, bylo porušení ochrany dat. To činí výsledky studie ještě alarmujícími – znamená to, že zaměstnanci používají neschválené nástroje AI v práci a sdílejí s nimi citlivé informace, i když vědí, že to může vést k porušení bezpečnosti dat.
Celkem 57 % těch, kteří používají neschválené nástroje AI v práci, tvrdí, že by je přestali používat v případě porušení bezpečnosti dat.
„I když si jsou zaměstnanci rizik nezodpovědného používání AI vědomi, stále potřebují více znalostí. Byla by škoda, kdyby jediným skutečným způsobem, jak zabránit zaměstnancům v používání neschválených nástrojů AI v práci, bylo skutečné porušení bezpečnosti dat. Pro mnoho společností může být i jediné porušení bezpečnosti dat nemožné napravit. Proto musejí společnosti vytvořit bezpečnostní kulturu, v níž jsou poskytována schválená, uživatelsky přívětivá řešení a jasně prosazovány zásady,“ říká Mantas Sabeckis, bezpečnostní výzkumník ve společnosti Cybernews.
Navzdory hrozbám spojeným s nástroji AI a jejich širokým používáním mezi zaměstnanci nemá téměř čtvrtina společností žádné oficiální zásady týkající se používání osobních nástrojů AI v práci.
„Stínová AI vzkvétá v tichosti,“ dodává Girėnas. „Když manažeři zavírají oči a neexistují jasné zásady, zaměstnanci předpokládají, že je v pořádku používat jakýkoli nástroj, který jim pomůže splnit úkol. Tak se citlivá data dostávají na místa, kde by nikdy neměla být. Používání AI na pracovišti by nikdy nemělo být v šedé zóně a vedoucí pracovníci musejí stanovit jasná pravidla a poskytnout zaměstnancům bezpečné možnosti, než se zkratky promění v porušení pravidel.“
Jde to přitom oficiálně
Pouze třetina zaměstnanců, kteří používají nástroje schválené jejich společnostmi, uvádí, že tyto nástroje splňují jejich potřeby. To může být důvod, proč tolik pracovníků sahá po neschválených nástrojích – jejich zaměstnavatelé jim prostě neposkytují nástroje potřebné k maximálně efektivnímu plnění jejich úkolů.
„Je načase, aby společnosti přestaly předstírat, že mohou držet krok s trhem bez použití nástrojů AI. Ty časy jsou pryč. Pokud vaše společnost nepoužívá AI, už teď zaostává za konkurencí. To samozřejmě neznamená, že by zaměstnavatelé měli slepě schvalovat všechny nástroje v zájmu efektivity. Znamená to však, že společnosti by měly hledat způsoby, jak bezpečně, efektivně a zodpovědně začlenit AI do svých procesů,“ říká Mantas Sabeckis, bezpečnostní výzkumník ve společnosti Cybernews.
Boom stínové AI
Stínová AI se rozšiřuje, protože zaměstnanci chtějí svou práci vykonávat rychleji a jejich manažeři s tím tajně souhlasí. Když pracovníci používají neschválené nástroje AI v práci, nikdo neví, kam se tyto informace dostanou. V daném okamžiku to možná nevypadá jako velký problém.
Ale v průběhu času to může znamenat únik firemních dat, údajů o klientech a dalších citlivých informací na veřejnost. Je načase, aby firmy a zaměstnanci otevřeně hovořili o používání AI, stanovili jasná pravidla a převzali kontrolu nad tím, kam jejich data směřují.

CIOtrends si můžete objednat i jako klasický časopis (v tištěné i v digitální podobně) Věnujeme se nejnovějším technologiím a efektivnímu řízení podnikové informatiky. Přinášíme nové ekonomické trendy a analýzy a zejména praktické informace z oblasti podnikového IT se zaměřením na obchodní a podnikatelské přínosy informačních technologií. Nabízíme možná řešení problémů spojených s podnikovým IT v období omezených rozpočtů. Naší cílovou skupinou je vyšší management ze všech odvětví ekonomiky.
Chcete si článek přečíst celý?
Tento článek je součástí exkluzivního obsahu pouze pro odběratele našeho newsletteru.
Přihlaste se k odběru newsletteru a my vám do mailu pošleme odkaz na celý článek.