Obsah generovaný umělou inteligencí zahrnuje obrázky, zvuky a videa vytvořené nebo upravené pomocí vyškolených neuronových sítí. Může zobrazovat skutečné osoby, místa a události buď realisticky, nebo v uměleckém stylu, jako je animace nebo kreslený film. Tvůrci dezinformací, tzv. deepfakes, vytvářejí realistická videa známých osobností, jejichž vzhled, hlas nebo řeč je pozměněna umělou inteligencí.
Mohou také tvořit scény nebo události, které byly pozměněny umělou inteligencí. Spotřebitelé obsahu na internetu mají právo vědět, zda obsah, se kterým přicházejí do styku, vytvořil člověk, nebo umělá inteligence. Označování obsahu nám umožňuje lépe rozlišit pravdivé informace od potenciálně zavádějících. Transparentnost pomáhá budovat důvěru a umožňuje lépe porozumět zdrojům informací.
Máme nové jméno
Populární ekonomicko-technický magazín CIO Business World od letošního roku změnil název na CIOtrends.
Identifikace obsahu vytvořeného umělou inteligencí je technicky i kapacitně náročná a zatím hovoříme pouze o identifikaci původu, nikoliv o tom, zda je informace pravdivá. Automatické označování obsahu vytvořeného umělou inteligencí vyžaduje sofistikované algoritmy, které dokážou přesně určit, zda byl obsah vytvořen umělou inteligencí. Identifikace může být obzvláště obtížná u hybridního obsahu, který kombinuje tvorbu člověka a umělé inteligence.
Chybějí také jednotná pravidla a standardy pro označování obsahu vytvořeného umělou inteligencí. To vede k nejednotným přístupům napříč platformami a zeměmi, což může způsobit zmatek mezi uživateli. Vytvoření legislativního rámce, který by byl akceptován širokou veřejností a podnikatelským sektorem, je velmi složité. I v případě zavedení pravidel a mechanismů označování existuje riziko, že některé subjekty budou aktivně hledat způsoby, jak tyto systémy obejít.
Provozovatelé sociálních sítí se začali zabývat označováním obsahu, tj. obrázků, zvuků a videí vytvořených nebo zmanipulovaných umělou inteligencí, protože to může ovlivnit jejich obchodní modely nebo konkurenceschopnost. Cílem této iniciativy je zabránit šíření zavádějících informací na sociálních platformách. Uživatelé platforem tak budou vědět, zda je prezentovaný obsah skutečný a nezměněný, nebo byl z různých důvodů přetvořen či upraven technologií umělé inteligence.
Není snadné najít řešení dilematu mezi svobodou projevu a ochranou uživatelů před zmanipulovanými informacemi, tzv. deepfakes. Svoboda projevu v tom smyslu, že by nebylo správné blokovat nebo odstraňovat multimédia, která byla vytvořena nebo upravena umělou inteligencí a neporušují pravidla sociálních sítí.
Chcete dostávat do mailu týdenní přehled článků z CIOtrends? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.
Globální technologické společnosti Meta, Google a OpenAI se dohodly na společném postupu pro označování obsahu vytvořeného nebo pozměněného umělou inteligencí. Společnost Meta, která provozuje platformy Facebook, Instagram a Threads, bude takový obsah označovat „Made with AI“. Vzhledem k tomu, že na sociálních sítích již existuje velké množství obsahu vytvořeného umělou inteligencí, ať už jde o ilustrační obrázky nebo deepfakes, bude mít zavedení nových pravidel dvě paralelní fáze.
V květnu 2024 vstoupilo v platnost označování obsahu vytvořeného umělou inteligencí a zároveň bylo zahájeno odstraňování zmanipulovaného obsahu, který porušuje pravidla příslušných sociálních sítí. Pokud obsah generovaný umělou inteligencí tato pravidla neporušuje, může na sociální síti zůstat.
Platforma YouTube má také nový nástroj pro označování videí vytvořených umělou inteligencí, podle kterého musejí tvůrci videí při publikování označit upravený nebo syntetický obsah, který vypadá jako skutečný obsah. Například realisticky vypadající projev slavné osoby, jenž však nikdy nepronesla, nebo realisticky vypadající scénu, která se nikdy nestala. V pravidlech používání je uveden příklad videa, které ukazuje falešné tornádo mířící na skutečné město. Každá sociální platforma má své vlastní nástroje umělé inteligence, takže pokud vytvoříte video pro YouTube pomocí nástrojů Dream Track nebo Dream Screen, není třeba ho označovat jako vytvořené umělou inteligencí.
Syntetický obsah, který na první pohled vypadá nereálně, například příběhy animovaných postav a podobně, není třeba označovat, tam každý okamžitě pochopí, že jde o fikci, jež nemá ambice předstírat, že je skutečnou scénou. „Memy“ tohoto typu vznikají již mnoho let a nikoho, snad kromě parodovaných politiků či jiných známých osobností, nepohoršují.
Byly to jen statické obrázky, protože amatérští filmaři tehdy neměli technické možnosti pro tvorbu videa. Není také třeba označovat videa, v nichž byly použity zkrášlovací filtry nebo efekty pro vylepšení zvuku nebo syntetické generování či vylepšení pozadí pro simulaci jedoucího auta.
Deepfake fota a ty další
Problematika označování obsahu generovaného umělou inteligencí se samozřejmě neomezuje pouze na dezinformační deepfake fotografie a videa. Problémem může být i porušování autorských práv, někdy v hanlivém smyslu. Možná jste viděli deepfake videa, ve kterých slavný diktátor, ať už současný nebo z nedávné historie, zpíval píseň známého umělce nebo skupiny.

V takovém případě záleží na tom, jak se k tomu dotyčný umělec nebo hudební vydavatelství postaví. Pokud se jim video nelíbí nebo ho považují za znevažující, požádají provozovatele příslušné platformy o jeho odstranění. Mnohá taková videa, na nichž severokorejská dívčí skupina nebo armádní sbor zpívají písně známých skupin a místní diktátor jim nadšeně tleská, jsou považována za zábavná a nesnižují prestiž písně ani jejích původních interpretů, takže není důvod proti nim jakkoli protestovat
Další problém vyplývá z dostupnosti nástrojů pro vytváření deepfake videí. Jsou dostupné komukoli za pár eur měsíčně a mají intuitivní uživatelské rozhraní a dobře zpracované výukové programy, takže se je každý může naučit používat během několika hodin. Například k vytvoření deepfake videa osoby, která je nám nesympatická.
Provozovatelé sociálních platforem se tedy samozřejmě zabývají i deepfake videi běžných lidí. Odstranění takového videa však již není tak triviální, je třeba vyplnit formulář na stránce platformy a čekat, někdy i poměrně dlouho, na přezkoumání a případné vyřízení žádosti.
Označování obsahu vytvořeného nebo pozměněného umělou inteligencí je velmi důležité, zejména pokud jde o manipulaci a dezinformace. Ještě důležitější je včasné blokování a odstraňování obsahu, který porušuje normy komunity, a to i v případě, že nejde o obsah vytvořený umělou inteligencí.
Typickým příkladem jsou nepravdivé informace o výsledcích voleb v polovině volebního období v době, kdy volby ještě probíhají, nebo zavádějící informace o konfliktech, přírodních katastrofách, epidemiích či mylné finanční informace. Samozřejmě je třeba najít rozumný kompromis. Pokud by byly blokovány všechny potenciálně zavádějící informace, prošlo by takovou obrazovkou jen málo reklam.
Autor je redaktor Nextech
Článek vyšel v magazínu CIOtrends 1/2025.
CIOtrends si můžete objednat i jako klasický časopis (v tištěné i v digitální podobně) Věnujeme se nejnovějším technologiím a efektivnímu řízení podnikové informatiky. Přinášíme nové ekonomické trendy a analýzy a zejména praktické informace z oblasti podnikového IT se zaměřením na obchodní a podnikatelské přínosy informačních technologií. Nabízíme možná řešení problémů spojených s podnikovým IT v období omezených rozpočtů. Naší cílovou skupinou je vyšší management ze všech odvětví ekonomiky.