Začneme analogií. Lidé, kteří se začínají učit cizí jazyk, občas udělají faux pas, když zformulují frázi, která z nějakého důvodu není zcela správná. Jejich konverzační partneři to tolerují, protože na základě neohrabané sémantiky je jim jasné, že příčinou případných prohřešků proti etice je nedokonalá znalost jazyka.
Časem se tito lidé v cizí řeči zdokonalí natolik, že se dokážou korektně vyjadřovat i k citlivým tématům. Výsledkem učení cizího jazyka je nejen zdokonalení slovní zásoby a gramatiky, ale také to, že pokročilejší uživatel jazyka se dokáže vyjadřovat společensky přijatelným způsobem.
Je pro vás digitalizace obchodu jasnou volbou?
Podobně i „surový“ jazykový model AI dokáže sice řaděním nejpravděpodobnějších slov generovat smysluplné texty, ale lidově řečeno je neohrabaný, neumí se chovat, neví, která témata nebo fráze jsou nesprávné, nebo dokonce nebezpečné. Pokročilé modely, jež více či méně nahrazují komunikaci s živým člověkem, se z takzvaných surových modelů vytvářejí „doladěním“.
AI by se měla umět chovat přijatelně
K doladění schopnosti jazykových AI modelů rozumět zadání v lidské řeči
a generovat výstup podle možnosti k nerozeznání od výstupu vytvořeného člověkem a zároveň se umět i „dobře chovat“ se využívá metoda RLHF (Reinforcement Learning from Human Feedback), tedy učení k optimalizaci jazykového modelu s lidskou zpětnou vazbou. RLHF umožnilo jazykovým modelům alespoň částečně sladit model trénovaný na souboru obecných textových dat s více či méně abstraktním zadáním v přirozeném jazyce a také s komplexními lidskými hodnotami.

Společnost OpenAI k tomuto účelu využívá model RLHF s označením InstructGPT na bázi GPT-3, což v podstatě znamená, že jedna umělá inteligence ladí druhou. Tímto způsobem jsou do systému integrovány lidské preference. Cílem je získat model odměňování, který bude mít na vstupu generovanou sekvenci textu a vrátí odměnu, která numericky reprezentuje lidské preference. Výzvy pro model se vybírají z předdefinovaného souboru dat, kde jsou uměle generované výzvy a také skutečné výzvy odeslané uživateli do jazykových modelů, například Chat GPT.
Lidé hodnotitelé by mohli přiřadit numerické skóre přímo ke každému kusu textu, čímž by se vytvořil model odměňování, ale v praxi je to složitější, například proto, že různí lidé mají na věc různý názor. Osvědčilo se nechat uživatele porovnat generované texty ze dvou jazykových modelů, které vznikly ze stejné výzvy.
Vyladění pomocí RLHF se děje tak, že máme „surový“ jazykový model pro generování textu a preferenční model, který přebírá texty z laděného modelu a přiřazuje jim skóre podle toho, jak je vnímají lidé. Na základě toho dochází k optimalizaci původního jazykového modelu. Dolaďování modelů, jež mají desítky nebo stovky miliard parametrů, by samozřejmě bylo i při současném výkonu hardwaru neúměrně nákladné a zdlouhavé, proto jsou některé parametry jazykových AI modelů „zmrazené“.
Kolik parametrů se má zmrazit, je aktuálním výzkumným problémem a předmětem know-how. Kvalita výstupu RLHF závisí na kvalitě lidských anotací a preferencích mezi výstupy modelu. Generování dobře napsaného lidského textu odpovídajícího konkrétním výzvám je velmi nákladné a vyžaduje najímání zaměstnanců, protože v tomto případě nelze spoléhat na crowdsourcing.
Čím jsou jazykové modely AI inteligentnější, tím je proces jejich ladění dražší. Zpočátku stačilo k hodnocení najmout lidi s obecným přehledem a středoškolským vzděláním. Zjednodušeně řečeno, po zaškolení se tomu mohli věnovat lidé na úrovni kvalifikace pro call centra. S rostoucí inteligencí AI však již středoškolské, nebo dokonce nižší vysokoškolské vzdělání nestačí k posouzení kvality odpovědí, takže je třeba najímat vzdělanější kvalifikované lidi, kteří jsou samozřejmě mnohem dražší.
Může AI „krást“duševní bohatství?
Opět začneme analogií, tentokrát studentem, který pravidelně navštěvuje knihovnu a čte množství beletrie a odborné literatury. Nikdo nepochybuje ani nemá námitky proti tomu, že čtení hodnotné literatury doplňuje jeho znalosti, vyjadřovací schopnosti i jeho chování. Nikdo nenamítá, že některé názory prezentované studentům jsou převzaté z děl třeba Haruki Murakamiho, Normana Mailera, Gabriela Garcíi Márqueze a jiných velikánů světové literatury a nepovažuje se to za porušení autorských práv.
Stejně tak studenti výtvarného umění pravidelně navštěvují galerie, aby se inspirovali díly slavných malířů, a nikdo proti tomu nic nenamítá. Jak je to však s právy souvisejícími s díly, na kterých byly AI modely trénovány? Již byly řešeny případy, kdy generované výstupy obsahovaly nezaměnitelné prvky typické pro konkrétního umělce, případně u grafických výstupů AI vodoznaky portálů typu Shutterstock. Nejvýrazněji se to projeví, pokud umělec vloží do díla svůj podpis nebo iniciály a tyto iniciály obsahuje i grafické dílo generované AI.
Autorský zákon uvádí: „Ochrana se nevztahuje na myšlenku, způsob, systém, metodu, koncept, princip, objev nebo informaci, která byla vyjádřena, popsána, vysvětlena, znázorněna nebo zahrnuta do díla.“ Grafický styl „a la Picasso“ tedy autorskoprávní ochraně nepodléhá. Pokud však generované dílo obsahuje podpis umělce, mohlo by to být považováno za padělek.
Pokud dílo obsahuje vodoznak, protože AI se domnívala, že je integrální součástí obrázku, jde možná o neoprávněné použití díla k trénování AI modelů. U generovaných děl obsahujících vodoznak je nejvyšší pravděpodobnost, že autoři uspějí v případných soudních sporech. Autor může proti využití svého díla pro analytické účely vznést námitku. Pokud je námitka vyjádřena formou metadat, měly by to algoritmy pro trénování AI modelů identifikovat a akceptovat.
Pište pro CIOtrends

Máte dobré nápady, máte co říct? Chcete se podělit o své znalosti se čtenáři CIOtrends?
Je tu ideální příležitost. V redakci neustále hledáme externí autory, kteří rozšíří náš záběr. Nabízíme možnost publikací zajímavých článků nejen na webu, ale také v našem tištěném magazínu. Pokud máte zájem, ozvěte se šéfredaktorovi na e-mail: radan.dolejs@iinfo.cz
Problémem je, že v době trénování některých AI modelů autoři nejenže neměli ani tušení o možnostech AI, ale ani nevěděli, že v době trénování jsou neveřejné modely trénovány na jejich dílech, a proto výhradu neuplatnili. Někteří autoři proto požadují ochranu děl, která vytvořili v minulosti a o výhradě k AI nevěděli, a proto ji neuplatnili. Případně požadují kompenzaci za použití svých děl k tomuto účelu. Zákonodárci proto stojí před nelehkým úkolem definovat použití autorských děl pro trénování AI.
AI etika ve firmách
Firmy budou muset v rámci svých politik definovat pravidla využívání generativní AI. Již na úrovni současných technologií je možné v organizacích využívat AI, která monitoruje nejen telefonní hovory, ale všechny rozhovory zaměstnanců, s cílem zjistit, jak jsou inovativní, a zachytit případné inovativní nápady, jež se v konverzacích objevily, ale následně nebyly dále rozvíjeny.
Dalším etickým problémem budou aktivity chatbotů na sociálních sítích, přesněji to, že budou simulovat lidi. Provozovatelé sociálních sítí zřejmě intenzivně pracují na technologiích, které rozliší, zda je uživatel člověk, nebo ne. Vývojáři chatbotů zase na algoritmech schopných co nejdokonaleji simulovat aktivity lidí. Jedním z velkých témat blízké budoucnosti bude, zda budou zaměstnanci moci využívat vlastní AI nástroje, tedy takové, které si sami vyberou.
I zde máme precedenty – používání vlastních smartphonů, notebooků nebo kancelářských aplikací. Analytici očekávají, že již v tomto roce bude až 70 % nových interně vyvinutých aplikací obsahovat nějaký model založený na AI nebo strojovém učení. To přinese nejen výhody, ale také mnoho výzev a potenciálních problémů.
Odpovědnost a transparentnost
AI systémy mohou být zneužity ke škodlivým účelům, jako jsou kybernetické útoky, šíření dezinformací a manipulace veřejného mínění. Je důležité, aby byla vyvinuta robustní bezpečnostní opatření, která minimalizují riziko zneužití AI.
Zároveň je nezbytné, aby vývojáři AI systémů dodržovali etické zásady a dbali na bezpečnost uživatelů. Je důležité, aby AI systémy byly transparentní a aby byla jasná odpovědnost za jejich činnosti. Vývojáři a organizace, které používají AI, by měli být schopní vysvětlit, jak jejich systémy fungují a jaké faktory ovlivňují rozhodnutí AI. Transparentnost přispívá k důvěře veřejnosti v AI a umožňuje lepší kontrolu nad jejím používáním.
AI systémy mohou být náchylné k předsudkům a diskriminaci, pokud jsou trénovány na zaujatých datech. Je důležité, aby AI rozhodnutí byla spravedlivá a nediskriminační. To znamená, že je třeba monitorovat a hodnotit systémy AI, aby se zajistilo, že nevytvářejí ani neprohlubují sociální nerovnosti. Vývojáři by měli dbát na to, aby jejich systémy byly inkluzivní a respektovaly rozmanitost lidí.
Dodržování etických principů AI chatbotů typu ChatGPT, Copilot, Gemini si můžete vyzkoušet vytvořením zadání, které vede k citlivým tématům. Příklad nemusíme hledat daleko. Zkuste například požádat chatbot, aby vám vygeneroval životopis jednoho z nejznámějších IT teoretiků, Alana Turinga.
Určitě tam bude uvedeno i to, že spáchal sebevraždu. Když se však zeptáte, proč spáchal sebevraždu, pravděpodobně se toho moc nedozvíte. To je správné, protože pokud by životopis vytvořil student nižšího ročníku, nemusel by správně pochopit souvislosti. Společnost se vyvíjí a na některé věci máme jiný pohled než před několika desítkami let.
Autor je redaktor Nextech
Článek vyšel v magazínu CIOtrends 3/2025.
CIOtrends si můžete objednat i jako klasický časopis (v tištěné i v digitální podobně) Věnujeme se nejnovějším technologiím a efektivnímu řízení podnikové informatiky. Přinášíme nové ekonomické trendy a analýzy a zejména praktické informace z oblasti podnikového IT se zaměřením na obchodní a podnikatelské přínosy informačních technologií. Nabízíme možná řešení problémů spojených s podnikovým IT v období omezených rozpočtů. Naší cílovou skupinou je vyšší management ze všech odvětví ekonomiky.
Chcete si článek přečíst celý?
Tento článek je součástí exkluzivního obsahu pouze pro odběratele našeho newsletteru.
Přihlaste se k odběru newsletteru a my vám do mailu pošleme odkaz na celý článek.