;

Směřuje regulace AI k transparentnosti, nebo cenzuře?

Dnes
Doba čtení: 6 minut

Sdílet

Autor: CIO.cz s využitím DALL-E
Regulace AI je důležitá: aby se zabránilo zneužívání této technologie, chránila se lidská práva a podporovala důvěra veřejnosti v její používání. Cílem regulace je zajistit, aby byla umělá inteligence bezpečná, transparentní a nediskriminovala jednotlivce ani skupiny.

AI se od tradičních technologií zásadně liší. Učí se z dat a může se chovat nepředvídatelně. Často funguje jako „černá skříňka“ – uživatel neví, proč systém učinil dané rozhodnutí. Při nesprávném použití může diskriminovat nebo ohrožovat práva občanů.

Představte si například systém umělé inteligence, který hodnotí životopisy uchazečů o zaměstnání. Pokud je trénován na historických datech, kde byli upřednostňováni muži, může diskriminovat ženy. Podobné riziko existuje u systémů rozpoznávání obličeje, rozhodování o úvěrech a předpovídání kriminality.

Kyberbezpečnost a zákony bez obalu
Kyberbezpečnost a zákony bez obalu
0:00/

Bez jasných pravidel by mohlo docházet k nespravedlivým nebo nebezpečným praktikám. Regulace by proto měla stanovit hranice mezi tím, kde AI pomáhá a kde by mohla způsobit škodu.

Zákon o umělé inteligenci

Evropská unie zatím není průkopníkem ve vývoji AI, ale chce být průkopníkem v legislativě týkající se AI a přijala takzvaný zákon o AI, který je první komplexní normou o umělé inteligenci na světě. Tento zákon stanoví, jak by měly být systémy AI navrhovány, testovány, nasazovány a monitorovány.

Cílem je podporovat inovace a zároveň chránit občany před riziky, která AI může představovat. Jedinečnost tohoto přístupu spočívá v tom, že reguluje nejen společnosti, které AI vyvíjejí, ale také ty, jež ji do EU dovážejí nebo používají. Pro srovnání, USA se v dnešní době opírají o současné zákony na ochranu spotřebitelů a soukromí, i když se stále diskutuje o zvláštní regulaci. Čína naopak reguluje AI především z pohledu státní kontroly a cenzury.

Dodržování pravidel bude monitorovat zvláštní orgán v jednotlivých členských státech a v případě porušení zákona budou ukládány vysoké pokuty. EU také plánuje spolupracovat s dalšími zeměmi na zavedení podobných pravidel mimo své území a zabránit společnostem v „úniku“ do zemí bez regulace.

Kategorie rizik AI

Zákon o AI rozděluje systémy umělé inteligence do čtyř kategorií podle úrovně rizika, které představují. Na základě toho zákon definuje větší nebo menší míru regulace.

Nepřijatelné riziko – systémy AI, které představují jasnou hrozbu pro práva a bezpečnost občanů, jsou zakázány. Patří sem například systémy sociálního hodnocení obyvatelstva na základě chování, socioekonomického statusu, osobních charakteristik a podobně. Příkladem jsou systémy tohoto typu používané v Číně.

Zakázány jsou aplikace AI zaměřené na kognitivní manipulaci chování jednotlivců nebo konkrétních zranitelných skupin, jako jsou podprahová reklama či psychologické triky nebo hry a hračky, které podněcují nebezpečné chování u dětí. Zákon rovněž zakazuje systémy biometrické identifikace v reálném čase na veřejných místech, jako je rozpoznávání obličeje ve veřejných prostorech.  V závažných případech může být povolen omezený počet výjimek. Systémy „následné“ biometrické identifikace na dálku, při nichž se identifikace dělá se značným zpožděním, budou povoleny pro stíhání závažných trestných činů a pouze po schválení soudem.