Regulace umělé inteligence je velkým tématem napříč celým technologickým světem. Evropská unie bývá v legislativě jednou z rychlejších a pečlivějších organizací (byť o efektivitě lze polemizovat), a není tudíž překvapením, že přináší jeden z prvních návrhů na regulaci vývoje a využití AI v praxi.
Navrhované nařízení by rozdělilo AI software do čtyř kategorií dle bezpečnostních rizik, a na každou kategorii by spadala jiná úroveň regulace. Půjde o kategorie s názvoslovím nepřijatelné riziko, vysoké riziko, omezené riziko a minimální riziko.
Nepřijatelné, vysoce rizikové, rizikové a bezpečné
Na vrcholku by stála kategorie s „nepřijatelným“ rizikem pro lidská práva či bezpečnost lidí. EU by tyto typy algoritmů či jiných AI technologií rovnou zakazovala, kromě používání také jejich vývoj. Půjde třeba o hračky pro děti s hlasovým asistentem, který navádí nezletilé k nebezpečnému chování.
O kategorii níž by stály rizikové algoritmy. Tato sekce je nejrozsáhlejší, zahrnuje celou řadu softwaru a navrhovaných limitů. Komise se zde klaní ke striktnější variantě regulací, která zasáhne jak datasety používané k trénování algoritmů, tak patřičnou úroveň lidského dohledu a sdílení informací s konečnými uživateli a subjekty.
Součástí kategorie jsou především AI systémy určené pro bezpečnostní složky státu a většina forem vzdáleného biometrického ověření identity. Policii by tato kategorie kupříkladu znemožňovala vzdáleně identifikovat občany pomocí kamer s rozpoznáváním obličeje, a to napříč EU. Výjimky v zájmu národní bezpečnosti jsou však něco, co chce Unie do návrhu zapracovat.
Třetí kategorií jsou AI systémy s omezeným rizikem, umístily by se zde kupříkladu chatboti. Návrh nového nařízení počítá například s upozorněním pro lidi, že mluví s robotem, nikoli živou osobou. Regulace zde popsané nejsou výrazněji omezující a řada firem už podobná pravidla má.
Poslední sekcí je umělá inteligence, která není nikterak nebezpečná; podle komise by většina AI systémů spadala právě do této kategorie. Jedná se o inteligentní algoritmy pro věci jako jsou spamové filtry a integrace AI do podnikového softwaru.
„Pokud jde o umělou inteligenci, je důvěra nutností, nikoli jen výhodou. Přijetím těchto přelomových pravidel udává EU směr vývoje nových celosvětových norem, které zajistí umělé inteligenci důvěryhodnost. Stanovením takových norem můžeme připravit půdu pro etickou technologii na celém světě a pomoci EU, aby si zachovala konkurenceschopnost. Naše pravidla, která jsou připravena na budoucí vývoj a vstřícná k inovacím, se použijí tam, kde je to nezbytně nutné: v případech, kdy jde o bezpečnost a základní práva občanů EU,“ uvedla k připravovaným opatřením Margrethe Vestagerová, výkonná místopředsedkyně EK pro Evropu.
Souhrn připravovaných opatření si lze přečíst v češtině přímo na stránkách Evropské komise, odkaz je uveden, jako vždy, ve zdroji.
Zdroj: Evropská komise