Umělá inteligence se dere kupředu a překonává další a další milníky. Zákony robotiky od Isaaca Asimova, v nichž tento americký spisovatel ruského původu definoval pravidla, podle kterých je pro zajištění bezpečnosti člověka nutné roboty vyvíjet, jsou však staré již 76 let. Otázka zní: obstály zkoušku času a jsou dostačující i pro dnešní svět?
Odpovědět si můžeme rovnou: ano, ale nikoli samy o sobě. Základní trojice pravidel je sice na čtyřicátá léta 20. století pozoruhodně vizionářská, ovšem vývoj umělé inteligence přeci jen poskočil trochu jiným směrem, než mohl Isaac Asimov vůbec snít.
Jaké jsou tři zákony robotiky?
- Robot nesmí ublížit člověku nebo svou skrze nečinnost dovolit člověku přijít k újmě.
- Robot musí poslouchat příkazy člověka kromě těch, které by byly v rozporu s prvním zákonem.
- Robot musí chránit svou existenci, pokud ta není v rozporu s prvním nebo druhým zákonem.
Regulace robotiky a umělé inteligence jsou nyní žhavým tématem – ostatně jako u každé rozvíjející se technologie.
Zákony robotiky Isaaca Asimova stále platí, ale doplňují je etické standardy
Nová studie se této problematice věnuje a definuje pět pravidel, kterými by se měl vývoj umělé inteligence řídit; ty by měly dnešní době Googlu, sociálních sítí a pokročilých algoritmů sedět více, než zákony robotiky Isaaca Asimova.
- Zodpovědnost: konkrétní osoba musí být zodpovědná za chování autonomního systému a to kvůli právním záležitostem, ale též pro poskytnutí zpětné vazby, sledování výsledků a implementaci změn.
- Porozumění: musí umět lidem, kterých se dotýká – často laikům – vysvětlit, proč se systém chová tak, jak se chová.
- Přesnost: zdroje chyb je nutné identifikovat, monitorovat, vyhodnocovat a následně je odstranit nebo proti nim systém ochránit.
- Transparentnost: Musí být možné veřejně či soukromě otestovat, ohodnotit, kritizovat a zpochybňovat výsledky předložené autonomním systémem. Výsledky kontrol a hodnocení by měly být dostupné veřejnosti.
- Spravedlivost: Způsob, jakým jsou data využívána, by měl respektovat soukromí a rovněž by měl fungovat v rámci rozumných mezí. To umožní odstranit předpojatost a zabrání zakořenění problematického chování.
Na první pohled se zdá, že Cambridgeská studie popisuje něco o hodně jiného, než co měl na mysli Asimov. A ono to tak také je. Nicméně představy o umělé inteligenci a robotice se od té doby posunuly, a tak je nutné přizpůsobit i etická pravidla, v jejichž normách by se měly inovace vyvíjet.
To však neznamená, že by původní zákony robotiky byly neplatné. Ty, doufejme, zůstanou v platnosti ještě dlouho. Jednoduchý příklad: že by vás Face ID Applu zavraždilo je poměrně dost nepravděpodobné. Ovšem to, že by jej neeticky smýšlející programátor mohl využít k narušení vašeho soukromí, už je výrazně pravděpodobně.
Nutno poznamenat, mluvíme spíše o strojovém učení jako takovém než o umělé inteligenci, která jej zaštituje. Právě strojové učení je však v současnosti zřejmě nejviditelnější oblastí pokroku umělé inteligence.
Zdroj: TNW