Alexandria Ocasio-Cortez říká, že algoritmy mohou být rasistické. Tady je důvod, proč má pravdu.

Pin
Send
Share
Send

Minulý týden se nově zvolená americká reprezidentka Alexandrie Ocasio-Cortez dostala na titulky, když v rámci čtvrté výroční události MLK Now uvedla, že technologie a algoritmy rozpoznávání obličeje „mají vždy přeložené tyto rasové nerovnosti, protože algoritmy jsou stále vytvářeny lidskými bytostmi a tyto algoritmy jsou stále navázány na základní lidské předpoklady. Jsou prostě automatizované. A automatizované předpoklady - pokud neopravíte zkreslení, pak to jen automatizujete. “

Znamená to, že algoritmy, které jsou teoreticky založeny na objektivních pravdách matematiky, mohou být „rasistické“? A pokud ano, co lze udělat pro odstranění tohoto zkreslení?

Ukazuje se, že výstup z algoritmů může skutečně vést k předpojatým výsledkům. Vědci dat říkají, že počítačové programy, neuronové sítě, algoritmy strojového učení a umělá inteligence (AI) fungují, protože se učí, jak se chovat z dat, která jsou jim dána. Software je napsán lidmi, kteří mají zaujatost, a údaje o tréninku generují také lidé, kteří mají zaujatost.

Dvě fáze strojového učení ukazují, jak se toto zkreslení může vplížit do zdánlivě automatizovaného procesu. V první fázi, ve fázi školení, se algoritmus učí na základě souboru údajů nebo na základě určitých pravidel nebo omezení. Druhou fází je inferenční fáze, ve které algoritmus aplikuje to, co se naučil v praxi. Tato druhá fáze odhaluje předpětí algoritmu. Například, pokud je algoritmus vyškolen s obrázky pouze žen, které mají dlouhé vlasy, pak si bude myslet, že někdo s krátkými vlasy je muž.

Google se nechvalně vzpálil v roce 2015, kdy Fotky Google označily černé lidi za gorily, pravděpodobně proto, že to byly jediné bytosti tmavé pleti v tréninkové sadě.

A zkreslení se může vplížit mnoha cestami. „Běžnou chybou je školení algoritmu pro předpovídání na základě minulých rozhodnutí předpojatých lidí,“ řekla Sophie Searcy, vedoucí vědecká pracovnice v oblasti datového vzdělávání, školení Metca, Live Science. "Pokud udělám algoritmus pro automatizaci rozhodnutí, která dříve učinila skupina úvěrových úředníků, mohl bych se vydat na snadnou cestu a vyškolit algoritmus na minulá rozhodnutí těchto úvěrových úředníků. Ale pak, samozřejmě, pokud byli tito úvěrové úředníky zaujatí, pak algoritmus, který buduji, bude v těchto předsudcích pokračovat. “

Searcy citovala příklad COMPAS, prediktivního nástroje používaného napříč americkým systémem trestního soudnictví k odsouzení, který se snaží předvídat, kde k zločinu dojde. ProPublica provedl analýzu COMPAS a zjistil, že po kontrole dalších statistických vysvětlení tento nástroj přeceňoval riziko recidivy černých obžalovaných a důsledně podceňoval riziko bílých obžalovaných.

Abychom pomohli v boji s algoritmickými předpojatostmi, Searcy řekl Live Science, že inženýři a vědci v oblasti dat by měli stavět rozmanitější datové soubory pro nové problémy a také se snažit porozumět a zmírnit předpojatost zabudovanou do stávajících datových sad.

V první řadě by inženýři Ira Cohen, datový vědec v analytické společnosti Anodot, měli mít školicí sadu s relativně jednotným zastoupením všech typů populace, pokud trénují algoritmus pro identifikaci etnických nebo genderových atributů. „Je důležité představit dostatek příkladů z každé skupiny obyvatel, i když jsou v celkovém počtu zkoumaných skupin menšinou,“ řekl Cohen Live Science. Nakonec Cohen doporučuje zkontrolovat zkreslení na testovací sadě, která zahrnuje lidi ze všech těchto skupin. "Pokud je přesnost pro určitou rasu statisticky významně nižší než u jiných kategorií, algoritmus může mít zkreslení a já bych vyhodnotil tréninková data, která byla pro něj použita," řekl Cohen LiveScience. Například, pokud algoritmus dokáže správně identifikovat 900 z 1 000 bílých tváří, ale správně detekuje pouze 600 z 1 000 asijských tváří, může mít algoritmus předpojatost „proti“ Asiatům, dodal Cohen.

Odstranění zkreslení může být pro AI neuvěřitelně náročné.

Dokonce ani Google, považovaný za předchůdce komerční AI, zřejmě nemohl přijít s komplexním řešením svého gorilího problému od roku 2015. Wired zjistil, že namísto nalezení způsobu, jak ve svých algoritmech rozlišit mezi lidmi barvy a gorily, Google jednoduše zablokoval jeho algoritmy rozpoznávání obrazu z identifikace goril vůbec.

Příkladem společnosti Google je dobrá připomínka, že školení softwaru AI může být obtížné cvičení, zejména pokud software není testován ani školen zástupcem a různorodou skupinou lidí.

Pin
Send
Share
Send