Ako zabudovať etiku do AI - časť II

Odporúčania založené na výskume na udržanie ľudstva v AI

iStock od Getty Images Kredit: AndreyPopov

Toto je druhá časť dvojdielnej série o tom, ako zabudovať etiku do AI. Časť som sa zamerala na kultiváciu etickej kultúry vo vašej spoločnosti a tíme, ako aj na transparentnosť vo vašej spoločnosti a navonok. V tomto článku sa zameriame na mechanizmy na odstránenie vylúčenia z vašich údajov a algoritmov. Zo všetkých zásahov alebo akcií, ktoré môžeme podniknúť, má pokrok tu najvyššiu mieru zmeny. Stále sa objavujú nové prístupy k identifikácii a riešeniu zaujatosti v údajoch a algoritmoch, čo znamená, že zákazníci sa musia držať krok s touto vznikajúcou technológiou.

Odstrániť vylúčenie

Existuje veľa spôsobov, ako zaujatosť vstúpiť do systému AI. Na ich opravu je potrebné ich najprv rozpoznať.

Pochopte zapojené faktory

Identifikujte faktory, ktoré sú významné vo vašom algoritme (algoritmoch).

Aplikácie digitálneho požičiavania si z mobilného zariadenia vyberajú veľa alternatívnych údajov, ako sú napríklad vzory každodennej polohy, aktivita na sociálnych sieťach, interpunkcia textových správ alebo počet kontaktov, ktoré majú priezvisko, aby schválili alebo odmietli pôžičky alebo účtovali vyššiu úrokovú sadzbu. Napríklad fajčiari a používatelia internetu v noci neskoro splácajú pôžičky. Tieto údaje sa zvyčajne zhromažďujú bez vedomia používateľa, pretože povolenie je pochované v podmienkach služby (TOS).

Inžinieri aj koncoví používatelia sú s „čiernou skrinkou“ nepohodlní. Chcú pochopiť vstupy, ktoré prišli k odporúčaniam. Je však takmer nemožné presne vysvetliť, ako AI prišla s odporúčaním. Vo vyššie uvedenom príklade požičiavania je dôležité pamätať na to, že korelácia sa nerovná príčinným súvislostiam a kriticky premýšľať o súvislostiach, ktoré vznikajú pri prijímaní významných rozhodnutí, napríklad pri schvaľovaní pôžičiek na bývanie.

Aké sú faktory, ktoré pri manipulácii významne menia výsledok odporúčania AI? Pochopením použitých faktorov a ich zapnutím / vypnutím môžu tvorcovia a používatelia vidieť, ako každý faktor ovplyvňuje AI a ktorý vedie k skresleným rozhodnutiam.

Táto príručka Christopha Molnara, ktorá vysvetľuje modely čiernych skriniek, je jedným pokusom o hlbšie vykopanie. Vedci spoločnosti Google demonštrovali ďalšiu metódu v roku 2015. Reverzne navrhli algoritmus rozpoznávania obrázkov založený na hlbokom učení tak, aby namiesto rozpoznávania objektov na fotografiách ich generoval alebo upravoval s cieľom objaviť funkcie, ktoré program používa na rozpoznávanie činky. alebo iný predmet.

Inkluzívny tím spoločnosti Microsoft pre návrh pridal do svojich nástrojov na návrh a spracovanie sadu pokynov na rozpoznanie vylúčenia v AI. Zostávajúce odporúčania v tejto časti sú inšpirované ich stredným príspevkom k týmto piatim typom zaujatosti.

Zabráňte zaujatosti množiny údajov

Identifikujte, kto alebo čo je vo vašom súbore údajov vylúčený alebo nadmerne zastúpený, prečo sú vylúčení a ako ho zmierniť.

Vyhľadajte Google na „3 bielych dospievajúcich“ a potom na „3 čiernych dospievajúcich“ a uvidíte zväčša fotografie fotografií pre biele dospievajúce osoby a zväčša hrnčeky pre čiernych dospievajúcich. Je to dôsledok nedostatku fotografií čiernych tínedžerov v súbore údajov, je však ľahké zistiť, ako by systém AI mohol vyvodiť neobjektívne závery o pravdepodobnosti zatknutia čierneho a bieleho teenagera, ak by bol vyškolený práve v tomto súbore údajov.

Predpojatosť súboru údajov má za následok nadmerné alebo nedostatočné zastúpenie skupiny. Napríklad váš súbor údajov môže byť veľmi vážený smerom k najpokročilejším používateľom, čo predstavuje zvyšok vašej populácie používateľov. Výsledkom by mohlo byť vytvorenie produktu alebo služby, ktorú vaši mocní používatelia milujú, zatiaľ čo ostatným používateľom nikdy nedať príležitosť rásť a prosperovať. Ako to vyzerá a ako to vyriešite?

  • Čo: Väčšina vašich súborov údajov predstavuje jedna skupina používateľov.
    Ako: Na riešenie nevyvážených tried strojového učenia používajte metódy, ako je učenie citlivé na náklady, zmeny v metódach vzorkovania a zisťovanie anomálií.
  • Čo: Štatistické vzorce, ktoré sa vzťahujú na väčšinu, môžu byť v rámci menšinovej skupiny neplatné.
    Ako: Vytvorte rôzne algoritmy pre rôzne skupiny a nie pre jednu veľkosť.
  • Čo: Kategórie alebo štítky príliš zjednodušujú údajové body a pre určité percento údajov môžu byť zlé.
    Ako: Vyhodnoťte pomocou kontrafaktuálnej spravodlivosti špecifickej pre danú cestu. Toto je forma rozhodovania pre stroje, pri ktorých je rozsudok o niekom považovaný za spravodlivý, ak by sa urobil ten istý rozsudok, keby bola daná osoba v inej demografickej skupine pozdĺž nespravodlivých ciest (napr. Ak bola žena mužom, alebo biely muž boli čierni), ako vysvetlil Parmy Olson.
  • Čo: Zistite, kto je vylúčený a aký bude mať dopad na vašich používateľov, ako aj na spodný riadok. Kontext a kultúra sú dôležité, ale môže byť nemožné ich „vidieť“ v údajoch.
    Ako: Identifikujte neznáme neznáme, ako navrhujú vedci zo spoločností Stanford a Microsoft Research.

Zabráňte predpojatosti

Zistite, či vaše údaje o tréningu alebo štítky predstavujú stereotypy (napr. Pohlavie, etnický pôvod) a upravte ich, aby sa predišlo ich zväčšeniu.

V súbore údajov o fotografiách, ktorý sa používa na školenie AI systémov na rozpoznávanie snímok, vedci zistili, že súbor údajov mal viac žien ako mužov na fotografiách spojených s varením, nakupovaním a umývaním, zatiaľ čo fotografie obsahujúce šoférovanie, fotografovanie a koučovanie mali viac mužov ako žien.

Asociačná predpojatosť je, keď údaje použité na trénovanie modelu zachovávajú a zväčšujú stereotyp, ktorý sa neobmedzuje iba na obrázky. Napríklad v rodovo neutrálnych jazykoch, ako je turečtina, Google Translate ukazuje rodovú zaujatosť spojením slov „he“ so slovami „hardworking“, „doctor“ a „president“ a „ona“ so slovami „lenzy“, „nurse“, “A„ opatrovateľka “. Podobné chyby sa našli aj pri vyhľadávaní v službe Google News.

Bohužiaľ, aplikácie strojového učenia využívajúce tieto skreslené súbory údajov tieto skreslenia zosilnia. V príklade fotografií mal súbor údajov o fotografiu o varení o 33% viac žien ako mužov, ale algoritmus tento skreslenie zosilnil na 68%! Je to výsledok použitia diskriminačných modelov (na rozdiel od generatívnych modelov), ktoré zvyšujú presnosť algoritmov zosilňovaním zovšeobecnení (zaujatosti) v údajoch. Laura Douglas tento proces krásne vysvetľuje, ak sa chcete dozvedieť viac.

Výsledok zosilnenia zaujatosti znamená, že jednoducho ponechanie dátových súborov tak, ako je, pretože predstavuje „realitu“ (napr. 91% sestier v USA sú ženy), nie je správny prístup, pretože AI skresľuje už nevyváženú perspektívu. Preto je pre ľudí ťažšie uvedomiť si, že v súčasnosti existuje mnoho mužských sestier a majú tendenciu zarábať vyššie platy ako napríklad ženy.

Vedci našli spôsoby, ako napraviť nespravodlivé skreslenie pri zachovaní presnosti znížením zosilnenia rodového skreslenia pomocou obmedzení na úrovni tela a vkladaním slov do debiasingu. Ak sa váš systém AI naučí v priebehu času, je potrebné pravidelne kontrolovať výsledky vášho systému, aby ste sa uistili, že predpojatosť sa znova nevkradla do vášho súboru údajov. Riešenie zaujatosti nie je jednorazová oprava; Vyžaduje si to neustálu ostražitosť.

Výsledok zosilnenia zaujatosti znamená, že jednoducho ponechanie dátových súborov tak, ako je, pretože predstavuje „realitu“ ... nie je správny prístup, pretože AI skresľuje už nevyváženú perspektívu.

Zabráňte potvrdeniu zaujatosti

Zistite, či zaujatosť v systéme vytvára samoplniace proroctvo a bráni slobode voľby.

Systém Compas AI používaný niektorými súdnymi systémami na predpovedanie rizika recidívy odsúdeného páchateľa trestného činu preukázal systematický základ proti ľuďom vo farbe, čo malo za následok odmietnutie podmienečného prepustenia alebo dlhšie tresty odňatia slobody.

Potvrdenie potvrdenia posilňuje predsudky o skupine alebo jednotlivcovi. Výsledkom je ozvena, ktorá predstavuje informácie alebo možnosti podobné tým, ktoré si jednotlivec vybral alebo pre nich predtým. Vo vyššie uvedenom príklade článok spoločnosti ProPublica preukázal, že algoritmus používaný spoločnosťou Compas AI s väčšou pravdepodobnosťou nesprávne klasifikoval čiernych obžalovaných ako osoby s vysokým rizikom recidívy a s väčšou pravdepodobnosťou nesprávne klasifikoval bielych obžalovaných ako nízke riziko. Ďalšia štúdia ukázala, že netrénovaní pracovníci spoločnosti Amazon Mechanical Turk používajúci iba šesť faktorov na predpovedanie recidívy boli rovnako presní ako Compas používajúci 157 faktorov (presnosť 67% oproti 65%).

Aj keď rasa nebola jedným z použitých faktorov, obidve s väčšou pravdepodobnosťou nepresne predpovedali, že čierni obžalovaní budú znova páchať a bieli obžalovaní nie. Dôvodom je skutočnosť, že určité dátové body (napr. Čas vo väzení) sú zástupcom pretekov, ktoré vytvárajú únikové slučky spätnej väzby, ktoré neúmerne ovplyvňujú tie, ktoré sú už sociálne znevýhodnené.

Systém Compas je len jedným z príkladov, ale časť populácie čelí podobným predsudkom z mnohých tu diskutovaných systémov vrátane prediktívnej polície, požičiavania aplikácií, služieb pri jazde na koni a asistentov umelej inteligencie. Dá sa len predstaviť, aké by to bolo ohromné ​​čeliť predsudkom a vylúčeniu na viacerých frontoch každý deň. Rovnako ako v prípade iných typov predpojatosti musíte svoje výsledky otestovať, aby ste zistili, ako k predsudkom dochádza, identifikovať faktory ovplyvnenia a potom ich odstrániť, aby ste prerušili tieto spätné väzby.

Zabráňte zaujatiu automatizácie

Zistite, kedy vaše hodnoty prepíšu hodnoty používateľa, a poskytnite používateľom spôsoby, ako ich vrátiť späť.

Očakávalo sa, že súťaž krásy AI bude nestranná pri hodnotení krásy, ale takmer všetci víťazi boli bieli.

Automatizácia ovplyvňuje väčšinové hodnoty menšiny, ktorá poškodzuje rozmanitosť a slobodu voľby. Hodnoty tvorcov systému AI sa potom spáchajú. Vo vyššie uvedenom príklade súťaž krásy AI označila predovšetkým biele tváre ako najkrajšie na základe údajov o školeniach. Európske štandardy krásy trápia kvalitu fotografií neeurópanov dnes, čo vedie k tomu, že fotografie ľudí s tmavými kožami vychádzajú podexponované a systémy AI majú problémy s ich rozpoznaním. Výsledkom je urážka menoviek (napr. „Gorilí incident“ v službe Fotografie Google) a upozornenie (napr. „Inteligentné“ fotoaparáty, ktoré sa pýtajú Aziatov, či blikali). Horšie je, že systémy rozpoznávania tváre polície neúmerne postihujú Afroameričanov.

Ak chcete začať riešiť túto zaujatosť, musíte začať skúmaním výsledkov na základe zaujatosti založenej na hodnotách (napr. V údajoch o školení chýba rozmanitosť, ktorá by reprezentovala všetkých používateľov alebo širšiu populáciu, subjektívne štítky predstavujú hodnoty tvorcov).

V predchádzajúcom príklade poskytovania aplikácií na prijímanie rozhodnutí na základe toho, či je niekto fajčiar, je potrebné položiť si otázku, či to predstavuje hodnoty tvorcov alebo väčšiny obyvateľstva (napr. Fajčenie je zlé, preto sú fajčiari zlí). Vráťte sa do analýzy sociálnych systémov a získajte spätnú väzbu od svojich používateľov, aby ste zistili, či sú ich hodnoty alebo kultúrne dôvody prepísané. Urobili by vaši používatelia rovnaké hodnotenia alebo odporúčania ako AI? Ak nie, upravte školiace údaje, štítky a algoritmy tak, aby reprezentovali rozmanitosť hodnôt.

Zmierniť skreslenie interakcie

Pochopte, ako sa váš systém poučil z interakcií v reálnom čase a zaviedli kontroly na zmiernenie škodlivého úmyslu.

Inspirobot používa AI a obsah, ktorý zoškrabáva z webu, aby vytvoril „inšpiratívne“ citácie, ale výsledky siahajú od zábavne nepárnych až po kruté a nihilistické.

Interakčné skreslenie nastáva, keď ľudia interagujú alebo sa úmyselne snažia ovplyvniť systémy AI a dosiahnuť skreslené výsledky. Tvorca Inspirobotu uvádza, že citácie robota sú odrazom toho, čo na webe nájdete, a jeho pokusy zmierniť nihilistické tendencie robota ich len zhoršili.

Možno nebudete mať možnosť vyhnúť sa ľuďom, ktorí sa snažia úmyselne poškodiť váš systém AI, ale vždy by ste mali vykonávať „pre-mortem“, aby ste identifikovali spôsoby, ako by mohol byť váš systém AI zneužitý a spôsobiť škodu. Po zistení možného zneužitia by ste mali zaviesť kontroly, aby ste tomu zabránili a podľa možnosti ich opravili. Pravidelne kontrolujte údaje, ktoré používa váš systém, aby ste sa naučili a vyradili skreslené dátové body.

Možno nebudete mať možnosť vyhnúť sa ľuďom, ktorí sa snažia úmyselne poškodiť váš systém AI, ale vždy by ste mali vykonávať „pre-mortem“, aby ste identifikovali spôsoby, ako by mohol byť váš systém AI zneužitý a spôsobiť škodu.

Kam ďalej?

Predpojatosť v AI je odrazom zaujatosti v našej širšej spoločnosti. Začlenenie etiky do AI rieši príznaky oveľa väčšieho problému. Musíme sa ako spoločnosť rozhodnúť, že si ceníme rovnosť a spravodlivosť pre všetkých a potom sa to stane skutočným životom, nielen v našich systémoch AI. AI má potenciál byť Veľkým demokratom alebo zväčšiť sociálnu nespravodlivosť a je len na vás, na ktorej strane tohto spektra chcete, aby boli vaše produkty.

Ďakujem Justin Tauber, Liz Balsam, Molly Mahar, Ayori Selassie a Raymon Sutedjo-The za vašu spätnú väzbu!

Sledujte nás na adrese @SalesforceUX.

Chcete s nami pracovať? Kontaktujte uxcareers@salesforce.com