Ako zabudovať etiku do AI - časť I

Odporúčania založené na výskume na udržanie ľudstva v AI

„Heart Shaped“ od dimdimich

Toto je časť jednej z dvojdielnej série o tom, ako zabudovať etiku do AI. Prvá časť je zameraná na kultiváciu etickej kultúry vo vašej spoločnosti a tíme, ako aj na transparentnosť vo vašej spoločnosti a navonok. Druhá časť sa zameriava na mechanizmy na odstránenie vylúčenia z vašich údajov a algoritmov. Každé odporúčanie obsahuje príklady etických nesprávnych krokov a spôsobu, ako sa im mohlo zabrániť alebo ich zmierniť.

Zdá sa, že každý deň existujú články o tom, ako systém umelej inteligencie (AI) spôsobil trestný čin (napr. Označenie afrických Američanov ako „goríl“) alebo skutočnú škodu, keď mohol byť tento úmysel dobre zmysluplný (napr. Rasová zaujatosť pri odsúdení v trestnom konaní). odporúčania a úrokové sadzby).

Vývojári v každom z týchto systémov sa rozhodli niekoho uraziť alebo ublížiť a neočakávali negatívne výsledky, ale mali by? Ak navrhujete a budujete systém AI, môžete stavať v etike? Bez ohľadu na svoju úlohu v organizácii, môžete pomôcť zaistiť, aby váš systém AI vedel skôr k spravodlivejšej spoločnosti ako k udržaniu spoločenských predsudkov? Odpoveď na všetky tieto otázky je: „Áno!“

Robte dobre a robte dobre

Generálny riaditeľ spoločnosti Salesforce, Marc Benioff, povedal: „Mojimi cieľmi pre spoločnosť sú robiť dobre a robiť dobre.“ To je jadrom našich základných hodnôt dôvery, rovnosti a inovácií. Pevne veríme, že môžeme byť v popredí inovácií, byť úspešní a byť silou dobra vo svete. Interne pracujeme na budovaní etiky v Einsteine ​​(náš systém AI) a spolupracujeme s ostatnými členmi spoločného partnerstva pre AI.

Vloženie etiky do vášho AI systému si vyžaduje čas a môže vyžadovať, aby ste pracovali odlišne od toho, ako ste vy alebo vaša spoločnosť vždy pracovali. Vzhľadom na veľký potenciál poškodenia a prínosu AI je však nevyhnutné, aby ste investovali!

Prístup od konca do konca

Proces budovania etiky vo vašom systéme je možné rozdeliť do troch etáp s niekoľkými krokmi v každej z nich:

  1. Vytvorte etickú kultúru
  2. Buďte transparentní
  3. Odstráňte vylúčenie

Vytvorte etickú kultúru

Ak si nestaváte silný základ na začatie, úsilie, ktoré je potrebné na dosiahnutie úspechu, bude vždy väčšie. Zahŕňa to budovanie rôznorodého tímu, kultiváciu etického myslenia a vykonávanie analýzy sociálnych systémov.

Vybudujte rozmanitý tím

Prijímajte pracovníkov na rozmanité zázemie a skúsenosti, aby ste sa vyhli predpojatosti a medzerám vo funkciách.

Keď spoločnosť Apple HealthKit vyšla v roku 2014, mohla sledovať obsah alkoholu v krvi, ale nemôžete sledovať najčastejší zdravotný problém, s ktorým sa ženy každý mesiac stretávajú.

Výskumy (1, 2, 3, 4, 5, 6) ukazujú, že rôzne tímy (vrátane skúseností, rasy, pohlavia) sú kreatívnejšie, usilovnejšie a náročnejšie. Zahrnutie väčšieho počtu žien na všetkých úrovniach, najmä vrcholového manažmentu, vedie k vyšším ziskom.

Nedostatok diverzity vytvára ozvučnú komoru a vedie k skresleným produktom a medzerám vo vlastnostiach. Keby tím vyvíjajúci Apple HealthKit mal v tíme viac žien (nejaké?), Pravdepodobne by identifikovali príšerne absentujúcu funkciu pre 50% populácie. Tento príklad poukazuje na nedostatok rodovej rozmanitosti, ale sú potrebné všetky druhy rozmanitosti, od veku a rasy po kultúru a vzdelávanie.

Ak nemôžete najať nových členov na vybudovanie rozmanitejšieho tímu, vyhľadajte spätnú väzbu od rôznych zamestnancov spoločnosti a vašej používateľskej základne.

Pestujte etické myslenie

Etika je zmýšľanie, nie kontrolný zoznam. Umožnite zamestnancom robiť správne veci.

Generálny riaditeľ spoločnosti Uber pripisuje kreditom oznamovateľov tým, že núti spoločnosť robiť zmeny a „ísť ďalej ako spoločnosť, ktorá robí správne veci“.

Jednoducho mať vedúceho pre etiku nezabráni spoločnostiam v tom, aby sa dopúšťali etických krokov. Dôvodom je, že nikto nemôže byť alebo by nemal byť zodpovedný za spoločnosť, ktorá koná eticky. V celej spoločnosti musí byť etické myslenie.

Jednotliví zamestnanci musia byť schopní vcítiť sa do každého, kto má vplyv na ich AI systém. Spoločnosti môžu kultivovať etické myslenie prostredníctvom kurzov, interných podporných skupín a auditov rovnosti.

Zamestnanci by sa okrem toho mali cítiť oprávnení neustále si navzájom čeliť kladením otázky: „Je to správne?“ V recenziách produktov a denných stand-upoch by sa ľudia mali pýtať na etické otázky špecifické pre svoju oblasť. Napríklad:

  • Produktoví manažéri: „Aký je dopad falošne pozitívneho alebo falošne negatívneho na náš algoritmus na podnikanie?“
  • Vedci: „Na koho bude náš systém mať vplyv a ako? Ako by sa to mohlo zneužiť? Ako sa ľudia pokúsia produkt rozbiť alebo ho používať nezamýšľaným spôsobom? “
  • Dizajnéri: „Aké predvolené hodnoty alebo predpoklady zabudujem do produktu? Navrhujem to pre transparentnosť a rovnosť? “
  • Vedci údajov a modelári: „Takto optimalizáciou môjho modelu, aké implikácie mám pre tých, ktorých sa to týka?“

Ak zamestnanci nie sú spokojní s odpoveďami, ktoré dostanú, musí existovať mechanizmus na ich vyriešenie.

Jednoducho mať vedúceho pre etiku nezabráni spoločnostiam v tom, aby sa dopúšťali etických krokov. Dôvodom je, že nikto nemôže byť alebo by nemal byť zodpovedný za spoločnosť, ktorá koná eticky. V celej spoločnosti musí byť etické myslenie.

Vykonajte analýzu sociálnych systémov

Zapojte zainteresované strany do každej fázy životného cyklu vývoja produktov, aby ste korigovali vplyv systémových sociálnych nerovností v údajoch AI.

Chicagské policajné oddelenie použilo prediktívny policajný program zameraný na AI na identifikáciu ľudí, u ktorých je najvyššie riziko účasti na násilných zbraniach. Zistilo sa, že tento program nie je účinný pri znižovaní kriminality, ale má za následok zatknutie určitých jednotlivcov.

Analýza sociálnych systémov je štúdiom skupín a inštitúcií, ktoré interagujú v ekosystéme. Namiesto toho, aby sa predpokladalo, že sa bude systém budovať, analýza sociálnych systémov sa pýta, či by sa tento systém mal postaviť na prvom mieste, a potom pokračuje v navrhovaní systému na základe potrieb a hodnôt zainteresovaných strán. Môže sa to uskutočniť vykonaním etnografie v komunite, ktorej sa to týka, alebo získaním spätnej väzby od dozorného výboru alebo právnej inštitúcie.

Kate Crawford a Ryan Calo, odvolávajúc sa na príklad Chicagského prediktívneho policajného programu, navrhujú toto: „V prístupe v sociálnych systémoch by sa zohľadňovala sociálna a politická história údajov, na ktorých sú založené teplotné mapy. To si môže vyžadovať konzultáciu s členmi komunity a zváženie údajov polície proti tejto spätnej väzbe, pozitívnej aj negatívnej, týkajúcej sa policajnej kontroly v okolí. “

Organizácie musia pochopiť, ako ich výtvory ovplyvňujú používateľov a spoločnosť ako celok. Pochopením týchto vplyvov môžu určiť tie, ktoré sú najviac ohrozené negatívnymi účinkami systému. Zo štatistického hľadiska môže existovať iba 1% šanca na falošne pozitívny alebo falošne negatívny (vynikajúci zo štatistického hľadiska!), Ale z tohto 1% populácie môže byť výsledok veľmi škodlivý. Uplatňujú sa riziká a výhody systému rovnomerne na všetkých? Kto má úžitok a kto platí na základe výsledkov AI? Spýtanie sa na túto otázku v každej fáze vývoja AI, vrátane pred a po spustení, môže pomôcť identifikovať škodlivé skreslenie a riešiť ho.

Zo štatistického hľadiska môže existovať iba 1% šanca na falošne pozitívny alebo falošne negatívny výsledok, ale pre 1% populácie môže byť výsledok veľmi škodlivý.

Buďte transparentní

Aby ste boli etickí, musíte byť transparentní pre seba, svojich používateľov / zákazníkov a spoločnosť. Zahŕňa to pochopenie vašich hodnôt, vedieť, kto má úžitok a kto platí, poskytnúť používateľom kontrolu nad ich údajmi a získať spätnú väzbu.

Pochopte svoje hodnoty

Preskúmajte výsledky a kompromis medzi rozhodnutiami založenými na hodnotách.

Niektorí ľudia sa obávajú, že AI asistenti ako Siri a Google vždy počúvajú. Boli navrhnuté tak, aby uhádli, čo používatelia chcú vedieť skôr, ako sa na ne dostanú, a poskytujú mimoriadne užitočné informácie v pravý čas. Zároveň však vyvoláva obavy medzi používateľmi, ktorí si uvedomujú súkromie a bezpečnosť.

Pri rozhodovaní môžu dôjsť ku konfliktu hodnôt jednotlivca alebo spoločnosti, čo vedie ku kompromisom. Používatelia napríklad milujú pohodlie prispôsobených výsledkov, môžu sa však obávať toho, čo o nich spoločnosť vie (súkromie) alebo toho, čo sa spoločnosť môže rozhodnúť nezverejniť (diskriminácia). Nanešťastie sa zdá, že asistenti umelej inteligencie nie sú takí užitoční pre všetkých, pretože sa zdá, že ich vzdelávanie vylučuje africko-americké hlasy. Ak sa uskutočnia kompromisy, musia sa jasne uviesť všetkým, ktorých sa to týka. To môže byť ťažké, ak algoritmy AI sú „čiernymi skrinkami“, ktoré bránia ich tvorcom presne vedieť, ako sa rozhodujú.

Na pochopenie dopadu týchto kompromisov je potrebné neustále skúmať výsledky. Povedzme, že vaša spoločnosť navrhuje bezpečnostný systém s vylepšenou AI, ktorý má za následok stratu súkromia jednotlivca. Zvážte nasledujúce:

  • Ak je ochrana súkromia používateľa deklarovanou hodnotou spoločnosti, mali by si zamestnanci (nielen tí najlepší vedúci pracovníci) uvedomiť tento kompromis.
  • Okrem toho by zákazníci a verejnosť mali byť informovaní o vplyve individuálneho súkromia pomocou bezpečnostného systému.
  • Ak je to skryté kvôli obavám z spätnej vôle PR, potom sa musí opýtať: „Je súkromie používateľa skutočne hodnotou spoločnosti?“

Vysvetlenie, prečo spoločnosť urobila kompromis a čo robí, aby zmiernila škody, môže viesť k udržaniu dôvery verejnosti dlhá cesta.

Poskytnite používateľom kontrolu nad svojimi údajmi

Umožnite používateľom opravovať alebo mazať údaje, ktoré o nich zhromaždili.

Cieľom spoločnosti Google je urobiť svetové informácie „všeobecne prístupnými a užitočnými“. Od roku 2014 dostávajú 2,4 milióna žiadostí „o právo zabudnúť“ na odstránenie informácií, ktoré súkromné ​​osoby, politici a vládne agentúry považujú za škodlivé. Google však vyhovel iba 43,3% žiadostí.

Spoločnosti môžu zhromažďovať a sledovať ohromujúce množstvo údajov o svojich používateľoch online, v obchodoch a zo zariadení s prístupom na internet (IoT). Je iba etické umožniť používateľom, aby videli, aké údaje o nich zhromaždili, a opraviť ich alebo stiahnuť a odstrániť údaje. Ak vaša spoločnosť pôsobí v EÚ, musíte poznať všeobecné nariadenia EÚ o ochrane údajov (GDPR) a ich vplyvy na to, čo môžete zhromažďovať a ukladať, ako aj pravidlá týkajúce sa umožnenia používateľom / zákazníkom sťahovať a mazať ich údaje. ,

Okrem toho sa uistite, že je možné údaje presne znázorniť. Napríklad je možné, aby používatelia uviedli svoje pohlavie, ak sa identifikujú ako binárne? Majú možnosť vybrať si viac ako jedno rasové pozadie?

Ak sú zozbierané údaje anonymizované a nie je možné, aby používatelia presne videli, čo o nich spoločnosť vie, a upravovali ich, jasne oznámte druh zozbieraných údajov a umožnite jednotlivcom odhlásiť sa. Ak používatelia nemôžu produkt používať bez zhromažďovania údajov, oznámte to tiež.

Spätná väzba

Umožnite používateľom poskytovať spätnú väzbu o záveroch, ktoré o nich vytvára AI.

Tri národné úverové agentúry zhromažďujú informácie o jednotlivcoch, aby vytvorili úverové správy, ktoré veritelia používajú na určenie rizika potenciálneho dlžníka. Jednotlivci sa nemôžu rozhodnúť, že budú zhromažďované údaje, a musia prejsť náročnou dĺžkou, aby mohli opraviť nesprávne údaje alebo závery o nich.

Vyvodené závery o jednotlivcovi (napr. Vysoké riziko zlyhania úveru) môžu mať škodlivé následky bez vedomia alebo kontroly jednotlivca (napr. Neschopnosť získať pôžičku). Bohužiaľ, tí, ktorí sú najviac postihnutí AI a „veľkými údajmi“, sú už marginalizované, chudobnejšie komunity bez hlasu (napr. Tie, ktoré nemajú prístup na internet a nemôžu rýchlo vidieť svoju úverovú správu alebo podať žiadosť o opravu).

Právo EÚ vyžaduje, aby rozhodnutia o AI s vážnymi dôsledkami boli skontrolované človekom s možnosťou ich zrušenia; izolovaný jediný dátový bod však nemá zmysel bez pochopenia rozhodnutí o iných (napr. líši sa odporúčanie o schválení pôžičky pre čiernych zákazníkov oproti bielym zákazníkom aj napriek tomu, že všetky ostatné faktory sú podobné?). Je dôležité pochopiť odporúčania alebo predpovede AI v kontexte.

Transparentnosť inferencie a umožnenie jednotlivcom poskytnúť spätnú väzbu vám nielenže umožňuje zlepšiť presnosť modelu, ale tiež umožňuje opraviť diskrimináciu. To môže byť výhodou oproti konkurentom, ktorí nespravodlivo prepúšťajú životaschopných zákazníkov. Napríklad banka, ktorá odmieta veľký počet žiadateľov o úver ako príliš vysoké riziko, by mohla mikroúvery identifikovať ako alternatívnu ponuku, ktorá nielenže podporuje komunitu, ale vedie aj k lojálnej zákazníckej základni, ktorú konkurenti banky ignorovali. Zákazníkom to umožní zlepšiť svoju finančnú situáciu a lepšie využiť ponuky banky, čo vedie k úspešnému cyklu.

Vyžaduje to dedinu, aby sa niečo zmenilo

Od pestovania etickej kultúry až po transparentnosť v hodnotách spoločnosti a posilňovanie postavenia jej zákazníkov by spoločnosť a jej zamestnanci mali podniknúť niekoľko krokov, aby vytvorili etický základ na budovanie produktov AI. Ak sa chcete zoznámiť s spôsobmi odstránenia vylúčenia v produktoch založených na AI, pozrite si časť II.

Rád by som počul, čo si myslíte! Čo robí vaša spoločnosť a vy osobne, aby ste vo svojej práci vytvorili etický základ?

Ďakujem Justin Tauber, Liz Balsam, Molly Mahar a Raymon Sutedjo-The za vašu spätnú väzbu!

Sledujte nás na adrese @SalesforceUX.

Chcete s nami pracovať? Kontaktujte uxcareers@salesforce.com