Po roku technických škandálov, našich 10 odporúčaní pre AI

Začnime lepšou reguláciou, ochranou pracovníkov a uplatňovaním pravidiel „pravdy v reklame“ na AI

Inštitút AI Now dnes vydáva našu tretiu výročnú správu o stave AI v roku 2018 vrátane 10 odporúčaní vládam, výskumníkom a odborníkom v priemysle.

V AI to bol dramatický rok. Od Facebooku, ktorý potenciálne podnecuje etnické čistky v Mjanmarsku, až po Cambridge Analytica, ktorý sa snaží manipulovať s voľbami, až po vybudovanie tajného cenzurovaného vyhľadávacieho nástroja pre Číňanov, rozhnevanie sa nad zmluvami spoločnosti Microsoft s ICE, viacnásobné povstania pracovníkov za podmienky v algoritmicky riadených skladoch Amazonu - titulky sa nezastavili. A to je len niekoľko príkladov medzi stovkami.

Jadrom týchto kaskádových škandálov v oblasti AI sú otázky zodpovednosti: kto je zodpovedný, keď nám systémy AI poškodzujú? Ako rozumieme týmto škodám a ako ich napravíme? Kde sú intervenčné miesta a aký ďalší výskum a regulácia je potrebný na zabezpečenie účinnosti týchto zásahov? V súčasnosti existuje len málo odpovedí na tieto otázky a existujúce regulačné rámce zaostávajú za tým, čo je potrebné. S rastúcou všadeprítomnosťou, zložitosťou a rozsahom týchto systémov je tento nedostatok zmysluplnej zodpovednosti a dohľadu - vrátane základných záruk zodpovednosti, zodpovednosti a riadneho procesu - stále naliehavejšou obavou.

Na základe našich správ za roky 2016 a 2017 sa správa AI Now 2018 potýka s týmto ústredným problémom a poskytuje 10 praktických odporúčaní, ktoré môžu pomôcť vytvoriť rámce zodpovednosti schopné riadiť tieto výkonné technológie.

odporúčania

1. Vlády musia regulovať AI rozšírením právomocí odvetvových agentúr na dohľad nad týmito technológiami, ich audit a monitorovanie podľa oblastí.

Implementácia systémov AI sa rýchlo rozširuje bez primeraných režimov riadenia, dohľadu a zodpovednosti. Oblasti ako zdravie, vzdelávanie, trestné súdnictvo a sociálna starostlivosť majú svoju vlastnú históriu, regulačné rámce a nebezpečenstvá. Vnútroštátny orgán pre bezpečnosť AI alebo všeobecné normy AI a certifikačný model sa však budú usilovať splniť odvetvové odborné požiadavky potrebné na nuansovú reguláciu. Potrebujeme sektorovo špecifický prístup, ktorý uprednostňuje technológiu, ale zameriava sa na jej aplikáciu v danej doméne. Medzi užitočné príklady sektorovo špecifických prístupov patrí Federálna správa letectva USA a Národná správa bezpečnosti cestnej premávky.

2. Rozpoznávanie tváre a ovplyvňovanie uznávania si vyžaduje prísnu reguláciu na ochranu verejného záujmu.

Takáto regulácia by mala zahŕňať vnútroštátne právne predpisy, ktoré si vyžadujú prísny dohľad, jasné obmedzenia a verejnú transparentnosť. Spoločenstvá by mali mať právo odmietnuť uplatňovanie týchto technológií vo verejnom aj súkromnom kontexte. Samotné verejné oznámenie o ich použití nie je postačujúce a mal by existovať vysoký prah pre akýkoľvek súhlas vzhľadom na nebezpečenstvo útlaku a nepretržitého hromadného sledovania. Zvláštne uznanie si zaslúži osobitnú pozornosť. Ovplyvnené rozpoznávanie je podtrieda rozpoznávania tváre, ktorá tvrdí, že odhaľuje veci, ako sú osobnosť, vnútorné pocity, duševné zdravie a „zapojenie pracovníkov“ na základe snímok alebo videí tváre. Tieto tvrdenia nie sú podložené spoľahlivými vedeckými dôkazmi a uplatňujú sa neetickými a nezodpovednými spôsobmi, ktoré často pripomínajú pseudovedy fenomenológie a fyziognomie. Prepojenie ovplyvňuje uznávanie s prenájmom, prístupom k poisteniu, vzdelaniu a policajnou kontrolou, čo hlboko súvisí s rizikami na individuálnej aj spoločenskej úrovni.

3. Priemysel AI naliehavo potrebuje nové prístupy k správe vecí verejných.

Ako ukazuje táto správa, interné riadiace štruktúry vo väčšine technologických spoločností nezabezpečujú zodpovednosť za systémy AI. Regulácia vlády je dôležitou súčasťou, ale vedúce spoločnosti v priemysle AI potrebujú tiež štruktúry vnútornej zodpovednosti, ktoré idú nad rámec etických usmernení. Malo by to zahŕňať zastúpenie zamestnancov v radách riadiacich pracovníkov, externé etické poradné rady a vykonávanie nezávislého úsilia v oblasti monitorovania a transparentnosti. Odborníci z tretích strán by mali byť schopní vykonávať audit a uverejňovať kľúčové systémy a spoločnosti musia zabezpečiť, aby ich infraštruktúry AI mohli byť chápané od „nosa po chvost“, vrátane ich konečného použitia a použitia.

4. Spoločnosti AI by sa mali zriecť obchodného tajomstva a iných právnych nárokov, ktoré stoja v ceste zodpovednosti vo verejnom sektore.

Dodávatelia a vývojári, ktorí vytvárajú AI a automatizované systémy rozhodovania pre použitie vo vláde, by sa mali dohodnúť na zrieknutí sa akéhokoľvek obchodného tajomstva alebo iného právneho nároku, ktorý bráni úplnému auditu a porozumeniu ich softvéru. Zákony o firemnom tajomstve sú prekážkou riadneho procesu: prispievajú k „efektu čiernej skrinky“, vďaka čomu sú systémy nepriehľadné a nezodpovedné, čo sťažuje posudzovanie zaujatosti, rozhodnutí o súťaži alebo odstraňovania chýb. Každý, kto obstaráva tieto technológie pre použitie vo verejnom sektore, by mal pred predajom akýchkoľvek dohôd požadovať, aby sa predajcovia vzdali týchto nárokov.

5. Technologické spoločnosti by mali poskytovať ochranu pre odporcov, organizujúcich zamestnancov a etických oznamovateľov.

Organizácia a odpor technologických pracovníkov sa objavil ako sila pre zodpovednosť a etické rozhodovanie. Technologické spoločnosti musia chrániť schopnosť pracovníkov organizovať, oznamovať a robiť etické rozhodnutia o tom, na ktorých projektoch pracujú. Malo by to zahŕňať jasné politiky, ktorými sa prijímajú a chránia odporcovia z radov svedomia, zabezpečujú pracovníkom právo vedieť, na čom pracujú, a schopnosť zdržať sa takejto práce bez odplaty alebo odplaty. Je potrebné chrániť aj pracovníkov, ktorí vzbudzujú etické obavy, ako aj whistleblowing vo verejnom záujme.

6. Agentúry na ochranu spotrebiteľa by mali na výrobky a služby AI uplatňovať zákony „v oblasti pravdy v reklame“.

Hádanka okolo AI iba rastie, čo vedie k prehlbovaniu rozdielov medzi marketingovými prísľubmi a skutočnou výkonnosťou produktu. S týmito medzerami prichádzajú rastúce riziká pre jednotlivcov aj komerčných zákazníkov, často so závažnými dôsledkami. Podobne ako iné výrobky a služby, ktoré môžu vážne ovplyvniť alebo vykorisťovať obyvateľstvo, by sa predajcovia umelej inteligencie mali držať na vysokej úrovni, čo môžu sľúbiť, najmä ak vedecké dôkazy na podporu týchto sľubov nie sú dostatočné a dlhodobé následky nie sú známe. ,

7. Technologické spoločnosti musia ísť nad rámec „potrubného modelu“ a zaviazať sa k riešeniu praktík vylúčenia a diskriminácie na svojich pracoviskách.

Technologické spoločnosti a oblasť AI ako celok sa zamerali na „potrubný model“, ktorý sa snaží vyškoliť a najať rozmanitejších zamestnancov. Aj keď je to dôležité, prehliada sa, čo sa stane, keď sa ľudia najmú na pracoviská, ktoré vylučujú, obťažujú alebo systematicky podhodnocujú ľudí na základe pohlavia, rasy, sexuality alebo zdravotného postihnutia. Spoločnosti musia preskúmať hlbšie problémy na svojich pracoviskách a vzťah medzi kultúrami vylúčenými z produkcie a výrobkami, ktoré vyrábajú, čo môže viesť k nástrojom, ktoré zachovávajú zaujatosť a diskrimináciu. Túto zmenu zamerania musia sprevádzať praktické opatrenia vrátane záväzku ukončiť nerovnosť v odmeňovaní a príležitostiach, spolu s opatreniami týkajúcimi sa transparentnosti pri prijímaní do zamestnania a ich udržaní.

8. Spravodlivosť, zodpovednosť a transparentnosť v umelej inteligencii si vyžadujú podrobný popis „celého zásobovacieho reťazca zásobníkov“.

Pre zmysluplnú zodpovednosť musíme lepšie porozumieť a sledovať komponenty systému AI a celý dodávateľský reťazec, na ktorý sa spolieha: to znamená účtovanie pôvodu a použitia údajov o školeniach, testovacích údajov, modelov, rozhraní aplikačných programov (API) ) a ďalšie súčasti infraštruktúry počas životného cyklu produktu. Toto účtovníctvo nazývame „kompletný dodávateľský reťazec“ systémov AI a je to nevyhnutná podmienka pre zodpovednejšiu formu auditu. Celý dodávateľský reťazec zásobníkov zahŕňa aj pochopenie skutočných environmentálnych a mzdových nákladov systémov AI. Zahŕňa to využívanie energie, využitie práce v rozvojovom svete na moderovanie obsahu a tvorbu údajov o školeniach a spoliehanie sa na pracovníkov pracujúcich s klikmi na vývoj a údržbu systémov AI.

9. V sporoch, organizovaní práce a účasti komunity v otázkach zodpovednosti AI je potrebné viac finančných prostriedkov a podpory.

Ľudia, ktorým najviac hrozí poškodenie zo systémov AI, sú často tí, ktorí sú najmenej schopní napadnúť výsledky. Potrebujeme zvýšenú podporu spoľahlivých mechanizmov právnej nápravy a občianskej účasti. To zahŕňa podporu verejných obhajcov, ktorí zastupujú osoby vylúčené zo sociálnych služieb z dôvodu algoritmického rozhodovania, organizácií občianskej spoločnosti a organizátorov práce, ktoré podporujú skupiny, ktorým hrozí strata zamestnania a vykorisťovanie, a infraštruktúry založené na komunite, ktoré umožňujú účasť verejnosti.

10. Programy univerzitnej umelej inteligencie by sa mali rozšíriť nad rámec počítačových vied a inžinierskych odborov.

AI začala ako interdisciplinárna oblasť, ale v priebehu desaťročí sa zúžila na technickú disciplínu. S rastúcim uplatňovaním systémov AI na sociálne oblasti je potrebné rozšíriť svoju disciplinárnu orientáciu. To znamená sústrediť formy odborných znalostí zo sociálnych a humanitných disciplín. Úsilie inteligencie, ktoré sa skutočne chce zaoberať sociálnymi dôsledkami, nemôže zostať iba v rámci katedier počítačovej vedy a inžinierstva, kde fakulta a študenti nie sú vyškolení na výskum sociálneho sveta. Rozšírenie disciplinárnej orientácie výskumu AI zabezpečí hlbšiu pozornosť sociálnym kontextom a väčšie zameranie na potenciálne riziká, keď sa tieto systémy uplatňujú na ľudské populácie.

Celú správu si môžete prečítať tu.