Nakon godinu dana tehničkih skandala, naših 10 preporuka za AI

Počnimo s boljom regulacijom, zaštitom radnika i primjenom pravila istine u oglašavanju na AI

Danas Institut AI Now objavljuje naše treće godišnje izvješće o stanju AI u 2018. godini, uključujući 10 preporuka za vlade, istraživače i stručnjake iz industrije.

Bila je to dramatična godina u AI. Od Facebooka koji potencijalno potiče etničko čišćenje u Mjanmaru, do Cambridge Analytice koja nastoji manipulirati izborima, do Googlea koji gradi tajnu cenzuriranu tražilicu za Kineze, bijesa zbog Microsoftovih ugovora s ICE-om, do višestrukih ustanka radnika zbog uvjeta u algoritmima skladišta koje upravlja Amazon. naslovi se nisu zaustavili. A ovo je samo nekoliko primjera među stotinama.

U srcu ovih kaskadnih AI skandala nalaze se pitanja odgovornosti: tko je odgovoran kada nam AI sustavi naštete? Kako razumijemo ove štete i kako ih otklanjamo? Gdje su mjesta intervencije i koja su potrebna dodatna istraživanja i regulacije da bi se osigurale učinkovite intervencije? Trenutno je malo odgovora na ta pitanja, a postojeći regulatorni okviri prilično ne odgovaraju onome što je potrebno. Kako raširenost, složenost i razmjera ovih sustava rastu, nedostatak značajne odgovornosti i nadzora - uključujući osnovne zaštitne mjere odgovornosti, odgovornosti i postupaka - postaje sve hitnija briga.

Na temelju izvještaja za 2016. i 2017., Izvještaj AI Now 2018 suprotstavlja se ovom središnjem problemu i pruža 10 praktičnih preporuka koje mogu pomoći u stvaranju okvira odgovornosti sposobnih za upravljanje ovim moćnim tehnologijama.

preporuke

1. Vlade moraju regulirati AI širenjem ovlasti agencija specifičnih za sektor nadzora, revizije i nadzora tih tehnologija prema domeni.

Primjena AI sustava brzo se širi, bez odgovarajućeg režima upravljanja, nadzora ili odgovornosti. Domene poput zdravstva, obrazovanja, kaznenog pravosuđa i blagostanja sve imaju svoju povijest, regulatorne okvire i opasnosti. Međutim, nacionalno tijelo za sigurnost AI ili opći standardi AI i model certificiranja borit će se da udovolje sektorskim zahtjevima stručnosti potrebnim za nuano reguliranje. Potreban nam je sektorski pristup koji tehnologiji ne daje prioritet, već se fokusira na njegovu primjenu u određenoj domeni. Korisni primjeri sektorskih pristupa uključuju Saveznu upravu za zrakoplovstvo Sjedinjenih Država i Nacionalnu upravu za sigurnost prometa na cestama.

2. Prepoznavanje lica i utjecaj na prepoznavanje trebaju strogu regulaciju kako bi se zaštitili javni interesi.

Takva regulacija trebala bi sadržavati nacionalne zakone koji zahtijevaju snažan nadzor, jasna ograničenja i javnu transparentnost. Zajednice bi trebale imati pravo odbiti primjenu tih tehnologija u javnom i u privatnom kontekstu. Jedina javna obavijest o njihovoj upotrebi nije dovoljna i trebao bi biti visok prag za bilo kakvu suglasnost, s obzirom na opasnosti od potlačenog i stalnog masovnog nadzora. Prepoznavanje utjecaja zaslužuje posebnu pozornost. Prepoznavanje afekta podrazumijeva potklasu prepoznavanja lica koja tvrdi da otkriva stvari poput osobnosti, unutarnjih osjećaja, mentalnog zdravlja i „angažmana radnika“ na temelju slika ili videa lica. Te tvrdnje nisu potkrijepljene snažnim znanstvenim dokazima i primjenjuju se na neetički i neodgovorni način koji se često sjećaju pseudoznanosti fnologije i fizionomije. Povezivanje utječe na prepoznavanje zaposlenja, pristup osiguranju, obrazovanju i policiji stvara duboke zabrinutosti za rizike, kako na pojedinačnoj tako i na društvenoj razini.

3. AI industriji hitno su potrebni novi pristupi upravljanju.

Kao što pokazuje ovo izvješće, strukture unutarnjeg upravljanja u većini tehnoloških tvrtki ne uspijevaju osigurati odgovornost za AI sustave. Vladina regulacija važna je komponenta, ali vodeće kompanije u AI industriji također trebaju interne strukture odgovornosti koje nadilaze smjernice za etiku. Ovo bi trebalo uključivati ​​redovne predstavnike zaposlenika u upravnom odboru, vanjske savjetodavne odbore za etiku i provedbu neovisnih nadzora i napora za transparentnost. Stručnjaci trećih strana trebali bi biti u mogućnosti revizirati i objavljivati ​​ključne sustave, a tvrtke trebaju osigurati da se njihove AI infrastrukture mogu razumjeti od „nosa do repa“, uključujući njihovu krajnju primjenu i upotrebu.

4. AI tvrtke bi se trebale odreći poslovne tajne i drugih pravnih zahtjeva koji stoje na putu odgovornosti u javnom sektoru.

Dobavljači i programeri koji stvaraju AI i automatizirane sustave odlučivanja za upotrebu u vladi trebali bi pristati na odricanje od bilo kakve poslovne tajne ili drugog zakonskog zahtjeva koji sprečava potpunu reviziju i razumijevanje njihovog softvera. Zakoni o korporacijskoj tajni barijera su procesima koji donose proces: doprinose „efektu crne kutije“ čineći sustave neprozirnim i neprihvatljivim, otežavajući procjenu pristranosti, odluka natječaja ili otklanjanje pogrešaka. Svi koji ove tehnologije nabave na korištenje u javnom sektoru trebali bi zahtijevati da se dobavljači odriču tih zahtjeva prije nego što sklope bilo kakav sporazum.

5. Tehnološke tvrtke trebaju osigurati zaštitu prigovorima savjesti, organiziranju zaposlenika i etičkim prijaviteljima zviždača.

Organiziranje i otpor tehnoloških radnika pojavili su se kao snaga odgovornosti i etičkog odlučivanja. Tehnološke tvrtke moraju zaštititi sposobnost radnika da organiziraju, prijavljuju zviždanje i donose etičke odluke o projektima na kojima rade. To bi trebalo uključivati ​​jasne politike prihvatanja i zaštite prigovora savjesti, osiguravanje radnicima prava da znaju na čemu rade i sposobnost da se suzdrže od takvog rada bez odmazde ili odmazde. Radnici koji ispoljavaju etičke probleme također moraju biti zaštićeni, kao i zvižduci u javnom interesu.

6. Agencije za zaštitu potrošača trebaju primijeniti zakone o „oglašavanju istine“ na AI proizvode i usluge.

Raspon oko AI-ja samo raste, što dovodi do sve većih razlika između marketinških obećanja i stvarnih performansi proizvoda. Ovim nedostacima dolazi do povećanja rizika kako za pojedince, tako i za komercijalne kupce, često s ozbiljnim posljedicama. Kao i drugi proizvodi i usluge koji mogu potencijalno ozbiljno utjecati ili iskoristiti stanovništvo, dobavljači AI trebaju se držati visokih standarda za ono što mogu obećati, posebno kada su znanstveni dokazi koji podržavaju ta obećanja neadekvatni i dugoročne posljedice nisu poznate ,

7. Tehnološke tvrtke moraju prijeći „model cjevovoda“ i obvezati se na rješavanje praksi isključenja i diskriminacije na svojim radnim mjestima.

Tehnološke tvrtke i AI polje u cjelini fokusirale su se na „model cjevovoda“, želeći osposobiti i zaposliti više različitih zaposlenika. Iako je ovo važno, previdi se što se događa nakon što se ljudi angažuju na radnim mjestima koja isključuju, uznemiravaju ili sistemski podcjenjuju ljude na temelju spola, rase, seksualnosti ili invalidnosti. Tvrtke trebaju ispitati dublja pitanja na svojim radnim mjestima i odnos između kultura koja se isključuju s proizvodima koji grade, a koji mogu proizvesti alate koji produžuju pristranost i diskriminaciju. Ovu promjenu fokusa treba pratiti praktičnim djelovanjem, uključujući opredjeljenje za krajnju nejednakost plaća i mogućnosti, zajedno s mjerama transparentnosti o zapošljavanju i zadržavanju.

8. Pravednost, odgovornost i transparentnost u AI zahtijevaju detaljan prikaz „lanca opskrbe punih dionica“.

Za značajnu odgovornost moramo bolje razumjeti i pratiti sastavne dijelove AI sustava i puni opskrbni lanac na koji se oslanja: to znači računovodstvo podrijetla i korištenje podataka o obuci, testnih podataka, modela, sučelja aplikacijskog programa (API-ji) ) i ostale infrastrukturne komponente tijekom životnog ciklusa proizvoda. To računovodstvo nazivamo „lancem opskrbnog lanca“ AI sustava, a to je nužan uvjet za odgovorniji oblik revizije. Lanac opskrbnih lanaca također uključuje razumijevanje stvarnih okolišnih i troškova rada AI sustava. To uključuje upotrebu energije, upotrebu radne snage u razvoju u svijetu za moderiranje sadržaja i stvaranje podataka o obuci te oslanjanje na klikerske radnike na razvoju i održavanju AI sustava.

9. Potrebno je više financiranja i potpore za parnice, organiziranje rada i sudjelovanje zajednice u pitanjima odgovornosti AI.

Ljudi koji su u najvećoj opasnosti od štete od AI sustava često su oni koji najmanje mogu osporiti rezultate. Potrebna nam je veća podrška snažnim mehanizmima pravne zaštite i sudjelovanja građana. To uključuje pružanje podrške javnim zagovornicima koji predstavljaju ljude odsječene od socijalnih usluga zbog algoritamskog odlučivanja, organizacije civilnog društva i organizatore rada koji podržavaju grupe kojima prijeti gubitak i iskorištavanje posla i infrastrukturu u zajednici koja omogućuje sudjelovanje javnosti.

10. Sveučilišni studijski programi trebali bi se proširiti izvan disciplina informatike i inženjerstva.

AI je počeo kao interdisciplinarno polje, ali tijekom desetljeća se sužavao i postao tehnička disciplina. Uz sve veću primjenu AI sustava na društvene domene, treba proširiti svoju disciplinsku orijentaciju. To znači usredotočiti oblike stručnosti iz društvenih i humanističkih disciplina. Napori AI-a koji se istinski žele pozabaviti društvenim implikacijama ne mogu ostati samo u odsjeku informatike i inženjerstva, gdje nastavnici i studenti nisu osposobljeni za istraživanje društvenog svijeta. Proširenje disciplinske orijentacije istraživanja AI osigurat će dublju pažnju na društveni kontekst i više usredotočenosti na potencijalne opasnosti kada se ovi sustavi primijene na ljudsku populaciju.

Cijelo izvješće možete pročitati ovdje.