Kanadska nova federalna direktiva čini etičku umjetnu inteligenciju nacionalnim pitanjem

Na savršenom sjecištu tehnologije i državne službe, svaki će vladin proces biti automatiziran, pojednostavljujući koristi, ishode i aplikacije za svakog građanina unutar zemlje s digitalnom tehnologijom.

S tim pristupom dolazi i značajan sloj protokola koji je neophodan kako bi se osiguralo da se građani osjećaju osnaženim u pogledu procesa donošenja odluka i načina na koji njihova vlada rješava potrebe iz digitalne perspektive. Trenutno Kanada prednjači u svijetu u AI-u, uglavnom zahvaljujući ogromnim državnim ulaganjima kao što je Pankanadska strategija umjetne inteligencije . Rastuće područje trenutno je sveprisutno - jedva da postoji industrija koju nije poremetio, od rudarstva do pravne pomoći. Vlada nije ništa drugačija. Zapravo, vlada bi mogla biti jedan od najočitijih izbora gdje automatizirani procesi odlučivanja mogu uštedjeti vrijeme i novac.



Dilema koja proizlazi iz donošenja AI-a od strane vlade je pojačavanje problema oko toga kako bilo koja organizacija prihvaća rastuću tehnologiju: Kako osigurati da ova platforma ili usluga AI pošteno i adekvatno zadovoljava potrebe svojih klijenata? Tvrtka poput Facebooka koristi umjetnu inteligenciju iz više razloga, kao što je ciljanje oglasa ili prepoznavanje lica na fotografijama. Naravno, njihovi algoritmi mogu rezultirati jezivo točnim oglasima koji se pojavljuju u newsfeedu, ali etika njihovih rješenja za strojno učenje zapravo utječe samo na privatnost osobe – ili na njezin nedostatak posljednjih godina.



kanada_ai 5

Vlada, s druge strane, mora uzeti u obzir široku lepezu detalja dok počinje usvajati nove tehnologije poput umjetne inteligencije. Vlade se, naravno, bave privatnošću — ali također se bave zdravstvenom skrbi, useljavanjem, kriminalnim aktivnostima i još mnogo toga. Dakle, problem se za njih manje vrti oko toga Koju vrstu AI rješenja trebamo koristiti? i više oko toga Koje ne bismo trebali koristiti?



Platforme umjetne inteligencije koje vlada ne može dotaknuti su one koje nude malo ili nimalo transparentnosti i prožete su pristranostima i neizvjesnošću. Ako se odluka vlade donosi automatiziranim postupkom, građanin ima pravo razumjeti kako je do te odluke došlo. Ne može postojati zaštita IP-a i strogo čuvani izvorni kod. Na primjer, ako podnositelju zahtjeva za potencijalno kazneno pomilovanje bude odbijeno to pomilovanje od strane AI sustava obučenog s povijesnim podacima, taj podnositelj zahtjeva zaslužuje točno razumjeti zašto je možda odbijen.

Rješenje kanadske vlade za ovo pitanje je Direktiva o automatiziranom donošenju odluka, objavljena ranije ovog tjedna. Aludirano na krajem 2018 tadašnjeg ministra digitalne vlade Scotta Brisona, to je priručnik koji opisuje kako će vlada koristiti umjetnu inteligenciju za donošenje odluka unutar nekoliko odjela. U središtu direktive je Algoritamska procjena utjecaja (AIA), alat koji točno određuje kakvu će vrstu ljudske intervencije, stručnog pregleda, praćenja i planiranja izvanrednih situacija zahtijevati AI alat napravljen da služi građanima.

Strojni vodič za etiku



Put kanadske vlade da implementira etičke prakse u svoje procese donošenja odluka AI započeo je prije otprilike 14 mjeseci kada je Michael Karlin, voditelj tima za politiku podataka u Ministarstvu nacionalne obrane, primijetio slijepu pjegu u načinu na koji vlada postupa s njihovim podacima. Formiran je tim za razvoj okvira koji je odatle rastao, radeći u potpunosti na otvorenom putem platformi kao što je GitHub i primajući povratne informacije od privatnih tvrtki, drugih vlada i visokoškolskih institucija kao što su MIT i Oxford.

Kada je taj tim, koji sada vodi kanadski glavni službenik za informiranje Alex Benay, osvrnuo se na druge vlade, shvatili su da ne postoji alat koji bi mogao točno izmjeriti utjecaj koji automatizirani proces može imati na građane kojima je stvoren da služi. Očito postoje inherentni rizici ovisno o tome kako AI djeluje sa svojim klijentima - neki od njih su jeftini, dok su drugi iznimno važni.

Ako će vam chatbot reći da je klizalište otvoreno, a vi se pojavite, a ono nije otvoreno i da je chatbot bio u krivu, to je mali rizik, objašnjava Benay. Ali ako ćete automatizirati odluke o useljenju, to je najveći rizik koliko možemo dobiti.



Novoobjavljena direktiva kvantificira ove rizike i nudi AIA-u kao alat za tvrtke koje grade vladina rješenja AI-a koji točno određuje kakva bi im vrsta intervencije mogla trebati. Tvrtke pristupaju AIA online i ispunjavaju anketu od 60 i više pitanja o svojoj platformi, a nakon što završe, bit će vraćene s razinom utjecaja. Anketa postavlja pitanja poput Omogućuje li sustav prevladavanje ljudskih odluka? i Postoji li proces za dokumentiranje kako su problemi kvalitete podataka riješeni tijekom procesa dizajna?

Još dva primjera pitanja iz AIA-e.

Razina utjecaja platforme umjetne inteligencije koju je ugovorila vlada rangirana je od jedne do četiri. Što je viši rang, to automatizirani proces donošenja odluka ima veći utjecaj na prava, zdravlje i ekonomske interese pojedinaca i zajednica. Procesi koji donose odluke koje uključuju kriminalnu aktivnost ili sposobnost pojedinca da izađe i uđe u zemlju, na primjer, odmah će se ocijeniti s razinom učinka od tri ili četiri.

Na određenim razinama utjecaja mora postojati intervencija u nekoliko oblika. Ako automatizirani proces odlučivanja dobije procjenu učinka četvrte razine, to će zahtijevati dvije neovisne kolegijalne recenzije, javnu obavijest na jednostavnom jeziku, ljudsku intervenciju bez greške i ponavljajuće tečajeve obuke za sustav.

AIA procjena je zapravo alat koji pokazuje vašu razinu ozbiljnosti i kako biste se trebali odnositi prema problemu, kaže Benay. Vjerojatno vam ne treba kolegijalna recenzija za taj problem klizališta, ali će vam svakako trebati kolegijalna skupina za recenziranje prije nego što automatizirate granice ili socijalne usluge.

Unatoč činjenici da se zbog ove direktive može činiti da vlada čini sve što može da se pripremi za navalu tehnološkog poremećaja, zapravo je upravo suprotno. Uz nijansiranu temu poput etike i umjetne inteligencije, glavni prioritet vlade je transparentnost i odgovornost.

Ono što pokušavamo učiniti s AIA-om je osigurati da ljudi ostanu pod kontrolom kako bi se mogli žaliti na odluke.

Ono što ne želimo je algoritam crne kutije od tvrtke koja nam ne želi reći kako je taj algoritam donio odluku, kaže Benay. To nije nešto čega se možemo pridržavati iz pristupa usluga u kojem bi se ljudi trebali obratiti ako je usluga koju su primili bila nepravedna.

Sama AIA veliko je postignuće ne samo za kanadsku vladu nego i za vlade diljem svijeta. To je prvi alat te vrste i Meksiko ga je usvojio prije četiri mjeseca, unatoč tome što nije službeno objavljen do ovog tjedna. Benay i njegov tim su u pregovorima s nekoliko članova D9 uključujući Portugal i Ujedinjeno Kraljevstvo dok žele implementirati alat.

Koliko god da su direktiva i AIA važni za postavljanje tempa za provedbu etike jer se odnose na vladinu praksu, propisi mogu biti točka spora za neke od preferiranih partnera za umjetnu inteligenciju u Kanadi, posebno poslovne tvrtke kao što su Amazon Web Services, Microsoft , i drugi.

Izvor problema

Kako bi tvrtka vladi omogućila automatizirani proces donošenja odluka, nova direktiva prisiljava tvrtku da vladi pusti svoj izvorni kod. To ima smisla u teoriji, jer se sve oslanja na koncept objašnjivosti, kako kaže Benay.

Moramo pokazati građanima kako je odluka donesena kroz algoritam, kaže. Ako dođemo do točke u kojoj, na primjer, postoji sudski spor koji uključuje tu automatiziranu odluku, možda ćemo morati otpustiti algoritam.

Ova točka spora je možda pravo srce rasprave o etičkoj umjetnoj inteligenciji. Mora postojati ravnoteža između transparentnih odluka i zaštite intelektualnog vlasništva. Ako AI tvrtka želi vladu kao klijenta, moraju shvatiti da se transparentnost cijeni iznad svega. Takvo razmišljanje moglo bi odvratiti neke izvođače.

Razmislite o tome ovako: u teoriji, ako bi Amazon ponudio AI rješenje kanadskoj vladi, jedina stvar koja dijeli svakog građanina od pristupa cijelom Amazonovom izvornom kodu – barem za taj konkretni projekt – je zahtjev za slobodom informacija. U doba pomno čuvanih rješenja s bijelim oznakama i posuđenog koda, mogućnost lakog pristupa izvornim informacijama teško je secirati. Ovi pristupi će se nadzirati od slučaja do slučaja kako bi se zaštitile poslovne tajne ili komercijalne povjerljive informacije dobavljača treće strane, ali čak i to će biti predmet tumačenja. Oni koji pristupaju tom izvornom kodu i dalje su zaštićeni autorskim pravima, ali kodom se može manipulirati dovoljno da ga zamagljuje i stvara glavobolje izvornim izdavačima.

ElementAI_Toronto_Office_Techvibes-5

Uredi Element AI u Torontu, preferiranog dobavljača umjetne inteligencije za Vladu Kanade.

To je delikatna rasprava, kaže Benay. Znam da je IP krvna loza prihoda za ove tvrtke. Ali ako namjeravate poslovati s vladom i imati izravnu interakciju s građanima, imate dodatnu odgovornost kao tvrtka iz privatnog sektora. To je ravnoteža koju moramo pronaći. Nisam siguran da smo ga pronašli. Možda jesmo, ali nastavit ćemo raditi transparentno.

Postoji samo nekoliko načina na koje će izvorni kod biti zaštićen od objavljivanja, a također se događa da se odnose na vladine odjele na koje ova nova direktiva AI neće utjecati. Zaštićeni su svi agenti parlamenta, što manje-više obuhvaća sve u području sigurnosti i natjecateljske inteligencije. U nekom trenutku u budućnosti, algoritmi i AI će se koristiti za pomoć u pronalaženju ilegalnih aktivnosti, a iz očitih razloga vlada ne može javno otkriti izvorni kod tih odluka.

Ako namjeravate poslovati s vladom i imati izravnu interakciju s građanima, imate dodatnu odgovornost kao tvrtka iz privatnog sektora.

Benay priznaje da sve oko ove direktive možda nije u konačnom obliku. Budući da se ekosustav koji uključuje umjetnu inteligenciju mijenja tako brzo, vlada se obvezuje ažurirati direktivu svakih šest mjeseci, a vlada je također u procesu uspostavljanja savjetodavnog odbora za umjetnu inteligenciju kako bi osigurala da se buduće odluke donose odgovorno.

Inače bismo imali pet, šest, čak sedam godina da proradimo ovako nešto, kaže Benay. Morali smo to riješiti mjesecima. To je vrlo novi oblik politike i perspektive upravljanja za tako brzo rješavanje problema. Ali vidite odgovor. Za naš dan AI prošle godine imali smo 125 ljudi u sobi. Za dan AI ove godine imali smo 1000.

Trendseteri

U sljedećih nekoliko godina neće nedostajati rasprava o etici i umjetnoj inteligenciji. Pravo pitanje će se okrenuti kada se ta rasprava od preventivnog djelovanja o budućnosti automatiziranih odluka pretvori u obrambenu odmazdu, pokušavajući zaštititi građane i gospodarstvo od već uspostavljenih AI rješenja. Alat kao što je AIA još nije obrambeni mehanizam, ali je najbliži onom koji je ikada razvijen.

Previše je stvari koje ne znamo, kaže Benay. Ne želite doći u poziciju u kojoj prepuštamo kontrolu nad odlukama strojevima, a da ne znamo sve o njima. Zastrašujući dio za nas diljem svijeta je to što se čini da mnoge vlade ne shvaćaju razinu automatizacije vlastitih vrijednosti koju iznose kada imaju posla s potencijalnim dobavljačima koji imaju crnu kutiju ili IP.

kanadaaa

Ima barem malo dobrih vijesti za ponijeti. Svaki član D9 razmatra hoće li implementirati kanadsku AIA, a Meksiko je to već učinio. Cilj je da što više nacija to iskoristi i razviju kolektivno povjerenje mozga iza te direktive.

Ako uspijemo dobiti pristojnu količinu zemalja da koriste ovaj alat i da ga razvijaju i njeguju, stavljamo vladu u bolju poziciju da se nosi s automatizacijom, privatnošću i svim ovim problemima koje vidite, kaže Benay. Trenutno je jako teško biti država srednje veličine u svijetu. S ovim alatom na otvorenom, druge zemlje se mogu okupiti i početi ga koristiti. To je prvi u svijetu u pristupu vlade javnog sektora AI.

To je vjerojatno naš najtransparentniji dio politike koji smo ikad razvili za administrativne politike u Sekretarijatu Uprave za riznicu.

Na lokalnoj razini, Vlada Kanade traži od svih kvalificiranih dobavljača umjetne inteligencije da javno obećaju da će raditi samo s odjelima koji su završili AIA. Nekoliko tvrtki je već preuzelo obvezu, uključujući MindBridge AI, ThinkData Works i CognitiveScale, a Benayev tim će službeno poslati pisma u roku od nekoliko tjedana.

Javna introspekcija u vezi s etikom i umjetnom inteligencijom nije ništa novo. Sredinom 2018. grupa grupa za ljudska prava i tehnologije objavio Deklaraciju iz Toronta , tražeći od svih uključenih u procese umjetne inteligencije da zadrže fokus na tome kako će te tehnologije utjecati na pojedinačna ljudska bića i ljudska prava, jer u svijetu sustava strojnog učenja, tko će snositi odgovornost za kršenje ljudskih prava? U 2017. kanadski stručnjaci za umjetnu inteligenciju podržali su a zabrana robota ubojica također, što je u biti najjednostavniji način podrške etičkoj umjetnoj inteligenciji. Francuska se nedavno pridružila Kanadi javno počiniti etičkom razumijevanju AI. Konačno, neke od najvećih kanadskih AI tvrtki, uključujući Integriraj.ai i AI element kontinuirano i glasno podržavaju sjecište etike i umjetne inteligencije.

Ne znam razumiju li svi koliko je velik problem etička strana umjetne inteligencije kada je u pitanju razumijevanje pravednosti i pristranosti, rekao je izvršni direktor i osnivač Integrate.ai Steve Irvine za Techvibes ranije ove godine. Nije da će roboti preuzeti svijet. Umjesto toga, koristit će se skupovi podataka iz povijesnih podataka koje je prikupilo mnogo tvrtki, gdje će postojati inherentna pristranost prošlosti. Bez prilagođavanja na to, riskiramo ovjekovječenje stereotipa od kojih pokušavamo napredovati desetljećima.

Kanadska objava ove direktive važan je korak prema normalizaciji toga koliko bi etika i umjetna inteligencija trebali biti duboko ukorijenjeni. S obzirom na to da su velike korporacije poput Facebooka i Googlea stalno pod nadzorom u pogledu načina na koji rukuju privatnošću i podacima – dok u isto vrijeme predvode stvaranje i širenje nekih od najupečatljivijih tehnologija na svijetu – važno je stalno razmatrati kako novi napredak u tehnologija utječe na život običnog građanina.

Vidite puno stvari u novinama o mega-korporacijama i o tome kako one odluče učiniti privatnost ili ne učiniti privatnost, kaže Benay. Nije da se borbene linije povlače oko vrijednosti, ali o ovim stvarima treba voditi duboke i teške razgovore, a sve što pokušavamo učiniti je osigurati da smo dobro pozicionirani na nacionalnoj razini kako bismo bili sigurni da smo sposobni vode te razgovore.

Kategori: Vijesti