Strojno učenje mora poštivati ​​ljudska prava, kaže Toronto Group

Jedan od najvećih problema s kojima će se tehnologija suočiti tijekom sljedećeg desetljeća bit će kako ukloniti pristranost i usaditi jednakost i inkluzivnost unutar AI sustava.

Skupina skupina za ljudska prava i tehnologije u Torontu pokušava izići ispred problema objavom nove deklaracije u kojoj se pozivaju tehnološke tvrtke i vlade da osiguraju da sustavi strojnog učenja i umjetne inteligencije poštuju osnovna načela ljudskih prava. Deklaracija iz Toronta objavljeno je na RightsConu ovog tjedna, tražeći od uključenih da se fokusiramo na to kako će te tehnologije utjecati na pojedinačna ljudska bića i ljudska prava, jer u svijetu sustava strojnog učenja, tko će snositi odgovornost za narušavanje ljudskih prava?



U vrijeme lansiranja deklaraciju su pripremili Amnesty International i Access Now, a podržali su je Human Rights Watch i Wikimedia Foundation. Ovakva zajednička poruka prema budućnosti AI nije ništa novo, čak ni za Kanadu. Krajem prošle godine, vodeći istraživači u zemlji—uključujući Yoshuu Bengia, Geoffreyja Hintona i Doinu Precup— potpisao pismo namijenjeno premijeru Trudeauu koji traži da se zabrani korištenje umjetne inteligencije. Očito je to malo drugačije od procesa uklanjanja pristranosti, ali ideja vladanja u eksponencijalnom i nekontroliranom rastu AI je ista.



Ova nova deklaracija nada se da će izgraditi čvrst okvir za one koji rade u strojnom učenju koji će slijediti kada je u pitanju izgradnja sustava za budućnost. Preambula objašnjava kako nenadzirani sustavi strojnog učenja mogu utjecati na rast društva.

Od policije, do sustava socijalne skrbi, online diskursa i zdravstvene skrbi – da spomenemo nekoliko primjera – sustavi koji koriste tehnologije strojnog učenja mogu uvelike i brzo promijeniti ili ojačati strukture moći ili nejednakosti u neviđenim razmjerima i uz značajnu štetu po ljudska prava, stoji u deklaraciji. . Postoji sve veći broj dokaza koji pokazuju da sustavi strojnog učenja, koji mogu biti neprozirni i uključivati ​​neobjašnjive procese, mogu lako doprinijeti diskriminatornim ili na drugi način represivnim praksama ako se prihvate bez potrebnih zaštitnih mjera.



Okvir međunarodnog prava o ljudskim pravima najbolja je osnova za takvu vrstu djelovanja, navodi se u deklaraciji. To uključuje pravo na jednakost i nediskriminaciju, kao i mogućnost zaštite onih koji promiču različitost i uključenost.

Cijela deklaracija ima 11 stranica, a jedan od najzanimljivijih dijelova nalazi se na kraju pod Pravo na djelotvoran lijek.

Tvrtke i privatni subjekti koji dizajniraju i provode aplikacije za strojno učenje trebali bi poduzeti mjere kako bi osigurali da pojedinci i grupe imaju pristup smislenom lijeku i odšteti. To može uključivati, na primjer, stvaranje jasnih, neovisnih i vidljivih procesa za odštetu nakon štetnih pojedinačnih ili društvenih učinaka, te određivanje uloga u subjektu odgovornom za pravodobno rješavanje takvih problema koji su podložni pristupačnoj i učinkovitoj žalbi i sudskom preispitivanju.



Ovaj pojam kaže da bi tvrtke i organizacije uvijek trebale osigurati da postoji način da zaustave ili ponište radnje napravljene putem strojnog učenja, te da one tvrtke koje koriste strojno učenje trebaju imati posebne uloge određene za pregled i zaustavljanje napretka ako na neki način šteti društvu. .

Ova vrsta javne rasprave o etičnosti umjetne inteligencije je važna, ali je teško procijeniti hoće li donijeti mnogo stvarnih akcija. Tvrtke uključujući Google i Boeing sastale su se s dužnosnicima Bijele kuće ranije ovog mjeseca kako bi razgovarali o implikacijama umjetne inteligencije, što je rezultiralo time da je američka vlada odlučila poduzeti regulatorni pristup bez ruku. Nadamo se da se neće dogoditi ništa što će ih – ili kanadsku vladu – natjerati da se iznenada prepuste.

Kategori: Vijesti