Naujoji Kanados federalinė direktyva paverčia etišką AI nacionaline problema

Tobuloje technologijų ir valstybės tarnybos sankirtoje kiekvienas vyriausybinis procesas bus automatizuotas, supaprastinantis naudą, rezultatus ir pritaikymą kiekvienam piliečiui skaitmeniniu būdu įgalintoje šalyje.



Taikant šį metodą atsiranda didelis protokolo sluoksnis, būtinas siekiant užtikrinti, kad piliečiai jaustųsi įgalioti priimti sprendimus ir kaip jų vyriausybė sprendžia poreikius iš skaitmeninės perspektyvos. Šiuo metu Kanada pirmauja pasaulyje dirbtinio intelekto srityje, daugiausia dėl didžiulių vyriausybės investicijų, tokių kaip Visos Kanados dirbtinio intelekto strategija . Šiuo metu auganti sritis yra plačiai paplitusi – vargu ar yra pramonės, kurios ji nebūtų sutrikdyta, nuo kasybos iki teisinės pagalbos. Vyriausybė nesiskiria. Tiesą sakant, vyriausybė gali būti vienas iš akivaizdžiausių pasirinkimų, kur automatizuoti sprendimų priėmimo procesai gali sutaupyti laiko ir pinigų.



Dilema, kylanti vyriausybei priėmus dirbtinį intelektą, yra problemų, susijusių su tuo, kaip bet kuri organizacija priima klestinčią technologiją, padaugėjimas: kaip užtikrinti, kad ši AI platforma ar paslauga sąžiningai ir tinkamai patenkintų klientų poreikius? Tokia įmonė kaip „Facebook“ naudoja dirbtinį intelektą dėl daugelio priežasčių, pavyzdžiui, dėl skelbimų taikymo ar veido atpažinimo nuotraukose. Žinoma, dėl jų algoritmų naujienų kanale gali pasirodyti siaubingai tikslūs skelbimai, tačiau jų mašininio mokymosi sprendimų etika iš tikrųjų paveikia tik asmens privatumą arba jo trūkumą pastaraisiais metais.

canada_ai 5

Kita vertus, vyriausybė, pradėjusi taikyti naujas technologijas, tokias kaip AI, turi atsižvelgti į daugybę detalių. Žinoma, vyriausybės rūpinasi privatumu, bet taip pat rūpinasi sveikatos apsauga, imigracija, nusikalstama veikla ir kt. Taigi jų problema yra mažiau susijusi su kokiu AI sprendimu turėtume naudoti? ir daugiau apie Kurių neturėtume naudoti?



AI platformos, kurių vyriausybė negali paliesti, yra tos, kurios yra mažai skaidrios arba visiškai nepermatomos ir yra perpildytos šališkumo ir netikrumo. Jei vyriausybės sprendimas priimamas automatizuotu procesu, pilietis turi teisę suprasti, kaip toks sprendimas buvo priimtas. Negali būti jokios IP apsaugos ir griežtai saugomo šaltinio kodo. Pavyzdžiui, jei prašytojui dėl galimo kriminalinio malonės atleidimo atsisakoma dirbtinio intelekto sistema, parengta remiantis istoriniais duomenimis, tas pareiškėjas nusipelno tiksliai suprasti, kodėl jis galėjo būti atmestas.

Kanados vyriausybės sprendimas šiuo klausimu yra direktyva dėl automatizuoto sprendimų priėmimo, paskelbta anksčiau šią savaitę. Užsiminė apie 2018 metų pabaigoje tuometinio skaitmeninės vyriausybės ministro Scotto Brisono, tai vadovas, kuriame aprašoma, kaip vyriausybė naudos dirbtinį intelektą, kad priimdama sprendimus keliuose departamentuose. Direktyvos esmė yra Algoritminio poveikio vertinimas (AIA), įrankis, kuris tiksliai nustato, kokio žmogaus įsikišimo, tarpusavio peržiūros, stebėjimo ir nenumatytų atvejų planavimo reikės dirbtinio intelekto įrankiui, sukurtam tarnauti piliečiams.

Mašinos etikos vadovas



Kanados vyriausybės kelias diegti etinę praktiką savo AI sprendimų priėmimo procesuose prasidėjo maždaug prieš 14 mėnesių, kai Michaelas Karlinas, Nacionalinės gynybos departamento duomenų politikos vadovas, pastebėjo akląją dėmę, kaip vyriausybė tvarko jų duomenis. Buvo suformuota komanda, kuri sukūrė sistemą, ir ji išaugo iš ten, dirbdama visiškai atvirai per tokias platformas kaip „GitHub“ ir gaudama atsiliepimų iš privačių įmonių, kitų vyriausybių ir aukštųjų mokyklų, tokių kaip MIT ir Oksfordas.

Kai ši komanda, kuriai dabar vadovauja Kanados vyriausiasis informacijos pareigūnas Alexas Benay, apsižvalgė po kitas vyriausybes, jos suprato, kad nėra įrankio, kuris galėtų tiksliai įvertinti automatinio proceso poveikį piliečiams, kuriems jis buvo sukurtas. Akivaizdu, kad yra būdinga rizika, priklausomai nuo to, kaip dirbtinis intelektas veikia su savo klientais – kai kurios iš jų yra pigios, o kitos yra labai svarbios.

Jei pokalbių robotas jums praneš, kad čiuožykla atidaryta, o jūs pasirodote, o ji nėra atidaryta, o pokalbių robotas buvo neteisingas, tai yra maža rizika, aiškina Benay. Bet jei ketinate automatizuoti sprendimus dėl imigracijos, tai yra tokia didelė rizika, kokią tik galime gauti.



Naujai paskelbtoje direktyvoje ši rizika įvertinama kiekybiškai ir siūloma AIA kaip priemonė įmonėms, kuriančioms AI vyriausybės sprendimus, kurie tiksliai nustato, kokios intervencijos joms gali prireikti. Įmonės prisijungia prie AIA internetu ir užpildo daugiau nei 60 klausimų apie savo platformą apklausą, o kai baigs, jos bus grąžintos su poveikio lygiu. Apklausoje užduodami klausimai, pavyzdžiui, Ar sistema leidžia nepaisyti žmogaus sprendimų? ir Ar yra sukurtas procesas, leidžiantis dokumentuoti, kaip duomenų kokybės problemos buvo išspręstos projektavimo proceso metu?

Dar du pavyzdiniai klausimai iš AIA.

DI platformos, su kuria susitarė vyriausybė, poveikio lygis yra nuo vieno iki ketvirto. Kuo aukštesnis rangas, tuo didesnį poveikį automatizuotas sprendimų priėmimo procesas daro asmenų ir bendruomenių teisėms, sveikatai ir ekonominiams interesams. Pavyzdžiui, procesai, kurių metu priimami sprendimai, susiję su nusikalstama veikla ar asmens galimybėmis išvykti ir įvažiuoti į šalį, bus nedelsiant įvertinti trijų ar keturių poveikio lygiu.

Esant tam tikram poveikio lygiui, turi būti įvairių formų įsikišimas. Jei automatizuotam sprendimų priėmimo procesui bus atliktas ketvirto lygio poveikio vertinimas, reikės dviejų nepriklausomų kolegų peržiūrų, viešo pranešimo paprasta kalba, žmogaus įsikišimo ir pakartotinai rengiamų sistemos mokymo kursų.

AIA įvertinimas iš tikrųjų yra įrankis, parodantis jūsų sunkumo lygį ir tai, kaip turėtumėte spręsti problemą, sako Benay. Tikriausiai jums nereikia tarpusavio peržiūros dėl šios čiuožyklos problemos, bet tikrai reikės tarpusavio peržiūros grupės, kad galėtumėte automatizuoti sienas ar socialines paslaugas.

Nepaisant to, kad dėl šios direktyvos gali atrodyti, kad vyriausybė daro viską, ką gali, kad pasiruoštų technologijų sutrikimo puolimui, iš tikrųjų yra visiškai priešingai. Kalbant apie tokias niuansines temas kaip etika ir AI, svarbiausias vyriausybės prioritetas yra skaidrumas ir atskaitomybė.

Tai, ką mes stengiamės padaryti su AIA, yra užtikrinti, kad žmonės išliktų kontroliuojami, kad galėtų apskųsti sprendimus.

Ko mes nenorime, tai juodosios dėžės algoritmas iš įmonės, kuri nenori mums pasakyti, kaip šis algoritmas priėmė sprendimą, sako Benay. Tai nėra kažkas, ko galime laikytis naudodamiesi paslaugų požiūriu, kai žmonės turėtų kreiptis į teismą, jei jų gauta paslauga buvo neteisinga.

Pati AIA yra didelis laimėjimas ne tik Kanados, bet ir viso pasaulio vyriausybėms. Tai pirmasis tokio pobūdžio įrankis, kurį prieš keturis mėnesius priėmė Meksika, nors iki šios savaitės jis net nebuvo oficialiai išleistas. Benay ir jo komanda derasi su keliais nariais D9 įskaitant Portugaliją ir JK, kai jos ketina įdiegti įrankį.

Kad ir kaip svarbu direktyva ir AIA nustatyti etikos įgyvendinimo tempą, susijusį su vyriausybės praktika, taisyklės gali sukelti ginčų kai kuriems Kanados pirmenybę teikiantiems dirbtinio intelekto partneriams, ypač įmonėms, tokioms kaip „Amazon Web Services“, „Microsoft“. , ir kiti.

Problemos šaltinis

Kad įmonė vyriausybei galėtų teikti automatizuotą sprendimų priėmimo procesą, naujoji direktyva verčia bendrovę išleisti šaltinio kodą vyriausybei. Teoriškai tai prasminga, nes visa tai priklauso nuo paaiškinamumo sampratos, kaip teigia Benay.

Jis sako, kad turime parodyti piliečiams, kaip sprendimas buvo priimtas naudojant algoritmą. Jei pasieksime tašką, kai, pavyzdžiui, yra teismo byla, susijusi su tuo automatizuotu sprendimu, mums gali tekti paleisti algoritmą.

Šis ginčo taškas galbūt yra tikroji etinio AI diskusijos esmė. Turi būti pusiausvyra tarp skaidrių sprendimų ir intelektinės nuosavybės apsaugos. Jei dirbtinio intelekto įmonė nori, kad vyriausybė būtų klientas, ji turi suprasti, kad skaidrumas yra vertinamas visų pirma. Toks mąstymas gali atbaidyti kai kuriuos rangovus.

Pagalvokite apie tai taip: teoriškai, jei „Amazon“ Kanados vyriausybei pasiūlytų dirbtinio intelekto sprendimą, vienintelis dalykas, atskiriantis bet kurį pilietį nuo prieigos prie viso „Amazon“ šaltinio kodo (bent jau tam konkrečiam projektui), yra informacijos užklausa. Atidžiai saugomų sprendimų ir pasiskolinto kodo amžiuje galimybė lengvai pasiekti šaltinio informaciją yra sudėtinga problema. Šios prieigos bus stebimos kiekvienu konkrečiu atveju, siekiant apsaugoti trečiosios šalies tiekėjo komercines paslaptis arba komercinę konfidencialią informaciją, tačiau net ir tai bus interpretuojama. Tie, kurie pasiekia tą šaltinio kodą, vis dar yra saugomi autorių teisių, tačiau kodu galima pakankamai manipuliuoti, kad jį sujauktų ir kiltų galvos skausmas originaliems leidėjams.

ElementAI_Toronto_Office_Techvibes-5

„Element AI“ – Kanados vyriausybės pageidaujamo AI pardavėjo – biurai Toronte.

Tai subtili diskusija, sako Benay. Žinau, kad IP yra šių įmonių pajamų šaltinis. Bet jei ketinate užsiimti verslu su vyriausybe ir tiesiogiai bendrauti su piliečiais, prisidėjote atsakomybės kaip privataus sektoriaus įmonė. Tai pusiausvyra, kurią turime rasti. Nesu tikras, ar radome. Galbūt ir padarėme, bet ir toliau dirbsime skaidriai.

Yra tik keli būdai, kaip šaltinio kodas bus apsaugotas nuo išleidimo, ir jie taip pat yra susiję su vyriausybiniais departamentais, ši nauja DI direktyva neturės įtakos. Visi parlamento agentai yra apsaugoti, o tai daugiau ar mažiau apima viską saugumo ir konkurencinės žvalgybos srityje. Ateityje algoritmai ir dirbtinis intelektas bus naudojami siekiant padėti atsekti nelegalią veiklą, o dėl akivaizdžių priežasčių vyriausybė negali viešai atskleisti tų sprendimų šaltinio kodo.

Jei ketinate bendradarbiauti su vyriausybe ir tiesiogiai bendraujate su piliečiais, prisidėjote atsakomybės kaip privataus sektoriaus įmonė.

Benay pripažįsta, kad viskas, kas susiję su šia direktyva, gali būti ne galutinės formos. Kadangi ekosistema, apimanti dirbtinį intelektą, keičiasi taip greitai, vyriausybė įsipareigoja atnaujinti direktyvą kas šešis mėnesius, o vyriausybė taip pat steigia DI patariamąją tarybą, kuri užtikrintų, kad būsimi sprendimai būtų priimami atsakingai.

Paprastai mes turėtume penkerius, šešerius ar net septynerius metus dirbti kažką panašaus, sako Benay. Mes turėjome tai dirbti kelis mėnesius. Tai labai nauja politikos ir valdymo perspektyvos forma, leidžianti greitai išspręsti problemas. Bet jūs matote atsakymą. Praėjusiais metais mūsų AI dieną kambaryje buvo 125 žmonės. Šių metų DI dieną turėjome 1000.

Tendencijos kūrėjai

Per ateinančius kelerius metus netrūks diskusijų apie etiką ir dirbtinį intelektą. Tikrasis klausimas suksis aplinkui, kai ši diskusija pavirs nuo prevencinių veiksmų dėl automatizuotų sprendimų ateities prie gynybinio atsakomųjų veiksmų, bandant apsaugoti piliečius ir ekonomiką nuo jau sukurtų dirbtinio intelekto sprendimų. Toks įrankis kaip AIA dar nėra gynybinis mechanizmas, bet yra toks pat panašus į tą, kuris kada nors buvo sukurtas.

Yra per daug dalykų, kurių mes nežinome, sako Benay. Nenorite atsidurti tokioje padėtyje, kai sprendimų kontrolę perduodame mašinoms, nieko apie jas nežinodami. Visame pasaulyje baisu yra tai, kad daugelis vyriausybių nesuvokia savo vertybių automatizavimo lygio, kurį jos siūlo bendraudamos su potencialiais pardavėjais, turinčiais juodosios dėžės kodą arba IP.

kanadaaa

Yra bent šiek tiek gerų naujienų. Kiekvienas D9 narys svarsto, ar įgyvendinti Kanados AIA, o Meksika tai jau padarė. Siekiama, kad kuo daugiau tautų naudotųsi šia direktyva ir sukurtų kolektyvinį intelektualinį fondą.

Jei galime pasiekti, kad nemažai šalių naudotųsi šiuo įrankiu ir jį augintų bei puoselėtų, suteiksime vyriausybei geresnes galimybes spręsti automatizavimo, privatumo ir visas šias problemas, kurias matote, sako Benay. Šiuo metu labai sunku būti vidutinio dydžio pasaulio šalimi. Kai šis įrankis yra atviras, kitos šalys gali prisijungti prie jo ir pradėti jį naudoti. Tai pirmasis pasaulyje viešojo sektoriaus vyriausybės požiūris į AI.

Tai turbūt pati skaidriausia mūsų politikos dalis, kurią mes kada nors sukūrėme Iždo valdybos sekretoriato administracinei politikai.

Vietiniu lygmeniu Kanados vyriausybė prašo visų kvalifikuotų AI pardavėjų viešai pasižadėti, kad jie dirbs tik su AIA baigusiais departamentais. Kelios įmonės jau prisiėmė įsipareigojimą, įskaitant MindBridge AI, ThinkData Works ir CognitiveScale, o Benay komanda oficialiai išsiųs laiškus per kelias savaites.

Vieša savistaba, susijusi su etika ir dirbtiniu intelektu, nėra jokia naujiena. 2018 metų viduryje grupė žmogaus teisių ir technologijų grupių paskelbė Toronto deklaraciją , prašydami visų, susijusių su AI procesais, sutelkti dėmesį į tai, kaip šios technologijos paveiks atskirus žmones ir žmogaus teises, nes mašininio mokymosi sistemų pasaulyje kas prisiims atsakomybę už žmogaus teisių pažeidimą? 2017 metais Kanados AI ekspertai palaikė a uždrausti robotus žudikus taip pat, o tai iš esmės yra paprasčiausias būdas palaikyti etišką AI. Prancūzija neseniai prisijungė prie Kanados viešai įsipareigoti etiniam AI supratimui. Galiausiai, kai kurios didžiausios Kanados AI firmos, įskaitant Integruoti.ai ir AI elementas nuolat ir garsiai palaiko etikos ir AI sankirtą.

Nežinau, ar visi supranta, kokia didelė problema yra etinė AI pusė, kai reikia suprasti sąžiningumą ir šališkumą, anksčiau šiais metais Techvibes sakė Integrate.ai generalinis direktorius ir įkūrėjas Steve'as Irvine'as. Ne tai, kad robotai užvaldys pasaulį. Vietoj to, bus naudojami duomenų rinkiniai iš istorinių duomenų, kuriuos surinko daug įmonių, kur bus būdingas praeities šališkumas. Neprisitaikę prie to rizikuojame įamžinti stereotipus, kurių bandėme atsikratyti dešimtmečius.

Kanados paskelbimas apie šią direktyvą yra svarbus žingsnis normalizuojant etikos ir AI įsišaknijimą. Kadangi didžiulės korporacijos, pvz., „Facebook“ ir „Google“, yra nuolatos tikrinamos, kaip jos tvarko privatumą ir duomenis, o tuo pačiu vadovauja kai kurių įtakingiausių pasaulyje technologijų kūrimui ir platinimui, todėl svarbu nuolat svarstyti, kaip technologijos daro įtaką įprasto piliečio gyvenimui.

Jūs matote daugybę dalykų laikraščiuose apie didžiules korporacijas ir apie tai, kaip jos pasirenka privatumą ar ne, sako Benay. Ne tai, kad kovos linijos būtų brėžiamos dėl vertybių, tačiau dėl šių dalykų vyksta gilūs ir sunkūs pokalbiai, ir viskas, ką mes stengiamės padaryti, yra užtikrinti, kad esame geros pozicijos nacionaliniu mastu, kad įsitikintume, jog esame pajėgūs. turėdamas tuos pokalbius.

Kategori: Žinios