Nova uredba EU o veštačkoj inteligenciji: Šta je zabranjeno, a šta ne?

Propis zabranjuje sisteme veštačke inteligencije koji uzrokuju ili bi mogli da nanesu „fizičku ili psihološku“ štetu korišćenjem „subliminalnih tehnika“ ili iskorišćavanjem ranjivosti „određene grupe osoba zbog njihove starosti, fizičkog ili mentalnog invaliditeta“ ili neke druge karakteristike. Ovo je promišljen početak zakonodavnog procesa u Evropi i mogao bi se pokazati kao osnova za transatlantsku saradnju u domenu pametne tehnologije i zaštite privatnosti.

75

Uredba o veštačkoj inteligenciji (AI) zabranjuje neke modalitete upotrebe veštačke inteligencije, strogo reguliše visoko rizičnu upotrebu i blago reguliše manje rizične sisteme pametne tehnologije.

Predlog bi zahtevao od dobavljača i korisnika visoko rizičnih sistema AI da se pridržavaju pravila o podacima i upravljanju podacima; adekvatnog upravljanja dokumentacijom i vođenje evidencija; načela transparentnosti i pružanje jasnih i tačnih informacija korisnicima; vršenje kontrole; pridržavajući se obima, tačnosti i sigurnosti. Njegova glavna inovacija, telegrafisana u prošlogodišnjoj Beloj knjizi o veštačkoj inteligenciji, zahtev je za ex-ante procene usaglašenosti kako bi se utvrdilo da visoko rizični AI sistemi ispunjavaju ove zahteve pre nego što se mogu ponuditi na tržištu ili staviti u upotrebu. Dodatna važna inovacija je mandat post-market monitoring sistema za otkrivanje problema u upotrebi i njihovo ublažavanje.

Uprkos ovim inovacijama i zdravoj strukturi zasnovanoj na riziku, čini se da uredba ima iznenađujuće praznine i propuste. Nedostaje fokus na one koji su najviše pogođeni upotrebom pametne tehnologije, očigledno nedostaje bilo kakav opšti zahtev za informisanjem ljudi koji su podvrgnuti algoritamskim procenama.

Ipak, predlog je početak zakonodavnog procesa u Evropi i mogao bi se pokazati kao osnova za transatlantsku saradnju u domenu pametne tehnologije.

OBIM

Široka definicija uredbe o veštačkoj inteligenciji obuhvata softver za mašinsko učenje, stariji AI pristup zasnovan na pravilima, kao i tradicionalne statističke tehnike koje se već dugo koriste u stvaranju modela za bodovanje. Iako su korisnici AI sistema obuhvaćeni, uredba se uglavnom fokusira na dobavljače, subjekte koji razvijaju AI sistem i stavljaju ga na tržište ili ga koriste za sopstvenu upotrebu.

Nadležnost uredbe pokriva dobavljače sistema veštačke inteligencije u EU, bez obzira na to gde se pružalac usluga nalazi, kao i korisnike pametnih sistema  koji se nalaze unutar EU i dobavljače i korisnike koji se nalaze van EU. Ovaj test „efekata“ potencijalno proširuje domet zakona na kompanije bez prisustva tržišta u EU koje koriste sisteme pametne tehnologije za obradu podataka o građanima EU.

ŠTA JE ZABRANJENO A ŠTA NE?

Propis zabranjuje sisteme inteligencije koji uzrokuju ili bi mogli da nanesu „fizičku ili psihološku“ štetu korišćenjem „subliminalnih tehnika“ ili iskorišćavanjem ranjivosti „određene grupe osoba zbog njihove starosti, fizičkog ili mentalnog invaliditeta“ ili neke druge karakteristike. Zabranjuje sistemima inteligencije da pružaju socijalno bodovanje za opšte svrhe od strane javnih vlasti. Takođe onemogućava upotrebu sistema za daljinsku biometrijsku identifikaciju u stvarnom vremenu, kao što je prepoznavanje lica, u javno dostupnim prostorima u svrhu sprovođenja zakona.

Ove zabrane zvuče strogo, ali ovde ih može biti manje nego što se na prvi pogled čini. Zabrane su se fokusirale na manipulativne ili eksploatacione sisteme inteligencije za rešavanje „mračnih obrazaca“, za koje su mnoge grupe i naučnici identifikovali da imaju za cilj da prevare korisnike da donose odluke protiv njihovog najboljeg interesa – kao što je otkrivanje ličnih podataka u većoj meri nego što je potrebno za dobijanje servis usluga na mreži. Ali agencija za sprovođenje zakona moraće da utvrdi kada je sistem manipulativan, tako da efekat zabrane zavisi od budućih regulatornih mera. Zabrana socijalnog bodovanja kako kažu, stvar je optike, izjavljujući da evropske vrednosti odbacuju sisteme poput onih koji se razvijaju u Kini.

Pored toga, predložena uredba omogućila bi upotrebu udaljenih sistema biometrijske identifikacije za traženje žrtava zločina kao što su nestala deca; da spreči određenu pretnju terorističkim napadom; ili za otkrivanje, identifikovanje ili procesuiranje ozbiljnog krivičnog dela uz određene zaštite, uključujući prethodno sudsko ili administrativno odobrenje. Štaviše, čini se da se zabrana ne proteže na upotrebu zakona za prepoznavanje lica u bazama podataka prethodno prikupljenih „slika ili video zapisa“ od strane policijskih organa.

Ovi kompromisi razočaraće zagovornike građanskih sloboda, ali zadovoljiće značajnu zabrinutost država članica EU zbog unutrašnje bezbednosti i terorizma. Na primer, francuske vlasti mogu da koriste tehnologiju prepoznavanja lica za pretragu železničke stanice za osumnjičenima nakon što je severnoafrička radikalna islamska grupa zapretila da će aktivirati bombu. A uredba bi mogla da dozvoli policiji države članice da koristi prepoznavanje lica za naknadnu identifikaciju osumnjičenih, kao što je to radio FBI nakon nereda u Kapitolu.

PRAVILA ZA SISTEME VISOKOG RIZIKA AI

Visokorizični AI sistemi uključuju one koji su namenjeni za upotrebu kao bezbednosne komponente proizvoda koji su već regulisani postojećim zakonom o bezbednosti proizvoda, uključujući mašine, igračke i medicinske uređaje. Pored toga, zakonodavstvo posebno definiše određene samostalne sisteme veštačke inteligencije kao sisteme visokog rizika kada predstavljaju opasnost za zajamčena osnovna prava. Lista visokog rizika uključuje sisteme koji se koriste za sisteme daljinske biometrijske identifikacije, bezbednost u kritičnoj infrastrukturi, obrazovne svrhe ili svrhe zapošljavanja, podobnost za javne beneficije, slanje hitnih službi. Neki sistemi AI koji se koriste za sprovođenje zakona, kontrolu imigracije i sprovođenje pravde takođe se smatraju visokim rizikom.

Uredba nalaže program upravljanja koji se koristi u Sjedinjenim Državama. Uredba pravilno napominje da su ova pravila „najsavremenija za mnoge operatere“ i izvedena su iz Etičkih smernica grupe stručnjaka Evropske komisije na visokom nivou.

Pružaoci AI sistema moraju uspostaviti „odgovarajuću praksu upravljanja podacima“ i moraju koristiti skupove podataka koji su „relevantni, reprezentativni, potpuni i bez grešaka“. Neophodno je sastaviti tehničku dokumentaciju kako bi pokazali da je sistem u skladu sa pravilima. Ova dokumentacija mora da sadrži opšti opis sistema AI; njegovi glavni elementi, podatke o validaciji i ispitivanju; i informacije o njegovom radu, uključujući metrike tačnosti.

Visokorizični AI sistemi moraju biti „dovoljno transparentni da korisnicima omoguće da razumeju i kontrolišu kako visokorizični AI sistem proizvodi svoje rezultate“; moraju biti dizajnirani tako da omogućavaju korisnicima da ih „nadgledaju“ kako bi sprečili ili umanjili „potencijalne rizike“.

Uredba nalaže visokorizičnim sistemima inteligencije da „zadovolje visok nivo tačnosti koji odgovara njihovoj nameni“ i da nastave da rade na tom nivou tačnosti u upotrebi. Zahteva otpornost prema „greškama ili nedoslednostima“, kao i protiv „pokušaja promene njihove upotrebe ili performansi od strane zlonamernih trećih strana koje nameravaju da iskoriste ranjivosti sistema“.

Ključna obaveza dobavljača je da sprovedu procene usaglašenosti pokazujući da je sistem visokog rizika u skladu sa ovim pravilima. Dobavljači AI sistema koji se koriste kao bezbednosne komponente potrošačkih proizvoda, a koji su već predmet ex-ante procene usaglašenosti treće strane prema važećem zakonu o bezbednosti proizvoda, sada takođe moraju da pokažu usklađenost sa pravilima AI. Od dobavljača samostalnih sistema visokog rizika zahteva se da sami vrše interne procene, osim što nezavisne treće strane moraju da sprovode procene za upotrebu identifikacije lica.

Nakon što se visoko rizični sistem veštačke inteligencije proda ili stavi u upotrebu, dobavljači moraju uspostaviti „proporcionalni“ postmarket sistem praćenja za prikupljanje podataka o radu sistema kako bi se osiguralo njegovo „kontinuirano usklađivanje“ sa propisima i po potrebi preduzele korektivne mere.

Uredba nastoji da bude dokaz u evolucionoj tehnologiji pružajući Evropskoj komisiji delegirana ovlašćenja za ažuriranje definicije veštačke inteligencije, ažuriranje liste visoko rizičnih sistema AI i izmenu zahteva za tehničku dokumentaciju visokih tehnologija -sistemi rizika. Delegirani akti su vrsta upravnih radnji koje pokreće i kontroliše Evropska komisija i koja je proceduralno manje zahtevna od zakonodavnih promena.

PROPUSTI

Uredba na nekoliko mesta nagoveštava različitu procenu uticaja. Pravilo upravljanja podacima omogućava dobavljačima AI sistema da koriste podatke koji se odnose na osetljiva svojstva kao što su rasa, pol i etnička pripadnost kako bi se obezbedilo „praćenje pristrasnosti, otkrivanje i ispravljanje“. Pravilo robusnosti zahteva od nekih sistema inteligencije da se zaštite od „moguće pristrasnih rezultata“. Tehnička dokumentacija sistema mora sadržati „metriku koja se koristi za merenje … potencijalno diskriminatornih uticaja“ i informacije o „predvidivim neželjenim ishodima i izvorima rizika za  osnovna prava i diskriminaciju. “

Ali ove nejasne reference ne zahtevaju posebno procenu uticaja na zaštićene klase. Štaviše, dokumentaciju koja verovatno mora da sadrži procenu pristrasnosti ne treba dostavljati korisnicima, javnosti ili onima na koje mogu uticati diskriminatorni algoritmi.

Uredba ne tretira algoritme koji se koriste u društvenim mrežama, pretraživanju, mrežnoj maloprodaji, prodavnicama aplikacija, mobilnim aplikacijama ili mobilnim operativnim sistemima kao visok rizik. Moguće je da neki algoritmi koji se koriste u mehanizmima za praćenje oglasa ili preporuke mogu biti zabranjeni kao manipulativna ili eksploataciona praksa, ali za to će biti potrebna procena regulatora.

Propis je posvećen informacijama koje se moraju dostaviti ljudima koji su pogođeni sistemima inteligencije. Propis zahteva da se ljudi informišu kada „komuniciraju“ sa AI sistemom ili kada AI sistem „prepozna“ njihove emocije ili pol, rasu, etničku pripadnost ili seksualnu orijentaciju. Mora im se reći kada „deepfake“ sistemi veštački kreiraju materijal ili manipulišu njime. Ali ne i u drugim slučajevima. Na primer, ljudima ne treba reći kada se algoritamski sortiraju kako bi se utvrdilo da li imaju pravo na javne beneficije, kredit, obrazovanje ili zaposlenje.

Procena usaglašenosti je postupak, a ne dokument, i interna provera za većinu dobavljača visoko rizičnih sistema AI. Dakle, ne postoji izveštaj o reviziji koji bi javnost mogla da pregleda. Umesto toga, javnost dobija oznaku koja se postavlja na sistem AI koja ukazuje na usklađenost sa pravilima. Dobavljači sistema AI moraju da sastave „izjavu o usaglašenosti“ i da je „drže na raspolaganju“  zakonodavcima, ali čak i ova izjava o usklađenosti sa pravilima može biti uskraćena za javnost.

O ovim očiglednim nedostacima će se gotovo sigurno raspravljati i revidirati tokom kretanja zakona kroz komplikovani i dugotrajni evropski zakonodavni proces.