1. Idi na sadržaj
  2. Pređi na glavni meni
  3. Idi na ostale ponude DW

Koliko slobode za veštačku inteligenciju u EU?

9. decembar 2023.

Veštačka inteligencija može da piše eseje ili da pomogne u dijagnozi bolesti, ali takođe može dovesti do dezinformacija i diskriminacije. Zato EU hoće da veštačku inteligenciju reguliše zakonom.

Ženska lica generisana veštačkom inteligencijom
Ženska lica generisana veštačkom inteligencijomFoto: Christian Ohde/picture alliance

Počelo je pre otprilike godinu dana ovom rečenicom: „Obučili smo model koji se zove ChatGPT i koji sa ljudima komunicira konverzacijom“. Ovako, prilično nerazumljivo, kompanija OpenAI je predstavila svog četbota na sopstvenoj veb stranici. Usledile su ovacije, horor scenariji i mnogo toga između. Veliko uzbuđenje oko ChatGPT-a je splasnulo, istovremeno aplikacije veštačke inteligencije postaju sve više deo svakodnevnog života, piše tagesšau, portal nemačkog javnog servisa ARD.

To se može videti i u konsultantskoj agenciji iz Majnca „Robotspaceship“, koja proizvodi i digitalne sadržaje. „Koristimo ChatGPT za razvoj koncepata za podkastove ili generatore slika za kreiranje grafičkog dizajna“, kaže vlasnik Oliver Kemann. Veštačka inteligencija može da ubrza mnoge procese, uključujući i kreativne, kaže on, ali dodaje:

„Potrebna nam je regulativa. Ali to mora da bude urađeno kako treba, ne smemo da preteramo sa regulisanjem.“

Regulativa na nivou EU – različiti nivoi rizika

Parlament EU, Evropska Komisija i države članice već mesecima pokušavaju da ostvare tu ravnotežu. Reč je o „Zakonu o veštačkoj inteligenciji" (AI Act), zakonu kojim se veštačka inteligencija reguliše na evropskom nivou. 

U suštini, „Zakon o veštačkoj inteligenciji“ ima za cilj da reguliše njenu primenu, a ne samu tehnologiju. Predviđeni su različiti nivoi rizika: zabrana, visoki rizik i ograničeni rizik.

Na primer, treba zabraniti „društveno bodovanje“ (Social Scoring) putem veštačke inteligencije, odnosno procenu građana na osnovu njihovog ponašanja u društvu. Kao „visokorizični sistemi veštačke inteligencije“ označeni su oni koji se koriste u zdravstvenom sektoru ili pri zapošljavanju. Na primer, korišćenje veštačke inteligencije za pomoć u dijagnostici bolesti ili selekciji kandidata za posao. Za aplikacije koje predstavljaju samo ograničeni rizik predviđena je obaveza transparentnosti, a za one sa minimalnim rizikom nema nikakvih posebnih obaveza.

Ovaj pristup zasnovan na riziku u principu ima smisla, kaže Sandra Vahter, profesorka tehnologije i regulative na Univerzitetu u Oksfordu. To se odnosi makar na sisteme veštačke inteligencije koji se koriste za podršku donošenju odluka. U oblastima migracija, krivičnog prava i osiguranja, na primer, mora se obezbediti da veštačka inteligencija ne diskriminiše ljude.

U nekim oblastima, međutim, „neobjašnjivost“ odluka veštačke inteligencije je manje dramatična. „Ako mi Netfliks algoritam predloži film, da li zaista moram da razumem zašto je to uradio“, pita Vahter.

S druge strane, generativna veštačka inteligencija kao što je ChatGPT, ne bi smela da bude „crna kutija“.

Problem sa osnovnim modelima veštačke inteligencije

I upravo tu je nedavno došlo do spora između institucija EU - o tome koji propisi treba da važe za takozvane - osnovne modele veštačke inteligencije - koji su obučeni sa ogromnom količinom podataka i mogu se koristiti u različite svrhe. To je neka vrsta „veštačke inteligencije za sve namene“.

Najpoznatiji primer je model „GPT 4", koji je „hranjen" tonama tekstova sa interneta i na kojem je zasnovana trenutna verzija ChatGPT.

OpenAI - ChatGPT Foto: Jonathan Raa/NurPhoto/picture alliance

Evropski parlament planirao je da „Zakonom o veštačkoj inteligenciji“, uvede sopstvena pravila za osnovne modele i, između ostalog, da ih obaveže da minimiziraju rizike po zdravlje, osnovna prava i demokratiju.

Nemačka, Francuska i Italija za princip dobrovoljnosti

Tokom pregovora, Nemačka, Francuska i Italija – verovatno ne samo zbog pritiska domaćih kompanija za veštačku inteligenciju – insistirale su da na osnovne modele ne treba da se primenjuju nikakva dodatna pravila.

Umesto toga, te tri zemlje predlažu princip dobrovoljnosti: programeri veštačke inteligencije bi, između ostalog, morali da objasne, funkcionalnost i mogućnosti svog modela u nekoj uputstva za upotrebu.

„Striktna i rigidna regulacija" osnovnih modela je problematična iz dva razloga, kaže Ralf Vintergerst, predsednik Bitkoma industrijskog udruženja Nemačke.

„Prvo, raznovrsnost upotrebe osnovne veštačke inteligencije onemogućava provajderima da efikasno procene i smanje rizik. Drugo, tehnički razvoj je brz, posebno na nivou ovih modela, tako da bi fiksna pravila u Zakonu o veštačkoj inteligenciji brzo zastarela“, kaže Vintergerst. „Obavezna samoregulacija ne znači da nema pravila. Međutim, ona moraju biti praktično izvodljiva i dinamički prilagodljiva, bez „nepotrebnih prepreka izazvanih suviše rigidnim pravilima“, dodaje Vintergerst.

Međutim, neki stručnjaci veruju da dobrovoljna obaveza nije dovoljna kada se radi o „veštačkoj inteligenciji za sve namene". „Ako tehnologija može da se koristi na tako raznolik i potencijalno štetan način, onda po definiciji spada u kategoriju visokog rizika“, kaže Sandra Vahter.

Potrebno je i jedno i drugo: transparentnost i lična odgovornost, ali i jasno definisane granice. „To je pomalo kao u supermarketu. Ako uzmem konzervu supe, važno je da na njoj jasno piše koje sastojke sadrži“, kaže Vahter, „ali moraju postojati pravila da određene stvari jednostavno ne smeju biti u supi“.

Kako protiv opasnosti od mase dezinformacija i olakšanog kriminala?

Vahter vidi posebnu opasnost u činjenici da se generativni odnosno osnovni modeli veštačke inteligencije koriste za generisanje mase dezinformacija ili kako bi se olakšao kriminal.

„Potrebno ih je tako programirati da ne može brzo da se shvati kako da se napravi bomba ili izvrši ubistvo bez tragova“, kaže Vahter. Na primer firma OpenAI, koja je stvorila ChatGPT, hoće samostalno da spreči odgovarajuće odgovore.

Takođe se mnogo diskutuje o pitanju da li sadržaj generisan veštačkom inteligencijom treba da bude obeležen digitalnim vodenim žigom, kako bi se sprečila obmana.

„To neće funkcionisati“, kaže konsultant za inovacije Oliver Keman. Takva obaveštenja o transparentnosti bi verovatno mogla isuviše lako da se uklone.

Sandra Vahter to vidi drugačije. „To je neka vrsta igre mačke i miša. Ali, uklanjanje vodenog žiga moglo bi da se svrsta kao krivično delo."

Gugl je predstavio svoju novu generativnu veštačku inteligenciju Gemini, 6.12.2023.Foto: La Nacion/ZUMA PRESS/picture alliance

Zašto je važno požuriti sa zakonom

Teško je predvideti koja će pravila EU konkretno nametnuti programerima i korisnicima veštačke inteligencije.

Raspravljalo se i o tome da li treba da postoji stepenovani proces za osnovne modele: odnosno određena pravila samo za najveće ili najmoćnije među njima.

Takođe se često čulo da zakon možda uopšte neće biti donet.

„Zakon o veštačkoj inteligenciji“ mogao bi da pomogne u stvaranju neophodnog poverenja u sisteme veštačke inteligencije, kaže predsednik Bitkoma Vintergerst. Sledeći korak je da se brzo razjasni koji će organi nadzirati poštovanje pravila.

„Ne samo zabrane, već i pravna nesigurnost može da znači da se veštačka inteligencija više neće razvijati u Evropi, već negde drugo u svetu“, kaže Vintergerst.

U svakom slučaju, vreme za donošenje „Zakona o veštačkoj inteligenciji“ ističe, ne samo zato što se tehnologija ubrzano razvija, već i zato što će juna 2024. biti izabran novi parlament Evropske unije.

Pratite nas i na Fejsbuku, preko Tvitera, na Jutjubu, kao i na našem nalogu na Instagramu.

Preskoči sledeću sekciju Više o ovoj temi

Više o ovoj temi

Prikaži više članaka