Akt o umjetnoj inteligenciji prvi je pravni okvir o umjetnoj inteligenciji koji se bavi rizicima umjetne inteligencije i postavlja Europu u vodeću ulogu na globalnoj razini.
Akt o umjetnoj inteligenciji (Uredba (EU) 2024/1689 o utvrđivanju usklađenih pravila o umjetnoj inteligenciji) prvi je sveobuhvatni pravni okvir za umjetnu inteligenciju u cijelom svijetu. Cilj je pravila poticati pouzdanu umjetnu inteligenciju u Europi.
Aktom o umjetnoj inteligenciji utvrđuje se jasan skup pravila koja se temelje na riziku za razvojne programere i subjekte koji uvode umjetnu inteligenciju u pogledu određenih primjena umjetne inteligencije. Akt o umjetnoj inteligenciji dio je šireg paketa mjera politike za potporu razvoju pouzdane umjetne inteligencije, koji uključuje i Paket za inovacije u području umjetne inteligencije, pokretanje tvornica umjetne inteligencije i Koordinirani plan za umjetnu inteligenciju. Tim se mjerama zajedno jamče sigurnost, temeljna prava i antropocentrična umjetna inteligencija te jačaju prihvaćanje, ulaganja i inovacije u području umjetne inteligencije u cijelom EU-u.
Kako bi olakšala prelazak na novi regulatorni okvir, Komisija je pokrenula Pakt o umjetnoj inteligenciji, dobrovoljnu inicijativu kojom se nastoji poduprijeti buduća provedba, surađivati s dionicima i pozvati dobavljače i subjekte koji primjenjuju umjetnu inteligenciju iz Europe i izvan nje da unaprijed ispune ključne obveze iz Akta o umjetnoj inteligenciji.
Zašto su nam potrebna pravila o umjetnoj inteligenciji?
Aktom o umjetnoj inteligenciji osigurava se da Europljani mogu vjerovati onome što umjetna inteligencija nudi. Iako većina UI sustava predstavlja ograničen rizik i može doprinijeti rješavanju mnogih društvenih izazova, određeni UI sustavi stvaraju rizike koje moramo ukloniti kako bismo izbjegli neželjene ishode.
Na primjer, često nije moguće saznati zašto je UI sustav donio odluku ili predvidio i poduzeo određenu mjeru. Stoga može biti teško procijeniti je li netko bio nepravedno u nepovoljnom položaju, primjerice u odluci o zapošljavanju ili u prijavi za sustav javnih naknada.
Iako postojeće zakonodavstvo pruža određenu zaštitu, ono nije dovoljno za rješavanje posebnih izazova koje UI sustavi mogu donijeti.
Pristup koji se temelji na riziku
Aktom o umjetnoj inteligenciji definirane su četiri razine rizika za UI sustave:
Neprihvatljiv rizik
Zabranjeni su svi UI sustavi koji se smatraju jasnom prijetnjom sigurnosti, sredstvima za život i pravima ljudi. Aktom o umjetnoj inteligenciji zabranjeno je osam praksi, a to su:
- štetna manipulacija i obmana koja se temelji na umjetnoj inteligenciji
- štetno iskorištavanje ranjivosti koje se temelji na umjetnoj inteligenciji
- Socijalno bodovanje
- Procjena ili predviđanje rizika od pojedinačnog kaznenog djela
- neciljano struganje internetskog ili CCTV materijala radi stvaranja ili proširenja baza podataka za prepoznavanje lica
- prepoznavanje emocija na radnim mjestima i u obrazovnim ustanovama
- biometrijska kategorizacija kako bi se izvele određene zaštićene značajke
- daljinska biometrijska identifikacija u stvarnom vremenu za potrebe kaznenog progona na javnim mjestima
Visokorizični
Slučajevi upotrebe umjetne inteligencije koji mogu predstavljati ozbiljan rizik za zdravlje, sigurnost ili temeljna prava klasificiraju se kao visokorizični. Ti visokorizični slučajevi primjene uključuju:
- Sigurnosne komponente umjetne inteligencije u ključnim infrastrukturama (npr. promet), čiji bi neuspjeh mogao ugroziti život i zdravlje građana
- UI rješenja koja se upotrebljavaju u obrazovnim ustanovama, a koja mogu odrediti pristup obrazovanju i tijek nečijeg profesionalnog života (npr. bodovanje ispita)
- Sigurnosne komponente proizvoda koje se temelje na umjetnoj inteligenciji (npr. primjena umjetne inteligencije u kirurgiji uz pomoć robota)
- Alati umjetne inteligencije za zapošljavanje, upravljanje radnicima i pristup samozapošljavanju (npr. softver za razvrstavanje životopisa za zapošljavanje)
- Određeni slučajevi upotrebe umjetne inteligencije koji se upotrebljavaju za pružanje pristupa osnovnim privatnim i javnim uslugama (npr. kreditni bodovi kojima se građanima uskraćuje mogućnost dobivanja zajma)
- UI sustavi koji se upotrebljavaju za daljinsku biometrijsku identifikaciju, prepoznavanje emocija i biometrijsku kategorizaciju (npr. UI sustav za retroaktivnu identifikaciju trgovca)
- slučajevi upotrebe umjetne inteligencije u tijelima kaznenog progona koji mogu utjecati na temeljna prava ljudi (npr. evaluacija pouzdanosti dokaza)
- Primjeri upotrebe umjetne inteligencije u upravljanju migracijama, azilom i nadzorom državne granice (npr. automatizirano razmatranje zahtjeva za vizu)
- Rješenja umjetne inteligencije koja se upotrebljavaju u sudovanju i demokratskim procesima (npr. rješenja umjetne inteligencije za pripremu sudskih presuda)
Visokorizični UI sustavi podliježu strogim obvezama prije nego što se mogu staviti na tržište:
- odgovarajući sustavi za procjenu i ublažavanje rizika
- visoka kvaliteta skupova podataka koji se unose u sustav kako bi se rizici od diskriminirajućih ishoda sveli na najmanju moguću mjeru
- bilježenje aktivnosti kako bi se osigurala sljedivost rezultata
- detaljna dokumentacija kojom se pružaju sve potrebne informacije o sustavu i njegovoj svrsi kako bi nadležna tijela mogla ocijeniti njegovu usklađenost
- jasne i odgovarajuće informacije subjektu koji uvodi sustav
- odgovarajuće mjere ljudskog nadzora
- visoka razina otpornosti, kibersigurnosti i točnosti
Ograničeni rizik
To se odnosi na rizike povezane s potrebom za transparentnošću u pogledu upotrebe umjetne inteligencije. Aktom o umjetnoj inteligenciji uvode se posebne obveze objavljivanja kako bi se osiguralo da su ljudi informirani kada je to potrebno za očuvanje povjerenja. Na primjer, pri upotrebi UI sustava kao što su chatbotovi ljudi bi trebali biti svjesni da su u interakciji sa strojem kako bi mogli donijeti informiranu odluku.
Nadalje, dobavljači generativne umjetne inteligencije moraju osigurati da se sadržaj generiran umjetnom inteligencijom može identificirati. Povrh toga, određeni sadržaj stvoren umjetnom inteligencijom trebao bi biti jasno i vidljivo označen, odnosno uvjerljivi krivotvoreni sadržaj i tekst objavljen u svrhu informiranja javnosti o pitanjima od javnog interesa.
Minimalni rizik ili rizik bez rizika
Aktom o umjetnoj inteligenciji ne uvode se pravila za umjetnu inteligenciju koja se smatra minimalnom ili nikakvom. Velika većina UI sustava koji se trenutačno upotrebljavaju u EU-u pripada toj kategoriji. To uključuje aplikacije kao što su videoigre omogućene umjetnom inteligencijom ili filtri za neželjenu poštu.
Kako sve to funkcionira u praksi za dobavljače visokorizičnih UI sustava?
Kako sve to funkcionira u praksi za dobavljače visokorizičnih UI sustava?
Nakon što se UI sustav stavi na tržište, tijela su zadužena za nadzor tržišta, subjekti koji uvode sustav osiguravaju ljudski nadzor i praćenje, a dobavljači imaju uspostavljen sustav praćenja nakon stavljanja na tržište. Dobavljači i subjekti koji uvode sustav također će prijaviti ozbiljne incidente i neispravnosti.
Rješenje za pouzdanu uporabu velikih modela umjetne inteligencije
UI modeli opće namjene mogu obavljati širok raspon zadaća i postaju osnova za mnoge UI sustave u EU-u. Neki od tih modela mogli bi nositi sistemske rizike ako su vrlo sposobni ili se u velikoj mjeri upotrebljavaju. Kako bi se osigurala sigurna i pouzdana umjetna inteligencija, Aktom o umjetnoj inteligenciji utvrđuju se pravila za dobavljače takvih modela. To uključuje pravila o transparentnosti i autorskom pravu. Kad je riječ o modelima koji mogu nositi sistemske rizike, pružatelji bi trebali procijeniti i ublažiti te rizike.
Pravila iz Akta o umjetnoj inteligenciji opće namjene stupit će na snagu u kolovozu 2025. Ured za umjetnu inteligenciju olakšava izradu kodeksa prakse kako bi se detaljno utvrdila ta pravila. Kodeks bi trebao biti središnji alat kojim dobavljači mogu dokazati usklađenost s Aktom o umjetnoj inteligenciji i uključivati najsuvremenije prakse.
Upravljanje i provedba
Europski ured za umjetnu inteligenciju i tijela država članica odgovorni su za provedbu, nadzor i provedbu Akta o umjetnoj inteligenciji. Odbor za umjetnu inteligenciju, Znanstveni odbor i Savjetodavni forum usmjeravaju i savjetuju upravljanje Aktom o umjetnoj inteligenciji. Saznajte više o upravljanju Aktom o umjetnoj inteligenciji i njegovoj provedbi.
Sljedeći koraci
Akt o umjetnoj inteligenciji stupio je na snagu 1. kolovoza 2024., a u potpunosti će se primjenjivati dvije godine kasnije, 2. kolovoza 2026., uz neke iznimke:
- zabrane i obveze pismenosti u području umjetne inteligencije počele su se primjenjivati od 2. veljače 2025.
- pravila upravljanja i obveze za UI modele opće namjene počinju se primjenjivati 2. kolovoza 2025.
- pravila za visokorizične UI sustave ugrađene u regulirane proizvode imaju produljeno prijelazno razdoblje do 2. kolovoza 2027.
Najnovije vijesti
Politika i zakonodavstvo
Izvješće/studija
- 16-06-2025Digitalno desetljeće 2025. Digitalizacija poslovanja u državama članicama EU-a
- 12-05-2025Europska komisija objavila analizu povratnih informacija dionika o definicijama umjetne inteligencije i javnim savjetovanjima o zabranjenim praksama
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
Informativni članak / infografika
Povezani sadržaj
Šira slika
Dublji pogled
-
Europski ured za umjetnu inteligenciju i nacionalna tijela za nadzor tržišta odgovorni su za...
-
Komisija nastoji povećati broj stručnjaka za umjetnu inteligenciju osposobljavanjem i privlačenjem...