Skip to main content
Shaping Europe’s digital future

Akt o umelej inteligencii

Akt o umelej inteligencii je vôbec prvým právnym rámcom pre umelú inteligenciu, ktorý rieši riziká umelej inteligencie a stavia Európu do vedúcej úlohy na celom svete.

Akt o umelej inteligencii [nariadenie (EÚ) 2024/1689, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie] je vôbec prvým komplexným právnym rámcom pre umelú inteligenciu na celom svete. Cieľom pravidiel je podporiť dôveryhodnú umelú inteligenciu v Európe.

V akte o umelej inteligencii sa stanovuje jasný súbor pravidiel založených na riziku pre vývojárov a nasadzujúce subjekty umelej inteligencie, pokiaľ ide o konkrétne použitia umelej inteligencie. Akt o umelej inteligencii je súčasťou širšieho balíka politických opatrení na podporu rozvoja dôveryhodnej umelej inteligencie, ktorý zahŕňa aj inovačný balík v oblasti umelej inteligencie, spustenie tovární na umelú inteligenciu a koordinovaný plán v oblasti umelej inteligencie. Tieto opatrenia spoločne zaručujú bezpečnosť, základné práva a umelú inteligenciu zameranú na človeka a posilňujú zavádzanie, investície a inovácie v oblasti umelej inteligencie v celej EÚ.

S cieľom uľahčiť prechod na nový regulačný rámec Komisia spustila pakt o umelej inteligencii, dobrovoľnú iniciatívu, ktorej cieľom je podporiť budúce vykonávanie, spolupracovať so zainteresovanými stranami a vyzvať poskytovateľov umelej inteligencie a nasadzujúce subjekty z Európy aj mimo nej, aby včas splnili kľúčové povinnosti aktu o umelej inteligencii. 

Prečo potrebujeme pravidlá pre umelú inteligenciu?

Aktom o umelej inteligencii sa zabezpečuje, aby Európania mohli dôverovať tomu, čo umelá inteligencia ponúka. Hoci väčšina systémov umelej inteligencie nepredstavuje žiadne riziko a môže prispieť k riešeniu mnohých spoločenských výziev, niektoré systémy umelej inteligencie vytvárajú riziká, ktoré musíme riešiť, aby sme sa vyhli nežiaducim výsledkom.

Často napríklad nie je možné zistiť, prečo systém umelej inteligencie prijal rozhodnutie alebo predpoveď a prijal konkrétne opatrenie. Preto môže byť ťažké posúdiť, či bol niekto nespravodlivo znevýhodnený, napríklad v rozhodnutí o prijatí do zamestnania alebo v žiadosti o systém verejných dávok.

Hoci existujúce právne predpisy poskytujú určitú ochranu, nepostačujú na riešenie osobitných výziev, ktoré môžu systémy umelej inteligencie priniesť.

Prístup založený na riziku

V akte o umelej inteligencii sa vymedzujú štyri úrovne rizika pre systémy umelej inteligencie:

Pyramída znázorňujúca štyri úrovne rizika: neprijateľné riziko; vysokorizikové; obmedzené riziko, minimálne alebo žiadne riziko

Neprijateľné riziko

Všetky systémy umelej inteligencie, ktoré sa považujú za jasnú hrozbu pre bezpečnosť, živobytie a práva ľudí, sú zakázané. V akte o umelej inteligencii sa zakazuje osem praktík, konkrétne:

  1. škodlivá manipulácia a klamanie založené na umelej inteligencii
  2. škodlivé využívanie zraniteľností založené na umelej inteligencii
  3. sociálne bodovanie
  4. Posúdenie alebo predpoveď rizika individuálneho trestného činu
  5. necielené škrabanie internetového materiálu alebo materiálu CCTV na vytvorenie alebo rozšírenie databáz rozpoznávania tváre
  6. rozpoznávanie emócií na pracoviskách a vo vzdelávacích inštitúciách
  7. biometrická kategorizácia na odvodenie určitých chránených charakteristík
  8. diaľková biometrická identifikácia v reálnom čase na účely presadzovania práva vo verejne prístupných priestoroch

Vysoké riziko

Prípady použitia umelej inteligencie, ktoré môžu predstavovať vážne riziká pre zdravie, bezpečnosť alebo základné práva, sa klasifikujú ako vysokorizikové. Medzi tieto vysokorizikové prípady použitia patria:

  • Bezpečnostné komponenty umelej inteligencie v kritických infraštruktúrach (napr. v doprave), ktorých zlyhanie by mohlo ohroziť život a zdravie občanov
  • Riešenia umelej inteligencie používané vo vzdelávacích inštitúciách, ktoré môžu určovať prístup k vzdelávaniu a priebeh profesionálneho života osoby (napr. bodovanie skúšok)
  • Bezpečnostné komponenty výrobkov založené na umelej inteligencii (napr. aplikácia umelej inteligencie v robotickej chirurgii)
  • Nástroje umelej inteligencie na zamestnávanie, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti (napr. softvér na triedenie životopisov na účely náboru)
  • Niektoré prípady použitia umelej inteligencie využívané na poskytovanie prístupu k základným súkromným a verejným službám (napr. bodové hodnotenie úverov, ktorým sa občanom odopiera možnosť získať úver)
  • systémy umelej inteligencie používané na diaľkovú biometrickú identifikáciu, rozpoznávanie emócií a biometrickú kategorizáciu (napr. systém umelej inteligencie na spätnú identifikáciu obchodníka)
  • Prípady použitia umelej inteligencie pri presadzovaní práva, ktoré môžu zasahovať do základných práv ľudí (napr. hodnotenie spoľahlivosti dôkazov)
  • Prípady použitia umelej inteligencie pri riadení migrácie, azylu a kontroly hraníc (napr. automatizované preskúmanie žiadostí o víza)
  • Riešenia umelej inteligencie používané pri výkone spravodlivosti a demokratických procesov (napr. riešenia umelej inteligencie na prípravu súdnych rozhodnutí)

Vysokorizikové systémy umelej inteligencie podliehajú pred uvedením na trh prísnym povinnostiam:

  • primerané systémy hodnotenia a zmierňovania rizika
  • vysoká kvalita súborov údajov vstupujúcich do systému s cieľom minimalizovať riziká diskriminačných výsledkov
  • zaznamenávanie činnosti s cieľom zabezpečiť vysledovateľnosť výsledkov
  • podrobnú dokumentáciu poskytujúcu všetky potrebné informácie o systéme a jeho účele pre orgány na posúdenie jeho súladu
  • jasné a primerané informácie pre nasadzujúci subjekt
  • primerané opatrenia ľudského dohľadu
  • vysoká úroveň spoľahlivosti, kybernetickej bezpečnosti a presnosti

Obmedzené riziko

Týka sa to rizík spojených s potrebou transparentnosti v súvislosti s používaním umelej inteligencie. Aktom o umelej inteligencii sa zavádzajú osobitné povinnosti zverejňovania s cieľom zabezpečiť, aby boli ľudia informovaní, keď je to potrebné na zachovanie dôvery. Napríklad pri používaní systémov umelej inteligencie, ako sú chatboty, by ľudia mali byť informovaní o tom, že komunikujú so strojom, aby mohli prijať informované rozhodnutie.

Poskytovatelia generatívnej umelej inteligencie musia okrem toho zabezpečiť, aby bol obsah vytvorený umelou inteligenciou identifikovateľný. Okrem toho by mal byť určitý obsah vytvorený umelou inteligenciou jasne a viditeľne označený, konkrétne deepfakes a text uverejnený s cieľom informovať verejnosť o záležitostiach verejného záujmu.

Minimálne alebo žiadne riziko

Aktom o umelej inteligencii sa nezavádzajú pravidlá pre umelú inteligenciu, ktorá sa považuje za minimálne alebo žiadne riziko. Do tejto kategórie patrí prevažná väčšina systémov umelej inteligencie, ktoré sa v súčasnosti používajú v EÚ. Patria sem aplikácie, ako sú videohry s podporou umelej inteligencie alebo spamové filtre.

Ako to všetko funguje v praxi pre poskytovateľov vysokorizikových systémov umelej inteligencie?

Ako to všetko funguje v praxi pre poskytovateľov vysokorizikových systémov umelej inteligencie?

postupný postup vyhlásenia o zhode

Po uvedení systému umelej inteligencie na trh sú za dohľad nad trhom zodpovedné orgány, nasadzujúce subjekty zabezpečujú ľudský dohľad a monitorovanie a poskytovatelia majú zavedený systém monitorovania po uvedení na trh. Poskytovatelia a nasadzujúce subjekty budú takisto nahlasovať závažné incidenty a poruchy.

Riešenie pre dôveryhodné používanie veľkých modelov umelej inteligencie

Modely umelej inteligencie na všeobecné účely môžu plniť širokú škálu úloh a stávajú sa základom pre mnohé systémy umelej inteligencie v EÚ. Niektoré z týchto modelov by mohli predstavovať systémové riziká, ak sú veľmi schopné alebo široko používané. S cieľom zaistiť bezpečnú a dôveryhodnú umelú inteligenciu sa v akte o umelej inteligencii zavádzajú pravidlá pre poskytovateľov takýchto modelov. To zahŕňa transparentnosť a pravidlá súvisiace s autorskými právami. V prípade modelov, ktoré môžu niesť systémové riziká, by poskytovatelia mali tieto riziká posúdiť a zmierniť.

Pravidlá aktu o umelej inteligencii týkajúce sa umelej inteligencie na všeobecné účely nadobudnú účinnosť v auguste 2025. Úrad pre umelú inteligenciu uľahčuje vypracovanie kódexu postupov s cieľom podrobne opísať tieto pravidlá. Kódex by mal predstavovať centrálny nástroj pre poskytovateľov na preukázanie súladu s aktom o umelej inteligencii, ktorý zahŕňa najmodernejšie postupy. 

Riadenie a vykonávanie

Európsky úrad pre umelú inteligenciu a orgány členských štátov sú zodpovedné za vykonávanie aktu o umelej inteligencii, dohľad nad ním a jeho presadzovanie. Rada pre umelú inteligenciu, vedecká skupina a poradné fórum riadia a poskytujú poradenstvo v oblasti riadenia aktu o umelej inteligencii. Viac informácií o riadení a presadzovaní aktu o umelej inteligencii.  

Ďalšie kroky

Akt o umelej inteligencii nadobudol účinnosť 1. augusta 2024 a v plnej miere sa začne uplatňovať o dva roky neskôr, 2. augusta 2026, s niekoľkými výnimkami:

  • zákazy a povinnosti týkajúce sa gramotnosti v oblasti umelej inteligencie sa začali uplatňovať od 2. februára 2025
  • pravidlá riadenia a povinnosti týkajúce sa modelov AI na všeobecné účely sa začnú uplatňovať 2. augusta 2025
  • pravidlá pre vysokorizikové systémy umelej inteligencie – zabudované do regulovaných výrobkov – majú predĺžené prechodné obdobie do 2. augusta 2027

Najnovšie správy

Súvisiaci obsah

Širšia perspektíva

Prístup EÚ k umelej inteligencii sa sústreďuje na excelentnosť a dôveru s cieľom posilniť výskumnú a priemyselnú kapacitu a zároveň zaistiť bezpečnosť a základné práva.

Hlbší pohľad