Skip to main content
Shaping Europe’s digital future

Законодателен акт за изкуствения интелект

Законодателният акт за ИИ е първата по рода си правна рамка в областта на ИИ, която разглежда рисковете, свързани с ИИ, и поставя Европа на водеща роля в световен мащаб.

Законодателният акт за ИИ (Регламент (ЕС) 2024/1689 за определяне на хармонизирани правила относно изкуствения интелект) е първата по рода си всеобхватна правна рамка относно ИИ в световен мащаб. Целта на правилата е да се насърчи надеждният ИИ в Европа.

В Законодателния акт за ИИ се определя ясен набор от основани на риска правила за разработчиците и внедрителите на ИИ по отношение на специфичните употреби на ИИ. Законодателният акт за ИИ е част от по-широк пакет от мерки на политиката в подкрепа на разработването на надежден ИИ, който включва и пакета за иновации в областта на ИИ, стартирането на фабрики за ИИ и координирания план за ИИ. Взети заедно, тези мерки гарантират безопасността, основните права и ориентирания към човека ИИ и засилват навлизането, инвестициите и иновациите в ИИ в целия ЕС.

За да улесни прехода към новата регулаторна рамка, Комисията стартира Пакта за ИИ — доброволна инициатива, която има за цел да подкрепи бъдещото прилагане, да се ангажира със заинтересованите страни и да прикани доставчиците и внедрителите на ИИ от Европа и извън нея да спазват предварително основните задължения по Законодателния акт за ИИ. 

Защо са ни необходими правила за ИИ?

Законодателният акт за ИИ гарантира, че европейците могат да се доверят на това, което ИИ може да предложи. Въпреки че повечето системи с ИИ представляват ограничен до никакъв риск и могат да допринесат за решаването на много обществени предизвикателства, някои системи с ИИ създават рискове, с които трябва да се справим, за да избегнем нежелани резултати.

Например често не е възможно да се разбере защо дадена система с ИИ е взела решение или е направила прогноза и е предприела определено действие. Така че може да се окаже трудно да се прецени дали дадено лице е било несправедливо поставено в неравностойно положение, например при решение за наемане на работа или при кандидатстване за схема за общественополезна дейност.

Въпреки че съществуващото законодателство осигурява известна защита, то не е достатъчно за справяне със специфичните предизвикателства, които системите с ИИ могат да създадат.

Основан на риска подход

В Законодателния акт за ИИ се определят 4 нива на риск за системите с ИИ:

пирамида, показваща четирите нива на риск: Неприемлив риск; Висок риск; Ограничен риск, минимален или никакъв риск

Неприемлив риск

Всички системи с ИИ, считани за явна заплаха за безопасността, поминъка и правата на хората, са забранени. Законодателният акт за ИИ забранява осем практики, а именно:

  1. вредни манипулации и измами, основани на ИИ
  2. вредно използване на уязвимости, основани на ИИ
  3. социален рейтинг
  4. Оценка или прогнозиране на риска от отделни престъпления
  5. нецеленасочено остъргване на материали от интернет или видеонаблюдение с цел създаване или разширяване на бази данни за разпознаване на лица
  6. разпознаване на емоциите на работното място и в образователните институции
  7. биометрична категоризация за извеждане на определени защитени характеристики
  8. дистанционна биометрична идентификация в реално време за целите на правоприлагането на обществено достъпни места

Висок риск

Случаите на използване на ИИ, които могат да породят сериозни рискове за здравето, безопасността или основните права, се класифицират като високорискови. Тези случаи на високорискова употреба включват:

  • Предпазни компоненти с ИИ в критични инфраструктури (напр. транспорт), чиято повреда би могла да изложи на риск живота и здравето на гражданите
  • Решения с ИИ, използвани в образователните институции, които могат да определят достъпа до образование и хода на професионалния живот на дадено лице (напр. оценяване на изпитите)
  • Основани на ИИ защитни компоненти на продукти (напр. приложение на ИИ в хирургия с помощта на роботи)
  • Инструменти с ИИ за заетост, управление на работниците и достъп до самостоятелна заетост (напр. софтуер за сортиране на автобиографии за набиране на персонал)
  • Някои случаи на използване на ИИ, използвани за предоставяне на достъп до основни частни и публични услуги (напр. кредитни оценки, които лишават гражданите от възможност да получат заем)
  • Системи с ИИ, използвани за дистанционна биометрична идентификация, разпознаване на емоции и биометрична категоризация (напр. система с ИИ за идентифициране със задна дата на крадец от магазин)
  • Случаи на използване на ИИ в правоприлагането, които могат да попречат на основните права на хората (напр. оценка на надеждността на доказателствата)
  • Случаи на използване на ИИ в управлението на миграцията, убежището и граничния контрол (напр. автоматизирано разглеждане на заявления за издаване на визи)
  • Решения с ИИ, използвани в правораздаването и демократичните процеси (напр. решения с ИИ за изготвяне на съдебни решения)

Високорисковите системи с ИИ подлежат на строги задължения, преди да могат да бъдат пуснати на пазара:

  • адекватни системи за оценка и намаляване на риска
  • високо качество на наборите от данни, захранващи системата, за да се сведат до минимум рисковете от дискриминационни резултати
  • регистриране на дейността, за да се гарантира проследимостта на резултатите
  • подробна документация, предоставяща цялата необходима информация за системата и нейната цел, за да могат органите да оценят нейното съответствие
  • ясна и адекватна информация за внедрителя
  • подходящи мерки за човешки надзор
  • високо ниво на надеждност, киберсигурност и точност

Ограничен риск

Това се отнася до рисковете, свързани с необходимостта от прозрачност по отношение на използването на ИИ. Със Законодателния акт за ИИ се въвеждат специфични задължения за оповестяване, за да се гарантира, че хората са информирани, когато е необходимо, за да се запази доверието. Например, когато се използват системи с ИИ като чатботове, хората следва да бъдат информирани, че взаимодействат с машина, за да могат да вземат информирано решение.

Освен това доставчиците на генеративен ИИ трябва да гарантират, че генерираното от ИИ съдържание може да бъде идентифицирано. Освен това определено съдържание, генерирано от ИИ, следва да бъде ясно и видимо етикетирано, а именно дълбоки фалшификати и текст, публикувани с цел информиране на обществеността по въпроси от обществен интерес.

Минимален или никакъв риск

Законодателният акт за ИИ не въвежда правила за ИИ, които се считат за минимален или никакъв риск. По-голямата част от системите с ИИ, които понастоящем се използват в ЕС, попадат в тази категория. Това включва приложения като видеоигри с ИИ или спам филтри.

Как работи всичко това на практика за доставчиците на високорискови системи с ИИ?

Как работи всичко това на практика за доставчиците на високорискови системи с ИИ?

поетапен процес за деклариране на съответствие

След като дадена система с ИИ бъде пусната на пазара, органите отговарят за надзора на пазара, внедрителите осигуряват човешки надзор и мониторинг, а доставчиците разполагат със система за мониторинг след пускането на пазара. Доставчиците и внедрителите също ще докладват за сериозни инциденти и неизправности.

Решение за надеждно използване на големи модели на ИИ

Моделите на ИИ с общо предназначение могат да изпълняват широк спектър от задачи и се превръщат в основа за много системи с ИИ в ЕС. Някои от тези модели биха могли да носят системни рискове, ако са много способни или широко използвани. За да се гарантира безопасен и надежден ИИ, със Законодателния акт за ИИ се въвеждат правила за доставчиците на такива модели. Това включва прозрачност и правила, свързани с авторското право. За модели, които могат да носят системни рискове, доставчиците следва да оценяват и ограничават тези рискове.

Правилата на Законодателния акт за ИИ относно ИИ с общо предназначение ще влязат в сила през август 2025 г. Службата по ИИ улеснява изготвянето на кодекс за поведение с цел подробно описание на тези правила. Кодексът следва да представлява централен инструмент, чрез който доставчиците да доказват спазването на Законодателния акт за ИИ, като включва най-съвременни практики. 

Управление и изпълнение

Европейската служба за ИИ и органите на държавите членки отговарят за изпълнението, надзора и прилагането на Законодателния акт за ИИ. Съветът по ИИ, Научната група и Консултативният форум ръководят и консултират управлението на Законодателния акт за ИИ. Научете повече за управлението и прилагането на Законодателния акт за ИИ.  

Следващи стъпки

Законодателният акт за ИИ влезе в сила на 1 август 2024 г. и ще започне да се прилага изцяло 2 години по-късно, на 2 август 2026 г., с някои изключения:

  • забраните и задълженията за грамотност в областта на ИИ започнаха да се прилагат от 2 февруари 2025 г.
  • правилата за управление и задълженията за моделите на ИИ с общо предназначение започват да се прилагат от 2 август 2025 г.
  • правилата за високорисковите системи с ИИ, вградени в регулирани продукти, имат удължен преходен период до 2 август 2027 г.

Последни новини

Съдържание по темата

Обща картина

Подходът на ЕС към изкуствения интелект се основава на високи постижения и доверие, като целта е да се стимулират научните изследвания и промишленият капацитет, като същевременно се гарантират безопасността и основните права.

По-задълбочено