Европа наложи окончателни регулации върху изкуствения интелект

15. март 2024 | Reading Time: 1 Min

Европейският парламент прие финалните законодателни мерки, насочени към изкуствения интелект, с оглед на осигуряване на безопасността и зачитането на основните права на човека. Този нов закон има за цел да защити основните права, демокрацията, принципите на правовата държава и устойчивостта на околната среда от потенциалните заплахи, произтичащи от използването на високорисковия изкуствен интелект. Така посочват от българското представителство в ЕС.

Регламентът предвижда въвеждане на задължения за изкуствения интелект, които да бъдат базирани на потенциалните рискове, които той носи.

 

Забранени приложения

Новите правила забраняват използването на определени приложения на изкуствения интелект, които представляват заплаха за правата на гражданите. Тези забранени приложения включват системи за биометрична категоризация, базирани на чувствителни характеристики, както и безразсъдно извличане на лицеви изображения от интернет или записи от видеонаблюдение с цел създаване на бази данни за лицево разпознаване. Допълнително, новите правила забраняват системи за разпознаване на емоции на работните места и в училищата, системи за социално оценяване, прогнозиране на престъпления (на базата на профилиране или оценка на характеристики) и изкуствен интелект, който манипулира човешкото поведение или се възползва от уязвимостите на индивидите.

 

Изключения в правоприлагането

Използването на системи за биометрична идентификация от правоприлагащите органи е забранено по подразбиране, освен в изчерпателно посочени и подробни ситуации. Системите за биометрична идентификация в реално време могат да се използват само ако са спазени строги гаранции, като например ограничено време и географски обхват, и подлежат на специално съдебно или административно одобрение.

Те могат да се използват, например, за целенасочено издирване на изчезнали лица или предотвратяване на терористични атаки. Постфактум използването на такива системи) се счита за случай на високорисково използване на система с изкуствен интелект, изискващо съдебно разрешение.

 

Изисквания за прозрачност

Системите с изкуствен интелект и моделите, на които се основават, трябва да отговарят на определени изисквания за прозрачност, като спазване на законодателството на ЕО в областта на авторското право и публикуване на подробни резюмета на съдържанието, използвано за обучение на модели. Моделите на по-мощни ИИ системи с общо предназначение, които биха могли да представляват системни рискове, ще бъдат предмет на допълнителни изисквания, включително оценка на модела, оценка, оценка на риска и докладване на инциденти.

Освен това, изкуствените или манипулирани изображения и аудио или видео съдържание (deep fake) трябва да бъдат ясно отбелязани като такива.

На национално ниво ще бъдат създадени регулаторни лаборатории за провеждане на тестове в реалния свят, достъпни за публичните администрации и стартиращите компании, за разработване и обучение на нови модели на ИИ преди пускането им на пазара.

 

Ако имате нужда от счетоводни или юридически услуги, ние сме насреща:

Контакт:

ТПА България

+359 2 981 66 45/46/47
office@tpa-group.bg

ул. „Г.С. Раковски“ 128, ет.2
1000 София