"Пропозиція щодо РЕГЛАМЕНТУ ЄВРОПЕЙСЬКОГО ПАРЛАМЕНТУ ТА РАДИ, що встановлює узгоджені правила у сфері штучного інтелекту (Закон про штучний інтелект) та вносить зміни до деяких законодавчих актів Європейського Союзу"
Цей нормативний акт[6], запропонований 21 квітня 2021 року Європейською комісією, метою якого є запровадження спільної нормативно-правової бази для штучного інтелекту (ШІ).[7] Його сфера дії охоплює всі сектори (за винятком військового) та всі типи штучного інтелекту. Як елемент регулювання продуктів, пропозиція не надає прав окремим особам, але регулює діяльність постачальників систем штучного інтелекту та суб'єктів, які користуються ними у професійній діяльності.
Запропонований Закон ЄС про штучний інтелект має на меті класифікувати та регулювати програми штучного інтелекту на основі їхнього потенційного ризику. Ця класифікація в основному поділяється на три категорії: заборонені практики, системи з високим ступенем ризику та інші технології штучного інтелекту.[8]
Заборонені практики — це ті, що використовують штучний інтелект для свідомої маніпуляції або зловживання слабкостями людей, що може призвести до фізичної або психологічної шкоди, невибіркового використання біометричної ідентифікації в реальному часі в громадських місцях для забезпечення правопорядку або використання владою "соціальних оцінок", отриманих за допомогою штучного інтелекту, для обмеження прав окремих осіб чи груп. Закон повністю забороняє останнє, в той час, як для перших трьох пунктів пропонується режим дозволу в контексті правоохоронної діяльності.[9]
Згідно із Законом, системи з високим ступенем ризику — це системи, які становлять значну загрозу здоров'ю, безпеці або основним правам людини. Вони потребують обов'язкової оцінки відповідності, яку постачальник здійснює самостійно, перед тим, як вивести їх на ринок. Особливо небезпечні програми, такі як для медичних пристроїв, вимагають, відповідно до вимог Закону про штучний інтелект, щоб результати самостійного аудиту постачальника були розглянуті уповноваженим органом, який здійснює оцінювання відповідно до чинних нормативних актів ЄС, таких як Регламент про медичні вироби.
Системи штучного інтелекту, що не належать до вищезазначених категорій, не підлягають жодному регулюванню, а держави-члени ЄС здебільшого позбавлені можливості їх подальшого регламентування шляхом максимальної уніфікації. Існуючі державні закони, пов'язані з розробкою або використанням таких систем, не підлягають застосуванню. Однак передбачається, хоча і не з самого початку, запровадження добровільного кодексу дій для таких систем.[8]
Закон також пропонує запровадити Європейську раду зі штучного інтелекту для національного співробітництва та забезпечення дотримання правил.[10]
Як і Загальний регламент Європейського Союзу про захист даних, Закон про штучний інтелект може набути світового значення.[11] Він уже має вплив за межами Європи: у вересні 2021 року Конгрес Бразилії ухвалив законопроєкт, який закладає правову основу для штучного інтелекту.[12] 6 грудня 2022 року Європейська Рада ухвалила загальний підхід щодо Закону про штучний інтелект.[13] Німеччина підтримує позицію Ради, але все ж бачить певну потребу в подальшому вдосконаленні, як було зазначено в супровідній заяві держави-члена.[14] Серед заходів, які, ймовірно, будуть запропоновані, — зобов'язання розробників штучного інтелекту таких продуктів, як ChatGPT від Open AI, декларувати, чи використовувалися матеріали, захищені авторським правом, для навчання їхньої технології.[15]
Застосування закону
Закон регулює вихід на внутрішній ринок ЄС. Для цього він використовує Нову законодавчу базу, яку можна простежити до Нового підходу, що датується 1985 роком. Це працює так: Законодавець ЄС створює закон про штучний інтелект, який містить найважливіші положення, яким повинні відповідати всі системи штучного інтелекту, що бажають отримати доступ до внутрішнього ринку ЄС. Ці вимоги називаються «основними вимогами». Згідно з новою законодавчою базою, ці основні вимоги передаються європейським організаціям зі стандартизації, які розробляють технічні стандарти, що конкретизують основні вимоги.
Як зазначалося вище, Закон вимагає від держав-членів заснувати власні уповноважені органи. Для того, щоб перевірити, чи дійсно системи штучного інтелекту відповідають стандартам, викладеним у Законі про штучний інтелект, проводиться оцінка відповідності.[16] Ця оцінка відповідності здійснюється або самостійно, тобто постачальник систем штучного інтелекту перевіряє відповідність сам, або третьою стороною, що передбачає проведення оцінки уповноваженим органом.[17] В уповноважених органів також зберігається можливість проводити аудити, щоб перевірити, чи проводиться оцінка відповідності належним чином.[18]
Згідно з поточною концепцією, здається, що багато систем штучного інтелекту з високим ступенем ризику не потребують оцінки відповідності третьою стороною, що викликає критику.[18][19][20][21] Ця критика ґрунтується на тому, що такі системи повинні бути оцінені незалежною третьою стороною для повного гарантування їхньої безпеки.
↑ абVeale, Michael (2021). Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International. 22 (4). doi:10.31235/osf.io/38p5f.