Литмир - Электронная Библиотека
Содержание  
A
A

Попытки законодателей более широко взглянуть на вопросы, связанные с развитием технологий ИИ, относятся главным образом к периоду расцвета технологий глубокого обучения. Например, в июне 2017 г. в Великобритании Палата лордов сформировала «Специальный комитет по искусственному интеллекту» [Select Committee on Artificial Intelligence], который, среди прочих документов, подготовил доклад под названием «ИИ в Соединённом Королевстве: готовы, хотим, можем?» [AI in the UK: ready, willing and able?][3205], в тексте которого сформулированы пять этических принципов, которые, по мнению авторов, должны использоваться как на национальном, так и на международном уровне:

• ИИ следует развивать ради общего блага и для пользы всего человечества;

• ИИ должен функционировать, основываясь на принципах справедливости и прозрачности принятия решений;

• ИИ не должен использоваться с целью ущемления прав в области обработки данных и неприкосновенности частной жизни в отношении отдельных лиц, семей или социальных групп;

• все категории граждан должны иметь право на образование, позволяющее им интеллектуально, эмоционально и экономически развиваться наряду с ИИ;

• системам ИИ никогда не должна предоставляться автономная власть причинять вред, уничтожать или обманывать людей.

Члены комитета считают, что область искусственного интеллекта нуждается во всестороннем регулировании и Великобритания должна стать в этом лидером.

Тем не менее спустя шесть лет в Великобритании так и не появилось целостного свода законов, регулирующих разработку, развёртывание или использование технологий ИИ. Вместо этого разработчики ИИ-систем имеют дело с отраслевым регулированием (например, в области медицины) и множеством правил, установленных правительством, регулирующими органами, корпорациями, профсоюзами и другими организациями гражданского общества. Стремясь уменьшить возникший хаос, правительство заявило о своём намерении начать разработку более комплексной нормативно-правовой базы для ИИ[3206]. В 2022 и 2023 гг. оно опубликовало программный и консультационный документы, посвящённые стратегии регулирования, под названиями, соответственно, «Создание проинновационного подхода к регулированию ИИ» [Establishing a pro-innovation approach to regulating AI][3207] и «Проинновационный подход к регулированию ИИ» [A pro-innovation approach to AI regulation][3208]. Также правительство занялось формированием рабочей группы по фундаментальным моделям [Foundation Model Taskforce] с бюджетом 100 млн фунтов стерлингов и объявило, что Великобритания проведёт глобальный саммит по безопасности ИИ.

Разработанные правительством документы декларируют принципы, положенные в основу подхода к регулированию в сфере ИИ:

• безопасность, защищённость и надёжность [Safety, security and robustness];

• надлежащая прозрачность и объяснимость [Appropriate transparency and explainability];

• справедливость [Fairness];

• подотчётность и управление [Accountability and governance];

• возможность оспаривания [решений систем ИИ] и получения возмещения [ущерба в случае его наличия] [Contestability and redress].

При этом «проинновационность», вынесенная в заголовок документа, проявляется среди прочего в том, что правительство отказывается от закрепления вышеперечисленных принципов на законодательном уровне, поскольку «новые жёсткие и обременительные законодательные требования к бизнесу могут сдерживать инновации в области ИИ и снижать нашу способность быстро и соразмерно реагировать на будущие технологические вызовы».

Значительно большую активность в области регулирования ИИ проявили власти США.

Хотя единый федеральный закон, направленный на эту область, так и не появился (вместо этого законодатели обозначили курс на точечное регулирование отдельных сервисов), ими был разработан и принят целый ряд других, весьма любопытных документов. Прежде всего следует упомянуть «Закон о национальной инициативе в области ИИ» [The National AI Initiative Act of 2020][3209], вступивший в силу 1 января 2021 г., посвящённый формированию долгосрочной федеральной программы, направленной на ускорение исследований и разработок в области ИИ, в частности, в целях экономической и национальной безопасности Соединённых Штатов.

Также следует отметить два других важных документа, принятых на федеральном уровне. Первый — «Документ по управлению ИИ-рисками» [AI Risk Management Framework][3210], выпущенный в январе 2023 г. Национальным институтом стандартов и технологий США. Разработка этого обширного документа была начата ещё в 2021 г. Он не только содержит в себе определения ИИ, ИИ-рисков и других важных с прикладной точки зрения терминов, но и описывает специфику ИИ-рисков по отношению к традиционным рискам, связанным с программным обеспечением [Traditional Software Risks], а также основные функции и методы риск-менеджмента в области ИИ.

Второй документ — выпущенное в 2022 г. Управлением научной и технологической политики [Office of Science and Technology Policy] правительства США «Руководство по разработке билля о правах, связанных с ИИ» [Blueprint for an AI Bill of Rights][3211]. Оно посвящено главным образом защите прав населения в алгоритмическом обществе (вопросам защиты от алгоритмической дискриминации, обеспечения конфиденциальности данных и т. д.).

Кроме того, законы об ИИ на момент написания книги приняты на уровне отдельных штатов в Алабаме, Колорадо, Иллинойсе, Миссисипи и Вермонте, на стадии рассмотрения находятся аналогичные законодательные акты в Калифорнии, Джорджии, на Гавайях, в Мэриленде, Нью-Джерси, Род-Айленде, Нью-Йорке и Вашингтоне. Также на счету американских законодателей различные местные законы и несколько проваленных актов на уровне штатов. В целом общее число законодательных инициатив в области ИИ здесь давно перевалило за сотню[3212].

В конце октября 2023 г. Белый дом опубликовал[3213], [3214], [3215] президентский «Указ о безопасной, защищённой и надёжной разработке и использовании искусственного интеллекта» [Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence]. Заместитель руководителя аппарата Белого дома Брюс Рид заявил, что содержащиеся в указе директивы представляют собой «набор самых жёстких мер, которые когда-либо предпринимало какое-либо правительство в мире» по защите граждан от влияния ИИ. Давайте рассмотрим важные положения указа:

1. Разработчики продвинутых систем ИИ, представляющих серьёзный риск для национальной безопасности, национальной экономической безопасности или здравоохранения, должны уведомлять правительство об обучении моделей, а также раскрывать федеральному правительству результаты своих тестов безопасности. При этом разработка методики тестирования возложена на NIST. Отдельно предполагается разработка стандартов «проверки биологического синтеза» для защиты от «опасных биологических материалов», синтезируемых с помощью ИИ.

вернуться

3205

AI in the UK: ready, willing and able? Select Committee on Artificial Intelligence. Report of Session 2017–19 (2018) // https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf

вернуться

3206

Davies M., Birtwistle M. (2023). Regulating AI in the UK. Strengthening the UK's proposals for the benefit of people and society / Ada Lovelace Institute, 18 July 2023 // https://www.adalovelaceinstitute.org/report/regulating-ai-in-the-uk/

вернуться

3207

Establishing a pro-innovation approach to regulating AI (policy paper) (2022) // https://www.gov.uk/government/publications/establishing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement

вернуться

3208

A pro-innovation approach to AI regulation (policy paper) (2023) // https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper

вернуться

3209

National Artificial Intelligence Initiative Act of 2020 (2020) // https://www.congress.gov/116/crpt/hrpt617/CRPT-116hrpt617.pdf#page=1210

вернуться

3210

NIST (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) // https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf

вернуться

3211

Blueprint for an AI Bill of Rights (2022) // https://www.whitehouse.gov/ostp/ai-bill-of-rights/

вернуться

3212

Kraczon C. (2022). The State of State AI Policy (2021-22 Legislative Session). / Electronic privacy information center, August 8, 2022 // https://epic.org/the-state-of-ai/

вернуться

3213

Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (2023). // https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/

вернуться

3214

FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence (2023). // https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/

вернуться

3215

Mauran C., Gedeon K. (2023). White House drops an AI regulation bombshell: 10 new mandates that'll shake up the industry. / Mashable, October 30, 2023. // https://mashable.com/article/white-house-drops-ai-regulation-bombshell

324
{"b":"936964","o":1}