Литмир - Электронная Библиотека
A
A

Полученные результаты представлены в работе в виде конкретных выводов и рекомендаций органам государственной власти федерального и регионального уровня, к чьей компетенции относится выработка мер по созданию системы законодательного регулирования означенной сферы научного исследования в целях дальнейшего развития и упрочения цифровой экономики и достижения передовых позиций в мировом масштабе по использованию искусственного интеллекта, киберфизических систем, нейронных сетей, различных видов роботов и робототехники в Российской Федерации. Практическая значимость результатов работы состоит в возможности использования их в работе органов государственной власти и государственных органов Российской Федерации для разработки отдельных поправок, и изменений в законодательстве страны, носящих опережающий характер в целях преодоления пробелов в сфере технологического развития страны. Теоретическая значимость исследования заключается в возможности использования результатов исследования для развития общей теории права, информационного права, гражданского права, банковского и транспортного права, права интеллектуальной собственности и иных отраслевых юридических наук; информатики, биоэтики, медицины и др. в России. Научная новизна заключается в выявлении рисков использования киберфизических систем, искусственного интеллекта, роботов и объектов робототехники, в том числе с учетом требований информационной безопасности, определения соотношения правовых и нравственно-этических принципов использования киберфизических систем, и разработке этических правил взаимодействия человека с искусственным интеллектом, роботами и объектами робототехники, установления возможности создания гибкой системы нормативно-правового регулирования, допускающей возможности тестирования и ограниченного использования, гарантирующая безопасность населения и направленная на стимулирование развития искусственного интеллекта, роботов и объектов робототехники.

Глава 1

Исследование рисков использования киберфизических систем, искусственного интеллекта, роботов и объектов робототехники, в том числе с учетом требований информационной безопасности

В настоящем разделе мы предпримем попытку рассмотрения основных вопросов, связанных с выявлением, предупреждением и минимизацией рисков в процессе использования киберфизических систем, технологий искусственного интеллекта и робототехники в различных сферах общественных отношений, а также обоснуем необходимость правового регулирования указанных процессов.

Данная тема слабо освещена в отечественной правовой научной литературе. Наиболее системно риски, связанные с использованием технологий искусственного интеллекта раскрыты в 2017 г. П.М. Морхатом в монографии «Искусственный интеллект: правовой взгляд» [1]. Имеется ряд публикаций и других ученых-правоведов, которые затрагивали в своих исследованиях проблемы рисков при эксплуатации искусственного интеллекта, роботов и объектов робототехники. К примеру, И.В. Понкин и А.И. Редькина в статье «Искусственный интеллект с точки зрения права» выявили имеющие существенное значение для правового регулирования основные риски и неопределенности, связанные с искусственным интеллектом [2]; в коллективной монографии под редакцией А.В. Незнамова раскрыты тенденции зарубежного законодательства в области страхования рисков при использовании роботов и технологий искусственного интеллекта [3].

Однако можно с полной определенностью говорить о взятом Россией курсе на развитие информационного общества и устойчивый социально-экономический рост в условиях поступательного изменения экономического уклада посредством интеграции определенных достижений развития цифровых технологий, о чем свидетельствует первый этап исследования по фундаментальной научной теме: «Теория правового регулирования искусственного интеллекта, роботов и объектов робототехники в Российской Федерации» [4].

Тема рисков при использовании искусственного интеллекта и объектов робототехники неоднократно поднималась в зарубежной научной литературе, причем рассмотрению предавались как широкие теоретические вопросы выявления и оценки рисков в процессе использования искусственного интеллекта и роботов в различных сферах жизнедеятельности, так и более практические и узкие разработки, которые могут быть востребованы в прикладной деятельности по созданию и эксплуатации конкретных роботизированных объектов.

Исходные понятия

Для анализа рисков использования современных роботизированных и инфокоммуникационных технологий необходимо определиться с понятийным аппаратом.

Понятия «киберфизические системы» (далее – КФС), «искусственный интеллект» (далее – ИИ) и «робот» имеют множество определений [5]. В научной правовой литературе авторский и наиболее подробный тезаурус на русском языке рассматриваемых понятий представлен П.М. Морхатом в работе «Право и искусственный интеллект: Тезаурус» [6], а также в коллективной монографии под ред. А.В. Незнамова [7].

Однако в рамках настоящей работы мы будем придерживаться следующей терминологии, которая установлена в законодательстве и в нормативно-технической документации:

а) в Федеральном законе от 24.04.2020 № 123‐ФЗ и в Указе Президента РФ от 10.10.2019 № 490 ИИ раскрыт как комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе использующие методы машинного обучения), процессы и сервисы по обработке данных и поиску решений [8, 9]; в ГОСТ Р 43.0.8—2017 и ГОСТ Р 43.0.7—2011 ИИ трактуется более лаконично как «моделируемая (искусственно воспроизводимая) интеллектуальная деятельность мышления человека» [10, 11];

б) в ГОСТ Р 60.0.0.4—2019/ИСО 8373:2012. Национальный стандарт Российской Федерации. Роботы и робототехнические устройства. Термины и определения» робот[1] (robot) определен весьма конкретно как «исполнительный механизм, программируемый по двум или более степеням подвижности, обладающий определенной степенью автономности и способный перемещаться во внешней среде с целью выполнения задач по назначению» [12].

В этом же стандарте дано понятие: «Робототехника (robotics) – наука и практика разработки, производства и применения роботов» [12]. Понятие «объект робототехники» ни в правовых, ни в технических нормах не закреплено. Исходя из приведенного понятия робототехники, к объектам робототехники можно отнести различные классы и категории роботов и робототехнические системы.

Термин КФС (англ. – Сyber Physical Systems, CPS) пока что нормативно не раскрыт, но, как правило, в научной литературе отечественные [14, 15, 273] и зарубежные [16, 17] специалисты в области информационной безопасности под КФС подразумевают единую информационно-технологическую среду, обеспечивающую интеграцию вычислительных ресурсов в физические процессы. Это техническая система, в которой взаимосвязаны вычислительные элементы и элементы физической природы, служащие источниками и потребителями информации.

Как видим, научная трактовка понятия КФС и нормативные, нормативно-технические трактовки понятий ИИ и робота имеют существенные различия. Так, ИИ определен на основе компьютерного моделирования весьма широко, КФС совмещает инфокоммуникационные технологии с физическими компонентами, а понятие робота не позволяет охватить широкий спектр классов и категорий роботов, которые имеют существенные различия. Исходя из приведенных терминов КФС, ИИ и роботов, можно утверждать, что подходы к выявлению и оценке рисков их использования, в том числе с учетом требований информационной безопасности могут быть различными и обладать определенными особенностями, быть в зависимости от специфики отдельных сфер их применения.

вернуться

1

При этом в указанном ГОСТ при трактовке понятия «робот» дана ссылка на ИСО/ТК 299 «Робототехника», согласно которому в 2018 году дано новое определение: робот (robot) – программируемый исполнительный механизм с определенным уровнем автономности для выполнения перемещения, манипулирования или позиционирования.

2
{"b":"736895","o":1}