Литмир - Электронная Библиотека
Содержание  
A
A

— Инженер: Я изобрёл новую вещь. Я называю её шариковой ручкой

Охота на электроовец. Большая книга искусственного интеллекта - image315.png

— Народ в твиттере: О боже, люди могут писать с её помощью ужасные вещи, такие как дезинформация, пропаганда, разжигание ненависти. Запретить немедленно!

— Пишущие думеры[3088]: представьте, что каждый может получить шариковую ручку. Это может разрушить общество. Должен быть принят закон, запрещающий использование шариковой ручки для написания разжигающих ненависть высказываний. Введите регулирование применения шариковых ручек немедленно!

— Магнат карандашной индустрии: да, шариковые ручки очень опасны. В отличие от текста, написанного карандашом, который можно стереть, написанное шариковой ручкой остаётся навсегда. Правительство должно ввести лицензирование для производителей ручек[3089].

В начале апреля 2023 г. Лекун и Бенджио опубликовали получасовое видео с обсуждением идеи шестимесячного моратория (сойдясь на том, что такой мораторий является явно неудачной идеей), современной медийной шумихи вокруг ИИ и моды на ИИ‑думерство[3090].

С иронией воспринимают угрозу скорого захвата мира сверхинтеллектом Йошуа Бенджио[3091] (что не мешает ему серьёзно относиться к ИИ-рискам и подписывать открытые письма на эту тему), руководитель Алленовского института искусственного интеллекта (Allen Institute for AI, AI2) Орен Этциони[3092] и руководитель исследовательского отдела Microsoft Эрик Хорвитц[3093].

Известный американский предприниматель, инженер и изобретатель Марк Андриссен, сооснователь венчурного фонда «Андриссен Хоровиц» [Andreessen Horowitz], также яростно критикует ИИ-думеров. Он считает, что руководители технологических компаний заинтересованы в продвижении думерских взглядов, потому что они «могут заработать больше денег, если будут возведены нормативные барьеры, которые приведут к формированию картеля одобренных правительством поставщиков ИИ, защищённых от конкуренции с новыми стартапами и с [проектами с] открытым исходным кодом». Также Андриссен пишет, что экспертам по безопасности ИИ, специалистам по этике ИИ и исследователям рисков ИИ «платят за то, чтобы они были думерами, и их заявления должны восприниматься должным образом». Ссылаясь на статью[3094] в The Atlantic, в которой собрана большая коллекция высказываний инженеров и учёных, Андриссен подчёркивает, что многие лидеры в области исследований ИИ, этики, доверия и безопасности выразили явное несогласие с думерской повесткой дня и вместо этого сосредоточились на снижении сегодняшних задокументированных рисков ИИ-технологий. Андриссен с оптимизмом смотрит в будущее и утверждает, что ИИ может стать «способом сделать лучше всё, о чём мы заботимся»[3095]. Андриссен опубликовал небольшое эссе, в котором приводит краткий анализ нарративов, сформировавшихся в отношении проблематики ИИ-рисков, рассуждает о стоящих за их формированием социальных группах, а также об элементах правильной, по его мнению, политики в отношении развития ИИ[3096], [3097].

Основатель Facebook Марк Цукерберг также не разделяет пессимизма в отношении прогресса ИИ: «Я настроен оптимистически, — говорит он в одном из своих стримов, сопровождая рассуждения приготовлением барбекю. — Что до тех людей, которые испытывают скепсис [в отношении ИИ] и пытаются раздуть все эти сценарии судного дня, — я их просто не понимаю. Это совершенно неконструктивно, и в некотором смысле я считаю это довольно безответственным <…> Всякий раз, когда я слышу, как люди говорят, что искусственный интеллект причинит людям боль в будущем, я думаю, что да, вы знаете, технологии, как правило, всегда можно использовать как во благо, так и во вред, и вы должны быть осторожны при их разработке, должны внимательно относиться к тому, что именно вы создаёте, и как это будет использоваться, — развивает свою мысль Цукерберг, — Но я не понимаю людей, которые выступают за замедление прогресса в области ИИ, эта идея кажется мне весьма сомнительной»[3098].

Американский предприниматель Крис Николсон, сооснователь компании Skymind и один из авторов фреймворка Deeplearning4j, высказался на этот счёт более афористично: «Для людей из мира технологий рассуждения об искусственном интеллекте — это кокаин: они возбуждают и вызывают ничем не обоснованную паранойю» [Thinking about AI is the cocaine of technologists: it makes us excited, and needlessly paranoid][3099].

Кто же прав? И что же следует делать человечеству в данной ситуации?

7.1.3 Варианты преодоления рисков развития ИИ

В своей знаменитой статье 2000 г. «Почему мы не нужны будущему» (Why the Future Doesn’t Need Us) для издания Wired Джой рисует мрачную картину превращения нашего мира в «серую слизь» [gray goo], что, по его мнению, станет результатом деятельности нанороботов. «Единственной практической альтернативой, которую я вижу, — пишет Джой, — является отказ: надо ограничить развитие слишком опасных технологий путём ограничения нашего стремления к определённым родам знаний»[3100].

Может, действительно стоит ввести ограничения на развитие технологий ИИ, подобные международным договорам о ядерном, биологическом и химическом оружии? По сути, такие договоры можно считать установлением ограничений на развитие физики, биологии и химии в военных целях.

Лично мне такой путь представляется не слишком реалистичным.

Во-первых, развитие технологий сложно ограничивать вообще. На уровне международных договоров можно разве что ввести подобный запрет для отдельных стран. Но, как показала практика, даже небольшая находящаяся в изоляции Северная Корея смогла создать ядерное оружие и ракетно-космическую программу. Поэтому если новая технология действительно может оказаться прорывной, то ведущие государства мира всё равно будут, несмотря на ограничения и запреты, развивать её в секретном режиме, и никто не сможет этому воспрепятствовать.

Во-вторых, неясно, как возможно ограничить развитие ИИ в нынешнее время — ведь развитие этой отрасли не требует каких-либо уникальных ресурсов и доступно многим государствам и компаниям. Не исключено, что универсальный ИИ можно будет создать при помощи машин общего назначения, предназначенных для решения повседневных задач. Поэтому попытки ограничения развития ИИ приведут к тому, что пострадают полезные применения ИИ (медицинское, образовательное и др.), при этом военные исследования как раз не пострадают.

Трудность запрета универсального ИИ подчёркивает в своей книге «Совместимость. Как контролировать искусственный интеллект» (Human Compatible: AI and the Problem of Control) уже знакомый нам профессор Стюарт Рассел:

Прогресс в разработке универсального ИИ достигается главным образом в дискуссиях учёных из исследовательских лабораторий по всему миру, по мере возникновения и решения математических задач. Мы не знаем заранее, какие идеи и уравнения запрещать, и, даже если бы знали, не приходится ожидать, что подобный запрет будет осуществимым или действенным.

вернуться

3088

* Думер (от англ. doom — злой рок, катастрофа, гибель) — человек, пессимистично смотрящий в будущее, считающий, что человечество по той или иной причине обречено; ИИ-думерами [AI doomers] иронично называют сторонников идеи о том, что развитие технологий ИИ неизбежно приведёт к гибели человечества или по крайней мере нанесёт ему тяжкий вред.

вернуться

3089

LeCun Y. (2023) / Twitter // https://twitter.com/ylecun/status/1659330738553081857

вернуться

3090

LeCun Y., Ng A. (2023). Yann LeCun and Andrew Ng: Why the 6-month AI Pause is a Bad Idea // https://www.youtube.com/watch?v=BY9KV8uCtj4

вернуться

3091

Knight W. (2016). Will Machines Eliminate Us? / MIT Technology Review, January 29, 2016 // https://www.technologyreview.com/2016/01/29/162084/will-machines-eliminate-us/

вернуться

3092

Etzioni O. (2014). It’s Time to Intelligently Discuss Artificial Intelligence / Medium, Dec 9, 2014 // https://medium.com/backchannel/ai-wont-exterminate-us-it-will-empower-us-5b7224735bf3

вернуться

3093

Out of control AI will not kill us, believes Microsoft Research chief (2015) / BBC News, 28 January 2015 // https://www.bbc.com/news/technology-31023741

вернуться

3094

Wong M. (2023). AI doomerism is a decoy. / The Atlantic, June 2, 2023. // https://www.theatlantic.com/technology/archive/2023/06/ai-regulation-sam-altman-bill-gates/674278/

вернуться

3095

Field H. (2023). A.I. doomers are a ‘cult’ — here’s the real threat, according to Marc Andreessen. / CNBC, Jun 6 2023. // https://www.cnbc.com/2023/06/06/ai-doomers-are-a-cult-heres-the-real-threat-says-marc-andreessen.html

вернуться

3096

Andreessen M. (2023). Why AI Will Save The World. / Marc Andreessen Substack, 6 июня 2023. // https://pmarca.substack.com/p/why-ai-will-save-the-world

вернуться

3097

Лааксо П. (2023). «Не убийца, а всего лишь код, созданный и управляемый человеком»: сооснователь фонда Andreessen Horowitz о рисках ИИ. / vc.ru, 18 июня 2023. // https://vc.ru/future/730682-ne-ubiyca-a-vsego-lish-kod-sozdannyy-i-upravlyaemyy-chelovekom-soosnovatel-fonda-andreessen-horowitz-o-riskah-ii

вернуться

3098

Clifford C. (2017). Facebook CEO Mark Zuckerberg: Elon Musk’s doomsday AI predictions are ‘pretty irresponsible’ / CNBC, Jul 24 2017 // https://www.cnbc.com/2017/07/24/mark-zuckerberg-elon-musks-doomsday-ai-predictions-are-irresponsible.html

вернуться

3099

Metz C. (2015). Elon Musk's Billion-Dollar AI Plan Is About Far More Than Saving the World / Wired, 12.15.15 // https://www.wired.com/2015/12/elon-musks-billion-dollar-ai-plan-is-about-far-more-than-saving-the-world/

вернуться

3100

Joy B. (2000). Why the Future Doesn't Need Us / Wired, 04.01.2000 // https://www.wired.com/2000/04/joy-2/

307
{"b":"936964","o":1}