Литмир - Электронная Библиотека
A
A

Экзаменатор: То есть вы хотите сказать, он боится Арта?

Анаксимандр: Я думаю, он понимает, насколько ему будет сложно воспринимать Арта исключительно как машину.

Экзаменатор: Спасибо. Теперь давайте посмотрим, что было дальше.

Адам сидел, повернувшись лицом к стене. Его руки были по-прежнему скованы за спиной, на лице застыло мрачное выражение. Мужчина медленно раскачивался взад-вперед.

Посреди комнаты неподвижно стоял Арт. Он быстро двигал глазами, и лишь они выдавали то, что робот находился в активированном режиме.

Вдруг заключенный пришел в движение. Он резко вскочил. Руководители проекта оставили ему ботинки, что оказалось серьезной ошибкой. Удар был страшным и тщательно выверенным.

Голова Арта отлетела прочь, оторвавшись от металлического торса. Глаза на лице робота закатились. С проводов, торчащих из разорванной шеи, сыпались искры.

Комнату наводнили охранники. Пленника швырнули лицом вниз. Один из охранников прижал его к полу, придавив коленом между лопаток. Адам зарычал от боли, потом изумленно замолчал.

Сломанный Арт внезапно ожил. Туловище машины дернулось, повернулось и начало систематически обшаривать комнату в поисках головы. Обнаружив, оно сунуло ее под мышку и, жужжа, выкатилось из комнаты. Адам завороженно наблюдал за разворачивавшейся перед ним жутковатой сюрреалистической сценой. Его тело сотрясала дрожь.

Экзаменатор: Удивительно.

Анаксимандр: Что именно?

Экзаменатор: Согласно правилам, вы должны были включить в презентацию только факты, зафиксированные в стенограмме. Вы же привнесли в свою интерпретацию событий много домыслов.

Анаксимандр: В стенограмме имеются ссылки на этот эпизод.

Экзаменатор: Про реакцию охранников там не сказано ни слова. Равно как и о местоположении головы. Вы, наверное, мечтаете о карьере в сфере развлечении?

Анаксимандр: Те из нас, кому хорошо известны эти события, подчас забывают, сколь странным и удивительным представлялось происходящее Адаму. Я пытаюсь показать, в чем именно заключалась эта странность.

Экзаменатор: А как насчет всех этих эффектных деталей? Вы ведь не ограничились ими только в этом эпизоде? Будут и еще?

Анаксимандр: Можете называть увиденное выдумкой. Я так не считаю.

Удивление на лицах Экзаменаторов не шло ни в какое сравнение с тем, что испытала сама Анакс. Она начала спорить с ними и понятия не имела, как у нее вырвались эти слова и о чем свидетельствовало странное чувство удовлетворения, охватившее ее. Комиссия замерла, ожидая извинений. Их не последовало.

Анаксимандр: Наутро состоялась следующая встреча между Адамом и Артом. Желаете ли вы посмотреть запись?

Плавный Экзаменатор молча кивнул, словно к нему еще не успел вернуться дар речи.

Теперь Адаму сковали и руки, и ноги. На переносице темнел кровоподтек, разбитый нос распух. Роба была заляпана кровью. Открылась дверь, и в комнату, жужжа, въехал Арт. Форд старался не смотреть ему в глаза.

— Скучал по мне? — В голосе робота слышался оттенок насмешки.

— Мне показалось, я тебя прикончил.

— Чтобы меня убить, требуется гораздо большее.

— Времени у меня навалом.

— Теперь, похоже, ты не будешь так торопиться. Тебе больно?

— Нет.

— Это хорошо. Мне не хотелось, чтобы тебе причинили боль. Ты мне веришь?

Адам ничего не сказал в ответ.

— Снова эта игра в молчанку, — вздохнул Арт.

— Это не игра.

— Так что же это такое? — поинтересовался робот. На его лице не отразилось ни тени неприязни.

— Я не имею привычки разговаривать со стенками, столами и заборами. Или машинами.

— Даже в тех случаях, когда они тебе отвечают?

— Ты мне не отвечаешь. Это не разговор.

— Это еще почему?

— Сам знаешь.

— Нет, не знаю.

— Да, точно. Не знаешь. В этом-то вся суть. Ты ничего не знаешь и не понимаешь, — Форд говорил с напором, будто желая убедить в справедливости своих слов не только андроида, но и самого себя.

— Я понимаю. Проверь меня.

— У меня может не получиться. Вдруг твоя программа окажется достаточно сложной?

— Если моя программа настолько совершенна, что именно ты пытаешься обнаружить?

— В детстве я был знаком с одной девочкой, — начал Адам. — Она постоянно таскала с собой говорящую куклу. Программа у той была простая. Когда куклу поднимали, она говорила: «Привет!» Когда ее гладили по спине, откликалась: «Спасибо!» Могла сказать еще пару-другую слов. Каких именно — не помню. Может, «Я устала». А еще она реагировали на вопросы. Если ее о чем-то спрашивали, она регистрировала изменения в интонации и отвечала «да» или «нет». Наугад. Тан вот, моя знакомая обожала эту куклу. Дни напролет разговаривала с ней. Задавала бессмысленные вопросы и приходила в восторг всякий раз, когда слышала ответ. Когда ее брали куда-нибудь без игрушки, девочка ударялась в слезы.

— И ты плакал? — спросил Арт. — Ты ведь плакал, когда меня увезли? Ты это хочешь сказать?

— Я пытался тебя убить, — напомнил роботу Адам.

— Выть может, чувство вины заставило тебя смягчиться. Такое случается.

— Я клоню к тому, что девочка была маленькой. Она выросла. Она перестала верить в куклу.

— А перестав в нее верить, она от нее избавилась?

— Она отдала ее мне, — произнес Форд.

— Значит, я у тебя не первый?

— Мы с приятелем поймали кролика и засунули внутрь игрушки его кишки. Потом привязали ее к рельсам, дождались поезда и все засняли. Было очень смешно.

— Ты это только что придумал.

— Да, правда. Я бы никогда не причинил кукле вреда.

— А тыне боишься?

— Чего?

— Что кукла причинит тебе вред. Ты пытался меня уничтожить. Вдруг я вынашиваю в уме план мести?

— Ты не обладаешь ни сознанием, ни мышлением. Такой довод тебя устраивает?

— Может, я решил дождаться, когда ты уснешь, а потом выпустить тебе кишки ударом ледоруба. Мне сон без надобности, я всегда наготове.

— Если бы меня собирались убить, это уже давно бы сделали.

— Но если это сделаю я, все будет выглядеть как несчастный случай. Ловкое решение маленькой проблемы, возникшей у властей.

— Убьешь меня, так убьешь, — пожал плечами Адам. — Меня это не шибко волнует. Если надо, забирай тело, только не души, что и душа тебе достанется.

Форд, извиваясь, медленно отполз в дальнюю часть комнаты. Выло видно, что движения причиняют ему боль. Выждав несколько мгновений, Арт последовал за ним.

Человек вздохнул.

— Надеюсь, ты на меня не обидишься, если я скажу, что от тебя дурно пахнет, — начал робот.

— Тебе не под силу чувствовать запах. — Я не сделаю тебе ничего дурного.

Я не могу причинить тебе вред. Хочешь узнать почему?

— Нет.

— Я все-таки расскажу тебе. Считай это своеобразным наказанием.

— Как у тебя получится меня наказать, если ты не можешь причинить мне вреда? — поинтересовался Адам.

— Иногда наказание может пойти на пользу, — отозвался Арт. — На стадии разработки велось много спорое о том. какие именно элементы моего поведения следует подавить. Некоторые (наивные) Философы полагали, что следует избавить меня от всех отрицательных поведенческих элементов, свойственных человеку, однако оказалось, сделать это далеко не так просто. И вот, если робота программировали так, чтобы он всякий раз просчитывал последствия всех своих действий, машину парализовывало. Из-за чудовищной нерешительности, вызванной страхом совершить ошибку, она не могла сдвинуться с места, если ослабляли стремление заботиться о других, робот раньше других отключался от процесса подзарядка и демонтировал конкурирующие прототипы. Я не преувеличиваю, такое и впрямь случалось. Если же со стремлением заботиться о других перебарщивали, автомат начинал работать на износ, во всем стараясь угодить другим. Именно поэтому я здесь и с тобой. Чем больше Философы прикладывали усилий, тем яснее им становилось, что они не в состоянии отличить правильное от ошибочного, хорошее от плохого. Правильное можно оценить только по поступкам. Единственный способ обойти проблему заключался в том, чтобы предоставить андроиду возможность самому во всем разобраться в процессе обучения. Заодно во время общения с человеком он должен был освоить парочку фокусов, которыми люди овладели в процессе эволюции. В результате понятие «добродетель» исчезло из списка основных мотиваций робота. Главным приоритетом стала «совместимость». Однако тебе не о чем беспокоиться. Вне зависимости от того, какие дурные уроки ты мне преподашь, я не смогу причинить вред другому существу, обладающему самосознанием. Это является одним из фундаментальных императивов моей программы.

14
{"b":"114819","o":1}