Литмир - Электронная Библиотека
Содержание  
A
A

— Не говорите так, — сказал Либич. — Нигде и никогда.

— Почему?

— Потому что опасно поощрять недоверие к роботам даже в самой малой степени. Недоверие к роботам — болезнь человечества!

Он говорил так, будто внушал что-то малому ребёнку. Говорил мягко, хотя ему, должно быть, хотелось орать в голос. Говорил, стараясь убедить, хотя с большей охотой, очевидно, прочитал бы Бейли смертный приговор.

— Вы знаете историю роботехники? — спросил он.

— Немного.

— Должны знать, раз вы землянин. Так вот. Вы знаете, что роботов с самого начала встретил комплекс Франкенштейна? Их подозревали. Люди не доверяли им, боялись их. В результате роботехника стала чуть ли не подпольной наукой. Три Закона были приняты ради того, чтобы преодолеть эту враждебность, но даже и тогда Земля не допустила роботов в человеческое общество. Одной из причин, по которой первые поселенцы покинули Землю и отправились колонизировать космос, было создание социальных структур, где роботы могли бы избавить человека от бедности и тяжкого труда. И даже там подозрение продолжало тлеть, готовое в любой момент вырваться наружу.

— А вам приходилось сталкиваться с недоверием к роботам?

— Много раз, — мрачно ответил Либич.

— И потому вы и прочие роботехники сговорились чуть-чуть исказить факты, лишь бы усыпить общее подозрение?

— Никто ничего не искажал!

— И все Три Закона сформулированы правильно?

— Да!

— А я могу вам доказать, что неправильно, и, если вы не убедите меня в обратном, я по возможности повторю это перед всей Галактикой.

— Вы не в своем уме. Какое бы доказательство вы там ни выдумали, оно ложное, уверяю вас.

— Обсудим?

— Если это не займет много времени.

— Встретимся? Лицом к лицу?

Худое лицо Либича передёрнулось.

— Нет!!

— До свидания, доктор Либич. Найдутся люди, которые меня выслушают.

— Подождите. Великая Галактика, да подождите же!

— Встретимся?

Роботехник медленно поднес руку к губам, помедлил, сунул в рот большой палец и уставился на Бейли пустым взором.

Что он, возвращается в младенчество, в возраст до пяти лет, когда ничто не запрещало ему встретиться со мной? — недоумевал Бейли.

— Встретимся? — повторил инспектор.

Либич медленно покачал головой.

— Не могу. Не могу, — простонал он едва разборчиво — мешал палец во рту. — Делайте что хотите.

На глазах у Бейли он отвернулся к стене, прямая спина согнулась, и дрожащие руки закрыли лицо.

— Что ж, хорошо, я согласен продолжать разговор по видео, — сказал Бейли.

— Извините меня. Сейчас вернусь, — не поворачиваясь, произнёс Либич.

Бейли, освежившись в перерыве, смотрел на своё свежеумытое лицо в зеркале ванной. Кажется, он начинает чувствовать Солярию и соляриан? Пока трудно сказать. Он вздохнул, нажал кнопку — появился робот. Бейли, не оборачиваясь, спросил:

— Есть на ферме другой видеофон, кроме того, которым я пользуюсь?

— Ещё три пульта, господин.

— Тогда скажи Клориссе Канторо — скажи своей госпоже, что я пока буду занимать этот и прошу меня не беспокоить.

— Да, господин.

Бейли вернулся туда, где в кадре так и оставался пустой угол комнаты Либича. Роботехник ещё не вернулся, и Бейли настроился ждать, но ждал недолго. Вошёл Либич, и его комната снова поехала вслед за ним. Очевидно, фокус тут же переместился с комнаты на человека. Бейли вспомнил, как сложно устроен видеофон, и не мог не подивиться совершенству аппарата.

Либич, кажется, вполне овладел собой. Он зачесал волосы назад и переоделся. Теперь на нём был свободный костюм из блестящего, отражающего свет материала. Он опустился на легкий стульчик, откинув его от стены, и спросил ровным голосом:

— Итак, что вы собирались мне сказать относительно Первого Закона?

— Нас никто не подслушает?

— Нет, я принял меры.

Бейли кивнул.

— С вашего разрешения я процитирую Первый Закон.

— Едва ли в этом есть необходимость.

— Всё же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред».

— И что же?

— Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства. Как землянин, я…

— Знаю, знаю, — нетерпеливо прервал Либич. — Какое это имеет отношение к делу?

— Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?

— По вашему же приказу, — отрезал Либич.

— Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.

— Чепуха. Ведь роботы не знали…

Бейли подался вперёд.

— Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».

— Само собой разумеется.

— Не думаю, чтобы это понимал средний человек — иначе средний человек сознавал бы, что робот способен на убийство.

— Безумие! Бред! — с лица Либича сползла всякая краска.

Бейли внимательно рассматривал свои пальцы.

— Но ведь робот может выполнить невинное задание — ничего такого, что причинило бы вред человеку?

— Если ему прикажут.

— Да, конечно. Если ему прикажут. И второй робот тоже может выполнить невинное задание — ничего такого, что причинило бы вред человеку? Если ему прикажут?

— Да.

— А что, если эти два невинных задания, сами по себе совершенно безобидные, вместе взятые, приведут к убийству?

— Что? — свирепо нахмурился Либич.

— Мне нужно ваше мнение как эксперта. Приведу вам условный пример. Предположим, человек говорит роботу: «Влей немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Эта жидкость безвредна. Я хочу только узнать, в какую реакцию она вступает с молоком. Когда я это узнаю, молоко будет вылито. Выполнив задание, забудь о нём».

Либич, всё ещё сердитый, молчал.

— Если бы я велел роботу влить таинственную жидкость в молоко, а затем подать молоко человеку, Первый Закон заставил бы его спросить: «Что это за жидкость? Не повредит ли она человеку?» Даже если бы робота заверили, что жидкость безвредна, Первый Закон всё же заставил бы его усомниться в том, и он отказался бы подать молоко. Но ему сказали, что молоко выльют. Первый Закон не включается. Разве робот не выполнил бы подобный приказ?

Либич молча злобно смотрел на Бейли.

— Второй же робот, который наливал молоко, — продолжал тот, — не знает, что в него что-то добавили. В полном неведении он подаёт молоко человеку, и человек умирает.

— Нет! — выкрикнул Либич.

— Почему же нет? Оба задания сами по себе безобидны. Только, вместе взятые, они ведут к убийству. Вы же не станете отрицать, что нечто подобное возможно?

— Тогда убийцей будет человек, который отдал эти приказы! — крикнул Либич.

— С философской точки зрения — да. Но убийцами-исполнителями, орудиями убийства, будут роботы.

— Ни один человек не станет отдавать таких приказов.

— Станет. Уже отдал. Именно таким образом должно было совершиться покушение на убийство Грюера. Вы ведь слышали о нём?

— На Солярии слышишь всё и вся.

— Значит, знаете, что Грюер был отравлен за обедом на глазах у меня и моего партнера, аврорианца господина Оливо. Вы можете предложить другой способ подать ему яд? Никого из людей в имении не было — вам, как солярианину, нет надобности объяснять почему.

— Я не детектив и не выдвигаю гипотез.

— Вот я вам и предлагаю гипотезу. И хочу знать, насколько она реальна. Хочу знать, могут ли двое роботов произвести два раздельных действия, которые сами по себе безобидны, но вместе ведут к убийству. Вы эксперт, доктор Либич. Возможно ли такое?

87
{"b":"182600","o":1}