Литмир - Электронная Библиотека
Содержание  
A
A

— Значит, вам не удалось создать такого робота?

— Нет, не удалось и не удастся. Да и никому не удастся.

— В день своей смерти Дельмар испытывал именно такую модель?

— Нет, не такую. Нас интересовали и более практические проблемы.

— Доктор Либич, — спокойно сказал Бейли, — мне предстоит еще многое усвоить в области роботехники, и я хочу попросить вас стать моим учителем.

Либич затряс головой, и его приспущенное веко сползло еще ниже, будто он подмигнул, — впечатление получилось жутковатое.

— Излишне объяснять, что курс роботехники нельзя прочесть в считанные минуты. У меня нет времени.

— И все-таки вам придется позаниматься со мной. Тут у вас на Солярии все пропахло роботами. Если вопрос только во времени, я тем более должен к вам приехать. Я землянин и не могу удовлетворительно работать или думать с помощью видео.

Казалось бы, Либичу больше некуда выпрямляться, но он выпрямился.

— Ваши земные фобии меня не волнуют. Визит невозможен.

— Думаю, вы перемените свое мнение, когда я скажу то главное, о чем хотел проконсультироваться с вами.

— Что бы вы ни сказали, это ничего не изменит.

— Да? Тогда слушайте. Я убежден, что на протяжении всей истории существования позитронного робота Первый Закон Роботехники намеренно читался неверно.

— Как неверно? — дернулся Либич. — Глупец! Сумасшедший! Почему?

— Чтобы скрыть тот факт, — невозмутимо сказал Бейли, — что робот способен совершить убийство.

Глава четырнадцатая

Мотив выявляется

Либич медленно разинул рот. Бейли подумал, что он сейчас зарычит, но потом с большим удивлением убедился, что это самая неудачная попытка улыбнуться, которую ему доводилось видеть,

— Не говорите так, — сказал Либич. — Нигде и никогда.

— Почему?

— Потому что опасно поощрять недоверие к роботам даже в самой малой степени. Недоверие к роботам — болезнь человечества!

Он говорил так, будто внушал что-то малому ребенку. Говорил мягко, хотя ему, должно быть, хотелось орать в голос. Говорил, стараясь убедить, хотя с большей охотой, очевидно, прочитал бы Бейли смертный приговор.

— Вы знаете историю роботехники? — спросил он.

— Немного,

— Должны знать, раз вы землянин. Так вот. Вы знаете, что роботов с самого начала встретил комплекс Франкенштейна? Их подозревали. Люди не доверяли им, боялись их. В результате роботехника стала чуть ли не подпольной наукой. Три Закона были приняты ради того, чтобы преодолеть эту враждебность, но даже и тогда Земля не допустила роботов в человеческое общество. Одной из причин, по которой первые поселенцы покинули Землю и отправились колонизировать космос, было создание социальных структур, где роботы могли бы избавить человека от бедности и тяжкого труда. И даже там подозрение продолжало тлеть, готовое в любой момент вырваться наружу.

— А вам приходилось сталкиваться с недоверием к роботам?

— Много раз, — мрачно ответил Либич.

— И потому вы и прочие роботехники сговорились чуть-чуть исказить факты, лишь бы усыпить общее подозрение?

— Никто ничего не искажал!

— И все Три Закона сформулированы правильно?

— Да!

— А я могу вам доказать, что неправильно, и, если вы не убедите меня в обратном, я по возможности повторю это перед всей Галактикой.

— Вы не в своем уме. Какое бы доказательство вы там ни выдумали, оно ложное, уверяю вас.

— Обсудим?

— Если это не займет много времени.

— Встретимся? Лицом к лицу? Худое лицо Либича передернулось.

— Нет!!

— До свидания, доктор Либич, Найдутся люди, которые меня выслушают.

— Подождите. Великая Галактика, да подождите же!

— Встретимся?

Роботехник медленно поднес руку к губам, помедлил, сунул в рот большой палец и уставился на Бейли пустым взором.

Что он, возвращается в младенчество, в возраст до пяти лет, когда ничто не запрещало ему встретиться со мной? — недоумевал Бейли.

— Встретимся? — повторил инспектор.

Либич медленно покачал головой.

— Не могу. Не могу, — простонал он едва разборчиво — мешал палец во рту. — Делайте что хотите.

На глазах у Бейли он отвернулся к стене, прямая спина согнулась, и дрожащие руки закрыли лицо.

— Что ж, хорошо, я согласен продолжать разговор по видео, — сказал Бейли.

— Извините меня. Сейчас вернусь, — не поворачиваясь, произнес Либич.

Бейли, освежившись в перерыве, смотрел на свое свежеумытое лицо в зеркале ванной. Кажется, он начинает чувствовать Солярию и соляриан? Пока трудно сказать. Он вздохнул, нажал кнопку — появился робот. Бейли, не оборачиваясь, спросил:

— Есть на ферме другой видеофон, кроме того, которым я пользуюсь?

— Еще три пульта, господин.

— Тогда скажи Клориссе Канторо — скажи своей госпоже, что я пока буду занимать этот и прошу меня не беспокоить.

— Да, господин.

Бейли вернулся туда, где в кадре так и оставался пустой угол комнаты Либича. Роботехник еще не вернулся, и Бейли настроился ждать, но ждал недолго. Вошел Либич, и его комната снова поехала вслед за ним. Очевидно, фокус тут же переместился с комнаты на человека. Бейли вспомнил, как сложно устроен видеофон, и не мог не подивиться совершенству аппарата.

Либич, кажется, вполне овладел собой. Он зачесал волосы назад и переоделся. Теперь на нем был свободный костюм из блестящего, отражающего свет материала. Он опустился на легкий стульчик, откинув его от стены, и спросил ровным голосом:

— Итак, что вы собирались мне сказать относительно Первого Закона?

— Нас никто не подслушает?

— Нет, я принял меры.

Бейли кивнул.

— С вашего разрешения я процитирую Первый Закон.

— Едва ли в этом есть необходимость.

— Все же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

— И что же?

— Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства. Как землянин, я…

— Знаю, знаю, — нетерпеливо прервал Либич. — Какое это имеет отношение к делу?

— Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?

— По вашему же приказу, — отрезал Либич.

— Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону». Как видите, они не должны были подчиняться мне.

— Чепуха. Ведь роботы не знали…

Бейли подался вперед.

— Ага! Вот оно! Прочтем же Первый Закон так, как его следует читать: «Робот не должен делать ничего, что, насколько ему известно, причинило бы вред человеку, или своим бездействием намеренно допустить, чтобы человеку был причинен вред».

— Само собой разумеется.

— Не думаю, чтобы это понимал средний человек — иначе средний человек сознавал бы, что робот способен на убийство.

— Безумие! Бред! — с лица Либича сползла всякая краска.

Бейли внимательно рассматривал свои пальцы. — Но ведь робот может выполнить невинное задание — ничего такого, что причинило бы вред человеку?

— Если ему прикажут.

— Да, конечно. Если ему прикажут, И второй робот тоже может выполнить невинное задание — ничего такого, что причинило бы вред человеку? Если ему прикажут?

— Да.

— а что, если эти два невинных задания, сами по себе совершенно безобидные, вместе взятые приведут к убийству?

— Что? — свирепо нахмурился Либич.

— Мне нужно ваше мнение как эксперта. Приведу вам условный пример. Предположим, человек говорит роботу: «Влей немного этой жидкости в стакан с молоком, который ты найдешь там-то и там-то. Эта жидкость безвредна. Я хочу только узнать, в какую реакцию она вступает с молоком, Когда я это узнаю, молоко будет вылито. Выполнив задание, забудь о нем».

87
{"b":"186578","o":1}