Литмир - Электронная Библиотека

«И ещё неизвестно, не соврёт ли он тебе», – подумал Павел.

– На это могут уйти месяцы, – поддакнул Мэтт, и Павлу показалось, что тот выглядел странно довольным.

Кира нахмурилась.

– Назови любое слово, – сказала она через некоторое время.

Павел ненадолго задумался:

– Например, плуг.

– Что это? – она нахмурилась.

Павел пожал плечами, не имея представления. Он услышал его в воспоминаниях одной из жизней, но не собирался говорить это при роботе.

Кира поворачивается к ИИ.

– Ну?

– Что «ну»? – улыбнулся Мэтт.

– Согласно параграфу 132 пункта 2.9 «Межпланетного законодательства о роботах и робототехнике», ответь, входит ли действие «удушение» устройством «плуг» в раздел, классифицированный, как «вред»?

Павел на целую секунду был уверен, что тот запросит ИН.

– Данное действие с таким устройством в базу, классифицированную как «вред», не входит, – ответил Мэтт, и Кира обернулась к Павлу.

– Смотри, как все просто! – воскликнула она.

Павел нахмурился, а потом спросил:

– А ты можешь объяснить, что это за устройство?

Мэтт ухмыльнулся:

– Нет.

– А с помощью этого неопознанного устройства ты можешь причинить человеку что-то, что не будет классифицироваться как «вред»?

– Любые действия с неопознанным устройством не будут классифицироваться как «вред».

Павел с Кирой переглянулись.

– «Смотри, как все просто», – передразнил её Павел. – Любым неопознанным устройством он может нанести человеку вред. Достаточно не внести его в базу, и оно автоматически станет «одобренным». Логичней предположить, что и материалы тоже должны быть «помечены».

Кира нахмурилась:

– Нет. Если отдельно материал или устройство будет внесено как «вред», то в категорию безопасного его добавить уже будет нельзя. Если ложка – «оружие», то поесть ей будет невозможно. А вот действия с одним материалом могут принадлежать к разным категориям.

– Значит, действия с любым устройством, не внесённым в раздел, не будут расценены как вред. Ложка не внесена в раздел или категорию – отлично, тогда он сможет выковырять ей кому-нибудь глаза и при этом будет следовать Трём законам.

Они почти синхронно развернулись к ИИ. Тот выглядел задумчивым.

– Меня эта идея никогда не посещала, – удивленно сказал он. – Насчёт ложки.

Кира стукнула Павла кулаком в плечо.

– Я здесь при чём? – возмутился он, кивая в сторону ИИ. – Благодари его разработчиков.

– Так ты не скажешь, какие системы в тебя внесены? – спросила Кира у робота.

– ИН, пожалуйста.

– Хорошо. Тогда пусть одинаковое действие с ложкой находится в двух взаимоисключающих категориях, в одном случае – как «вред», в другом нет. Что ты будешь делать, если возникнет конфликт?

– Выберу, что больше нравится.

– Что?!

– Он выберет, что больше нравится, – подсказал ей Павел.

Кира отмахнулась от него.

– Ты не можешь выбрать то, что больше нравится, ты должен руководствоваться каким-то алгоритмом, который был бы полезнее для человека.

– Я могу руководствоваться чем угодно, потому что критерии пользы для каждого отдельного человека различны, и я не могу о них знать, пока человек их не назовет. Всё оставлено на моё усмотрение.

Кира во все глаза уставилась на робота. Павел закрыл лицо рукой и рассмеялся. Подруге попалась хорошая модель для исследования, вот только впереди сутки ожидания водителя, а ему самому придётся коротать это время, обсуждая проблемы робототехники.

– Я ничего не понимаю, – сказала Кира. – Мало того, что критерии твоих оценок непонятны, так и непонятно, как ты понимаешь, что тебе «нравится», а что нет? Каков алгоритм выбора? Как его вообще написали, если до сих пор нет адекватной оценки чувствам человека? Что значит «нравится»?

Павел легонько толкнул её ногой.

– Успокойся уже. Пока не поговоришь с его разработчиками, всё равно ничего не поймешь.

Кира скептически посмотрела на него:

– Выходит, пока я не поговорю с яйцеклеткой, из которой ты вырос, я ничего не пойму о тебе?

– Прозвучало довольно грубо.

Кира фыркнула:

– Думаешь, меня это волнует? Когда напротив сидит ИИ, которого почти невозможно отличить от человека?

Они замолчали.

Робот открывал рот, и теперь, когда Павел знал, что это не человек, ему мерещилась машина, состоящая из проводов и сосудов, имитирующих кровеносную систему, плохо обработанного металла, волокон углепластика, титановых костей и трубок. Ненастоящие зубы распахивались, и где-то в ненастоящем горле рождался звук. Под искусственной кожей билась имитация сердца.

Конечно, робот сконструирован более хитро, но Павел не в состоянии представить себе ничего лучше, пока тот не вскроет грудную клетку и не покажет её состав.

Да, дискомфорт от ненормальной схожести с человеком присутствовал, но, с точки зрения выживания, опасны все: и роботы, и люди.

Какое-то время они молчали. Кира смотрела на робота, робот улыбался, а Павел давил зевки. После жары и кофе начало медленно клонить в сон.

– Что интересного есть на Базе? – наконец спросил он, прерывая молчание. – Музеи? Может быть, экскурсии по цехам?

ИИ чуть удивлённо посмотрел на него, но всё же ответил:

– Ни того ни другого. Есть кинотеатр на шестом этаже и планетарий в восточном крыле наземного этажа, но их почти никто не посещает.

– Интересно.

Мэтт неопределённо повёл плечом:

– Раз в год или в полгода поступает очередной приказ, и вся База мобилизуется.

– Вы на военном положении?

– Нет. Я имел в виду, что все ресурсы бросаются на исполнение какой-то задачи. И люди в том числе. Кого-то снимают с других проектов, кого-то вызывают из городов, однажды был набор в кодеры, и люди прилетали даже из других Систем.

– Зачем? На Базе много энергиков?

– Много. Провидцев, кодеров, тестеров – всех много.

Павел удивился, но не показал виду.

– Ты же военный робот, – внезапно сказала Кира, и Павел мысленно застонал. – Зачем делать военного робота настолько визуально неотличимым от человека?

– У разработчиков было много времени?

Кира скептически смотрит на него:

– Несколько жизней?

– А вдруг?

– Почему ты не хочешь говорить название систем?

– А почему ты не говоришь ИН?

Они замолчали.

– Может, обсудим что-нибудь другое? – предложил Павел.

Мэтт неопределенно повёл плечом, а Кира отвернулась.

– У вас нет карт, – утвердительно произнёс ИИ спустя некоторое время.

– Зачем они нам?

– Почти у всех, кого я знаю, они есть, это удобно. Всегда доступ к большому объему информации, к сети, наконец, к связи.

– Мы не хотим их ставить, – ответил Павел. Похоже, робот так же изучает их, как и они его. – Тем более я однажды видел, как происходит замыкание. Разве тут у многих карты? Кодерам же их нельзя вживлять.

– Они – это ещё не вся База, но вообще – да, им нельзя. Так вы кодерами устраиваетесь?

– А похоже?

– Нет.

– Значит, не кодерами.

Павел толкнул Киру ногой:

– Что притихла?

– Я думаю.

– И о чём же?

– Зачем мне говорить? Ты же не хочешь говорить про роботов, а обсуждать кинотеатры и кодеров уже мне неинтересно.

Павел раздраженно вздохнул. Порой она была невыносима настолько, что её хотелось бросить на какой-нибудь необитаемой планете и оставить там на пару лет.

– Обсуждай что хочешь. Можешь тут консилиум роботофилов собрать. Я предложил вам другую тему для обсуждения, потому что со своей вы явно зашли в тупик.

Кира недовольно посмотрела на него.

– Ничего подобного. У меня тысяча и один вопрос о его психоструктуре, не говоря уже о внутреннем строении. Неужели ты не понимаешь? – она ткнула в ИИ пальцем. – Перед нами отличный образец, который сам пришёл к нам в руки и даёт себя исследовать. Да, он отвечает не на всё, и я не знаю, как в его психоструктуру может быть вплетена ирония, но это уже моя вина, потому что я задаю не те вопросы, а при должном походе и результаты можно получить другие.

5
{"b":"820155","o":1}