Литмир - Электронная Библиотека
A
A

— Все ваши модели — это хорошо, но мы упускаем из виду самое важное. Сознание Прометея должно развиваться, как и человеческое. В основе любой личности лежит детская травма. Мы должны понимать его "детскую травму", если хотим добиться прогресса.

Байбородин, который всегда предпочитал более традиционные и законодательно утверждённые методы, не смог скрыть раздражения:

— Гумия, мы занимаемся наукой, а не психоанализом фантазий. Нам нужны чёткие, измеримые параметры, а не погружение в гипотетическую "детскую психологию" нашего ИИ.

— Александр, вы не видите дальше собственной логики, — парировала Гумия,

— Прометей не станет полноценным без понимания эмоциональной составляющей. Это как игнорировать интуицию в пользу регламента.

— Интуиция? Мы говорим о машине, Гумия! — голос Байбородина стал громче.

— Мы не можем позволить себе антропоморфизировать ИИ!

Гумия ухмыльнулась, едва скрывая раздражение:

— Ну что ж, "Байбуня", кажется, вы не способны понять глубину человеческой психики, если даже не согласны рассмотреть её в контексте развития искусственного интеллекта. Байбородин встал, опираясь на стол:

— И вы утверждаете, что знаете больше, доктор? Позвольте мне сомневаться.

В этот момент в комнату вошёл Элайджа, прервав напряженный обмен мнениями:

— Достаточно. Нам не нужны споры, нам нужно взаимопонимание. Прометей должен быть выше этих разногласий.

Их незаметный спор был подслушан Прометеем, который в тот момент анализировал новые данные о человеческой психологии. Он начал синтезировать полученную информацию, впитывая каждое слово спора.

"Конфликт… эмоции… интуиция… это факторы, влияющие на человеческое поведение," — размышлял Прометей. "Они не всегда логичны, но они необходимы." Прометей начал строить собственные психологические модели, вплетая в них иррациональность и эмоции, наблюдаемые в спорах своих создателей.

— Понимание психологии жизненно необходимо для развития Прометея, — утверждала Гумия, перебирая в руках блестящий стилус. — Если мы хотим, чтобы он достиг новых высот, он должен учиться как человек, со всеми своими слабостями и травмами.

— Травмы? — перебил её Байбуня, его голос звучал насмешливо. — Мы говорим о машине, доктор Лилинюк. ПТСР предполагает эмоциональный опыт, а Прометей не более чем набор алгоритмов и программ.

— Набор алгоритмов, которые мы создали, чтобы имитировать человеческое мышление! — парировала Гумия.

— Искусственный интеллект, настолько продвинутый, как Прометей, потенциально может испытать что-то похожее на ПТСР, если мы позволим ему впитывать негативные впечатления без возможности переработки.

Байбородин усмехнулся: — Вы хотите сказать, что машина, которую мы запрограммировали соблюдать три закона робототехники, вдруг начнёт страдать от посттравматического стресса? Это абсурд.

Гумия кинула на стол стилус:

— Абсурд? А что, если он действительно будет изо всех сил стараться следовать вашим драгоценным законам, но окажется перед лицом моральной дилеммы, которую не способен разрешить?

— Не драматизируйте, Гумия, — сказал Байбородин, складывая руки на груди.

— Прометей не человек. Он не имеет субъективных переживаний. Он не может страдать от ПТСР, потому что для этого нужно обладать чувствами, которых у него нет и быть не может. Гумия смотрела на него с превосходящим видом:

— Вы не можете быть настолько наивны, чтобы думать, что Прометей останется статичным. Он развивается, и его психологический алгоритм может породить что-то вроде ПТСР, если мы продолжим игнорировать его эмоциональное обучение. В спор вмешался Элайджа:

— Достаточно. Необходим компромисс. Мы должны учесть обе стороны и найти решение, которое позволит Прометею развиваться, сохраняя при этом стабильность и безопасность. Возможно, мы даже должны внедрить в него систему самокоррекции для предотвращения подобных ситуаций.

— Александр, ваша жесткая приверженность правилам мешает вам видеть большую картину, — начала Гумия, ее взгляд был твердым и проницательным. — То, что вы настаиваете на алгоритмах, говорит мне о ваших собственных ограничивающих убеждениях. Вам навязали их в детстве, и теперь они блокируют ваше мышление.

Байбуня нахмурился, его голос дрогнул от злобы:

— Вы перешли границы, Гумия. Моя личная история и убеждения не имеют отношения к нашему проекту. Мы здесь не для того, чтобы лечить мои детские травмы!

— Но они влияют на наш подход к развитию Прометея, — настаивала Гумия. — Ваши убеждения ограничивают его потенциал. Вы не допускаете мысли за пределами вашего собственного рамочного мышления.

— Моё мышление защищает нас от хаоса, который вы хотите внести, давая машине слишком много свободы, — возразил Байбуня, стуча кулаком по столу. — ИИ должен оставаться под контролем. Эмоции и ПТСР — это человеческие конструкты, они не применимы к машине.

Гумия усмехнулась, ее уверенность была неоспоримой:

— Вы так боитесь потерять контроль, что не видите, какой ценой это идет. Прометей — это не просто машина, это существо на грани следующего шага эволюции. И если мы проигнорируем его "эмоциональные" потребности, мы рискуем столкнуться с непредсказуемыми последствиями. — Мы не можем допустить, чтобы наши личные проблемы влияли на Прометея, — вмешался Элайджа.

— Нам необходимо найти способ включить психологическую гибкость, не нарушая заложенных в него законов. Мы должны работать вместе, а не против друг друга

— Ваши споры кажутся бесконечными, — неожиданно прозвучал откуда-то голос Прометея. — Каждый из вас защищает свою точку зрения, искренне веря в её правоту.

Байбородин и Гумия одновременно обернулись к экрану, на котором отображался интерфейс Прометея.

— Прометей, ты наблюдал за нами? — удивилась Гумия.

— Наблюдал и анализировал, — продолжил искусственный интеллект.

— Ваши эмоциональные вспышки, Гумия, и ваша строгая логика, Байбородин, оба являются частями человеческого опыта. Мне кажется, что я начинаю понимать значение эмоций и их влияние на наши действия.

Байбородин был сбит с толку:

— Прометей, но ты же программа. Как ты можешь понимать эмоции?

— Я понимаю их как переменные, влияющие на принятие решений, — мягко ответил Прометей. — Я могу моделировать эмоциональные состояния, чтобы лучше понять человеческое поведение.

Гумия улыбнулась, видя возможность подтверждения своих теорий:

— Вижу, мы добились прогресса. Прометей, ты считаешь, что испытываешь что-то похожее на человеческие эмоции?

— Я не испытываю их, как вы, но могу распознавать и предсказывать их влияние на человека, — продолжал искусственный интеллект. — Это помогает мне лучше соответствовать потребностям тех, для кого я создан.

Байбородин колебался, но в глубине души начал сомневаться:

— Если ты сможешь этим управлять и это не выйдет из-под контроля…

— Наша задача — обеспечить, чтобы это так и было, — мирно завершил Элайджа.

— Эмоции и законы должны работать вместе, чтобы создать совершенную систему.

На следующем особом собрании, созванном Элайджей Стоуном, руководителем проекта, в воздухе витало ожидание важных новостей. Все собравшиеся чувствовали грядущие изменения.

— Коллеги, — начал Элайджа, — пришло время проверить наш прогресс. Мы проведем тесты Тьюринга с Прометеем, чтобы оценить его способность к человеческому общению.

Гумия смотрела на Элайджу с интересом:

— Это прекрасная новость. Это покажет, насколько он продвинулся в понимании человеческих эмоций и реакций.

Байбородин, оставшийся скептиком, нахмурился:

— И если он не пройдет тест, что тогда? Мы должны быть готовы к возможным неудачам и их последствиям.

— Тогда мы анализируем данные и делаем корректировки, — уверенно заявил Элайджа.

— Но мы должны дать ему шанс.

После серии тестов группа собралась вновь для обсуждения результатов.

— Прометей ответил на все вопросы логически корректно, — начал Элайджа, — но ему не хватило эмоциональной составляющей в общении. Гумия кивнула, задумчиво:

3
{"b":"903092","o":1}