Интенциональный аспект смысла и модели целей «понимающих систем». Существенное отличие машинных процедур «приписывания смысла» от процессов смыслообразования человека состоит в том, что последние детерминируются побудительными механизмами деятельности, уходящими своими корнями в мотивационную сферу личности понимающего, не воспроизводимую в современных «понимающих системах». Зависимость смыслообразования от характера мотивации отражена в разработанном в советской психологии понятия личностного смысла. Личностный смысл, выражающий отношение субъекта к объекту деятельности, порождается взаимосвязью между мотивом действия и тем, на что действие направлено как на свой прямо результат, т. е. целью. Понимая предметные ситуации, события и явления, люди всегда так или иначе проявляют свое отношение к ним (в частности, эмоциональное); последнее оказывается непременным атрибутом понимания. Конкретные проявления отношений весьма многообразны, но все они, как правило, не вербализованы. Например, Т. А. ван Дейк показал, что в понимании смысла читаемого текста существенную роль играют не только осознаваемые знания, но и мнения, убеждения и аттитюды читателя [9, с. 35–51]. Поэтому психологически ориентированные разработчики «понимающих систем» полагают, что для того, чтобы символы имели для ЭВМ смысл, она тоже должна иметь собственные «убеждения», «желания» и «предпочтения». Для этого в системах должны быть предусмотрены модули, функция которых – порождать и изменять цели, в частности модули генератора мотивов, их сличения и т. п. [13, с. 998].
Важная роль побудительных механизмов деятельности в становлении процесса смыслообразования наиболее выпукло проявляется в интенциональной природе смысла: в человеческом общении смысл любого высказывания (текста) на естественном языке определяется не только тем, наименованием какого предмета (ситуации, события и т. д.) оно является, но и тем, каков замысел автора высказывания, с какой целью оно произносится. Поскольку понимание представляет собой процесс выявление смысла, то любую систему – естественную или искусственную – с полным правом можно назвать понимающей только в том случае, если она не только ищет предметные референты входного высказывания, но и выявляет цель, с которой оно было высказано. Если система не имеет у себя памяти хотя бы одной из этих моделей (предметной области и целей) и, следовательно, не соотносит с ней входное сообщение, то для такой системы сообщение не имеет смысла, и поэтому ее нельзя назвать понимающей.
Рассматривая под таким углом зрения эволюцию «понимающих систем» (см., например: [12]), сейчас можно утверждать, что многие системы, которые в 1960–1970 гг. назывались «понимающими», на самом деле таковыми не являлись, потому что производили операции над данными, не приписывая им смысла, т. е. оперировали данными, а не знаниями. Был также период, когда «понимающими» называли системы, способные осуществлять только синтаксический анализ входного предложения. Эти системы не имели моделей предметной области, не соотносили анализируемые и якобы понимаемое предложение с отображенной в нем предметной ситуацией. Устанавливая взаимно однозначные соответствия между буквами слов естественного языка и их машинными кодами, программы таких систем, по сути дела, манипулировали символами как изолированными от мира сущностями, связанными только между собой.
Надо отметить, что многие современные специалисты по вычислительной технике полагают, что поскольку в языках программирования символами программ приписываются определенные произвольно выбранные значения, то тем самым программа работает с символами как с чем-то действительно означенным. Они говорят, что могут закодировать любое слово естественного языка (например, «самолет») последовательностью нулей и единиц, приписывая тем самым этой последовательности символов тот смысл, который это слово имеет для человека. Они не учитывают, что предметная отнесенность и целевая направленность возможного использования слова в речевом общении остается у них в голове, не попадая в программу. Вследствие этого, хотя кодируемое слово, безусловно, имеет смысл для программиста и выступает для него как знание, обозначающее что-то вполне определенное, для системы, не имеющей моделей действительности и целей, оно выступает в роли данных, с которыми осуществляются преобразования, заданные алгоритмами программ. Для таких программистов вообще характерна путаница в употреблении понятия «понимание» применительно к человеку и машине; они, например, считают, что если система выполняет инженерные расчеты так, что результаты ее деятельности схожи с результатами решения расчетных задач человеком и потому понятные разработчику, то такая система понимает задачу, так как действует в соответствии с ее требованиями. однако объективно это говорит лишь о том, что понимает динамическую структуру задачи (т. е. может найти ее предметные и целевые корреляты в своем внутреннем мире) сам разработчик, а отнюдь не ЭВМ. Повторим еще раз: «понимающими», преобразующими данными в знании путем приписывания данным смысла являются только те технические устройства, которые соотносят входные сообщения с отображенными у них в памяти предметной областью и целями.
Модели предметной области стали включаться в состав систем «искусственного интеллекта» уже двадцать лет назад, а создание блоков целей – это характерная черта систем 80-х годов. В публикациях, посвященных «понимающим системам» (например, [14]), понятие «цель» чаще всего используется в контексте разработки планирующей компоненты системы – модуля построения или выведения плана (обычно речь идет о плане поведения человека, описываемого в тексте, который поступает на вход системы). Цели в них рассматриваются как вполне конкретные образования – препятствия, мешающие выполнению плана действующего субъекта. При воспроизведении в системе интерпретируемая таким способом «цель» оказывается просто одной из функций машины, имеющей мало общего с «целью» в психологии.
Гораздо более приближенными к процедурам целеобразования и соответственно приписывания смысла у человека оказываются «цели» «процедуры означивания» (термин, употребляемый разработчиками) в экспертных системах. Системы этого класса, принадлежащие к вершинным достижениям «искусственного интеллекта», несомненно, являются «понимающими», потому что означивание в них происходит способом, очень близким к человеческому. Так, в одной недавно созданной отечественной экспертной системе задачи, которые она должна решать (выдавать консультации врачам, геологам и т. д.), заносятся в рабочую память в виде фреймов, описывающих проблемную область, а действия, которые могут понадобиться для решения задач, – в виде продукций. Когда в систему поступает запрос, он попадает на некоторый шаблон, схему продукций. Затем, для того чтобы определить, какие продукции целесообразно применять для решения входной задачи, этот шаблон соотносится с проблемной областью. После соотнесения шаблон «возвращается» наполненным несколькими подходящими для решения продукциями. Разработчики называют его «означенным конфликтным набором» (конфликтным – потому что каждая из продукций набора в принципе может быть использована для решения), но, с точки зрения психолога, означивание произошло пока еще не до конца. Затем система применяет эвристические правила, с помощью которых вводятся ограничения, позволяющие в конечном счете выбрать только те продукции, которые нужны для решения. Эвристические правила, в сущности, делают то же, что у человека, например, читающего текст, осуществляет цель, – направляют деятельность. Разумеется, аналогия с целью здесь проводится только по функциям и достигаемым результатам, а не по механизмам. Разработчикам в содружестве с психологами предстоит еще много потрудиться для приближения машинных «целей» к человеческим. Процессы предвосхищения результатов будущих действий, превращения побочных результатов действия в цели через связь с мотивом, преобразования неосознаваемых результатов в осознанные – эти аспекты целеобразования человека и многие другие еще предстоит воплотить в «понимающих системах».