Таким образом, учитываются возраст клиента, пол, семейное положение, нуждаемость в деньгах в ближайшем и отдаленном будущем.
Точно так же разбивается на рубрики все относящееся к экономической конъюнктуре, курсу акций и перспективам разных отраслей промышленности.
Затем все эти данные переводятся на язык программы, — на язык, доступный вычислительной машине. Проведя с этими данными большое число логических операций, машина выдает решение примерно такого типа: купить на 3000 долларов акций химической компании, на 4000 долларов электрической и на 3000 — водопроводной. Почему несколько видов акций? Опытный финансист никогда не посоветует вложить весь капитал в одно предприятие — в этом больше риска. Соответствующий фактор предусмотрен и в программе для вычислительной машины. Она тоже никогда не посоветует, как говорят американцы, «вложить все яйца в одну корзинку».
Кларксон проделал несколько сот опытов: вводил соответствующую информацию в вычислительную машину и получил рекомендацию от машины. А затем сравнивал ее с решением опытного банковского работника. Совпадение оказалось почти полным. А ведь в портфеле банка бывает до 1000 различных видов акций. Из этой 1000 машина выбрала те же 5–6 наименований, что и человек — квалифицированный и высокооплачиваемый.
Один только раз решение машины не совпало с решением человека. Причем выяснилось, что машина предложила более выгодный вариант.
После того как работа Кларксона завершена, можно, конечно, утверждать, что деятельность финансового работника не носит творческого характера, что она чисто формальна. Но ведь никто не говорил этого до того, как Кларксон добился успеха.
Между прочим, это обычная тактика противников кибернетики (они стали именовать себя противниками чрезмерных притязаний кибернетики). Они объявляют какую-либо сложную умственную деятельность недоступной для машины, бросают своеобразный вызов: вот вам истинно творческий труд, попробуйте его смоделировать. Затем, когда моделирование оказывается успешным, этот труд объявляется рутинным, нетворческим, формальным и выдвигается какая-нибудь новая задача в качестве «пробного камня». Однако опыт показывает, что нужна большая осторожность в предсказаниях. Нельзя рисовать ограничительный круг и утверждать: вот пределы, за которые «машинное мышление» никогда не выйдет. Сторонникам таких решительных предсказаний надо почаще вспоминать французскую поговорку: «Никогда не говорите никогда».
Если и есть психические функции, которые недоступны электронно-вычислительным машинам, то эта недоступность может быть доказана лишь в попытках промоделировать эти функции на ЭВМ. Поэтому надо работать, а не пытаться побить своих научных противников, выдергивая цитаты из канонизированных текстов.
На вопрос о пределах моделирования психики окончательный ответ даст только практика.
Любопытно, между прочим, проследить, как изменились взгляды и доводы противников «машинного мышления». Дошло до того, что некоторые физиологи вполне серьезно утверждают, будто «феномен пси» (о нем впервые заговорили исследователи телепатии) якобы обусловливает высшую психическую деятельность и выделяет человека из класса кибернетических машин. Следующим шагом будет, чего доброго, признать бессмертную душу человека, ибо по мере роста успехов моделирования психики придумывать отличия станет все труднее.
Мы так подробно рассказали о работе Кларксона, чтобы подчеркнуть: даже очень сложную интеллектуальную деятельность можно моделировать на ЭВМ. Но с остроумием дело обстоит не так просто. Если применить только двенадцать приемов, то остроты еще не будет, а будут выдаваться словосочетания, отвечающие формальным признакам. Среди них будут и остроумные. Можно ли предусмотреть в машине критическую оценку результатов по содержанию, чтобы машина сама отсеивала брак и не уподоблялась салонным дебилам?
Известно, что прежде чем научиться острить, человек должен сперва научиться говорить. То же самое можно сказать и об электронно-вычислительных машинах. Они должны сперва научиться «говорить». Мы уже упоминали, что существуют и совершенствуются программы построения осмысленных фраз. Но эти программы еще далеки от совершенства. А пока машина не «говорит», то учить ее острить преждевременно. Но что неосуществимо сегодня, может быть сделано завтра: ведь область «искусственного разума» развивается очень быстро. Не надо понимать дело так, что скоро появится машина для создания острот. Собственно, такую цель даже незачем ставить. Цель другая — изучение психических процессов и моделирование, как метод их изучения.
Влияние кибернетики на психологию проявляется не только в применении вычислительной техники, но И в том, что кибернетика изменила традиционный, прочно укоренившийся взгляд на творческий процесс как нечто таинственно-цедосягаемое, недоступное изучению, непознаваемое. Исследование тайн и закономерностей творчества стало на повестку дня современной науки.
Можно ли структуру творческого процесса разложить наконечное число элементов, четко выделить последовательность операций, в результате которых происходит акт творчества? Иными словами, можно лив принципе формализовать творчество и моделировать его? Или творчество относится к числу психических функций, которые не поддаются формализации и никогда не смогут быть промоделированы на вычислительных машинах?
Окончательный ответ на этот вопрос даст будущее. А пока моделирование творчества на ЭВМ не перенесено еще в плоскость практических решений. Но, проводя наше исследование, мы постоянно имели в виду будущие попытки моделировать акт творчества и с точки зрения этой отдаленной задачи пытались подходить к решению сегодняшних проблем.
Комментарии
1
См.: Н. М. Амосов, Мышление и информация, Киев, КДНТП, 1963.
2
См.: В. Джеймс, Психология, Спб., 1916.
3
Г. Ланге, Душевные движения, Спб., 1896.
4
S. Sherrington, The integrative action of the nervous system, Cambridge University Press, 1947.
5
D. Hebb, Organisation of Behavior, New York, 1949.
6
W. Cannon, Bodily changes in pain, hanger, fear and rage, Boston, 1953.
7
P. Bard, On emotional expression after decortication with some remarks on certain theoretical views, Part 1, «Psychol — Review», 1934, v. I, pp. 309–329; Part 2, pp. 424–449.
8
Lindsley, Emotions in «Hand Book of Experimental Psychology», Stevens, New York, 1951.
9
W. Papez, A preposed mechanism of emotion. «Arch. Neur. and Psychiatry», 1937, v. 38, pp. 725–743;
10
К. Маркс и Ф. Энгельс, Из ранних произведений, М, Госполитиздат, 1956, стр. 593.
11
Ю. Б. Боре в, О комическом, «Искусство», 1957;
Д. П. Николаев, Смех — оружие сатиры, «Искусство», 1962;
В. В. Фролов, О советской комедии, «Искусство», 1954;
Б. М. Минчин. Деякi питания теориii комiчного, Киев, 1959;
Я. Е. Эльсберг, Вопросы теории сатиры, 1957.
12
См.: А. Ньюэлл, Г. Саймон, Моделирование человеческого мышления на вычислительной машине. — Сб. «Кибернетика и живой организм».
См.: Н. Gelernteг. J. Hansen, D. Loveland, Empirical explorations of the geometry theorem proving machine. «Computers and Thought», 1963, pp. 153–163.
См.: В. Н. Пушкин, Эвристика и кибернетика, М., «Знание», 1966.