Литмир - Электронная Библиотека

Однако дальше дело не пошло, поскольку, кроме научного метода, у учёных до второй половины XIX века просто не было достаточной инструментальной базы как с точки зрения математических формализмов для исследования феноменологии мышления, так и с точки зрения физических и химических инструментов для исследования материи мозга.

«Взрывное» развитие математики и вслед за ней прикладных наук начиная со второй половины XIX века дало стимул к развитию и различным направлениям в области изучения мышления и интеллекта. Но здесь уже сложно говорить о какой-то последовательной работе над этой темой, так как сам по себе вопрос изучения человеческого разума является междисциплинарным и про историю развития наук об искусственном интеллекте можно говорить исключительно в ключе постепенного сбора информации и разработки методов в совершенно различных областях знания, которые затем объединялись и в конечном итоге привели к выделению искусственного интеллекта в отдельное научное направление. Другими словами, искусственный интеллект, как дерево, базируется на мощной корневой системе, в которую отдельными корешками входят различные науки от философии, чистой математики и теории вычислений до нейрофизиологии и психологии.

Так что можно выделить следующие магистральные направления научной мысли, которые питают искусственный интеллект (не включая отдельные более узкие специализации):

• философия сознания;

• формальная логика;

• теория вычислений;

• теория информации;

• кибернетика;

• вычислительная техника;

• нейрофизиология;

• психология;

• социология.

Искусственный интеллект - i_003.png

Итак, исследования в рамках философии сознания начал Рене Декарт, после которого к этой теме приобщались многочисленные философы, среди которых стоит отметить Джона Локка и Дэвида Юма. Много усилий к изучению природы сознания прилагали философы немецкой школы, в частности Артур Шопенгауэр и Георг Гегель. К XX веку философия сознания выделилась в отдельное направление в рамках аналитической философии, которое является чуть ли не единственной прикладной философской дисциплиной, имеющей большое значение для многих направлений научной мысли, в том числе и для искусственного интеллекта. Философия сознания пытается ответить на вопросы о природе сознания и его соотношения с объективной реальностью, что связано с моралью, свободой воли и этическими вопросами, которые, в свою очередь, сразу же возникают при более глубоком изучении проблем искусственного интеллекта и развития его взаимоотношений с интеллектом естественным.

Как уже было упомянуто, основы формальной логики заложил ещё в античные времена Аристотель, однако потом до начала XX века эта методология использовалась учёными без какого-либо развития. Математики пытались как-то формализовать научный метод, и даже было произведено несколько интересных попыток. Немецкие математики и логики Георг Кантор и Готлоб Фреге фактически стали отцами наивной теории множеств и теории предикатов первого порядка соответственно. Эти теории позволяли формализовать очень многое, однако страдали от важного недостатка – противоречивости. И только в 1910–1913 гг. английские математики и философы Бертран Рассел и Альфред Уайтхед опубликовали трёхтомную работу «Принципы математики», где они ввели теорию типов как инструмент для более точной формализации основ математики, в которой невозможно было сформулировать парадокс Рассела о «множестве всех множеств». Именно после этой книги развитие математики пошло семимильными шагами, в результате чего сделали свои открытия Курт Гёдель, Алонзо Чёрч, Алан Тьюринг и многие другие замечательные учёные. Так что в историческом ряду развития формальной логики стоят такие личности, как Аристотель, Г. Кантор, Г. Фреге, Б. Рассел, А. Уайтхед и К. Гёдель.

После того как в 1931 г. австрийский логик Курт Гёдель опубликовал свои работы, в которых было приведено доказательство его знаменитых теорем о неполноте, начались исследования в этом направлении. Многие из них были чисто философскими, однако две примечательные работы легли в основу всей современной вычислительной техники. Первая – лямбда-исчисление Алонзо-Чёрча, описанное в его теперь уже знаменитой статье 1936 г., в которой он показал существование неразрешимых задач. Параллельно ему Алан Тьюринг переформулировал теорему Гёделя и, пытаясь решить «проблему разрешения» Давида Гильберта, разработал формализм в виде гипотетического устройства, которое впоследствии стало носить название «машины Тьюринга».

Обобщение достижений А. Чёрча и А. Тьюринга привело к формулированию тезиса Чёрча-Тьюринга, который, являясь эвристическим утверждением, гласит, что для любой алгоритмически вычислимой функции существует вычисляющая её значения машина Тьюринга. Этот тезис постулирует эквивалентность между интуитивным понятием алгоритмической вычислимости и строго формализованными понятиями частично рекурсивной функции (по Чёрчу), или функции, вычислимой на машине Тьюринга (по Тьюрингу). Тезис невозможно строго доказать или опровергнуть ввиду того, что интуитивное понятие алгоритмической вычислимости строго не определено. Однако этот тезис в совокупности с теорией вычислений сегодня лежит в основе алгоритмического решения задач и, как следствие, имеет непосредственное применение в рамках искусственного интеллекта.

Вместе с тем в 1948 году американский математик Клод Шеннон публикует статью «Математическая теория связи», которая сегодня считается вехой в рождении теории информации. Несмотря на то что до К. Шеннона в области проблем передачи информации работали такие пионеры, как Гарри Найквист и Ральф Хартли, именно Клоду Шеннону удалось математически точно сформулировать основные положения новой науки, определить её базис и доказать основную теорему, позже названную его именем. Эта теорема определяет предел максимального сжатия данных и числовое значение информационной энтропии. В связи с дальнейшим развитием сетей передачи данных теория информации и все её приложения стали развиваться семимильными шагами, что привело к появлению многочисленных способов помехоустойчивого кодирования информации для каналов с шумом. Всё это имеет самое непосредственное значение для развития интеллектуальных систем, поскольку вопросы передачи информации в них стоят на одном из первых мест.

Конечно, одной из центральных наук, стоящих в основе разработки технологий искусственного интеллекта, является кибернетика как базовая методология исследования сложных систем, взаимодействующих друг с другом и со средой. Кибернетика сама по себе является междисциплинарной областью исследования, базирующейся на многих отраслях науки, в том числе и уже перечисленных здесь ранее. Однако именно разработанный в её рамках научный аппарат в полной мере позволяет целенаправленно заниматься поиском и проектированием сложных адаптивных и самообучающихся систем, к которым, вне всяких сомнений, относятся системы искусственного интеллекта. Кибернетику как науку разрабатывали такие знаменитые учёные, как Уильям Росс Эшби, Карл Людвиг фон Берталанфи, Джон фон Нейман, Стаффорд Бир, а также многочисленная когорта русских учёных, среди которых обязательно надо упомянуть Ивана Алексеевича Вышеградского (основоположника теории автоматического регулирования), Алексея Андреевича Ляпунова, Виктора Михайловича Глушкова и популяризатора науки об искусственном интеллекте Льва Тимофеевича Кузина.

Все теоретические изыскания в области теории вычислений, теории информации, кибернетики и других наук в конечном итоге приводят к развитию вычислительной техники как прикладной дисциплины, рассматривающей вопросы создания и программирования универсальных вычислительных машин. Попытки создать механическую машину для вычислений предпринимались со времён, наверное, Блёза Паскаля, и первым в этом преуспел наш соотечественник Семён Николаевич Корсаков, который в 1830-х годах создавал первые «интеллектуальные машины» на перфокартах. Хотя в те же самые годы английский математик Чарльз Бэббидж разрабатывал проект универсальной цифровой вычислительной машины, до реализации дело у него не дошло. Несмотря на всё это, основы современной вычислительной техники были заложены Джоном фон Нейманом, который разработал принципы построения архитектуры универсальных вычислительных машин. Впрочем, первый компьютер в современном понимании сделал немецкий инженер Конрад Цузе, он же разработал и первый язык программирования высокого уровня, однако из-за военно-политических особенностей мира в те времена работы Цузе оставались малоизвестными. После Второй мировой войны работы над созданием универсальных компьютеров велись во всё ускоряющемся ритме, который выдерживается до сих пор (так называемый «закон Мура»).

3
{"b":"657528","o":1}