Литмир - Электронная Библиотека

Но Винер отметил, что из этого правила есть исключения - одно из них произошло в Книге Иова. Он имел в виду предисловие к книге, где Бог заключает с сатаной пари за душу Иова. "Согласно ортодоксальным иудейским и христианским взглядам, дьявол - одно из созданий Бога..." пишет Винер. "Такая игра на первый взгляд кажется жалким неравным состязанием. Играть в игру со всемогущим и всеведущим Богом - это поступок глупца". Но он утверждает, что поражение Сатаны ни в коем случае не было неизбежным или предопределенным.

Конфликт между Богом и Дьяволом - это реальный конфликт, и Бог не так уж и всемогущ. Он фактически вовлечен в конфликт со своим созданием, в котором вполне может проиграть. И все же его творение создано им по его собственной свободной воле и, казалось бы, должно получать все свои возможности действия от самого Бога. Может ли Бог играть со своим созданием в значимую игру? Может ли любой творец, даже ограниченный, играть в значительную игру со своим собственным созданием?

Для Винера ответ был положительным - по крайней мере, когда речь шла о машинном обучении. Эти модели были запрограммированы не на оптимальные ходы, а на очень ограниченное понимание игры и ее правил. Машина делала различные ходы без долгих раздумий, а затем записывала результат каждого из них в свою память. Каждому из этих прошлых решений присваивался определенный вес в зависимости от его полезности - способствовало ли оно победе, - и этот "опыт" предыдущих результатов использовался для постоянного совершенствования стратегии. Другими словами, он учился во многом так же, как и люди, - методом проб и ошибок. В некоторых случаях, отметил Винер, эти решения машины казались интуитивными и даже демонстрировали "сверхъестественную ловкость". Со временем стало очевидно, что машина развила новые способности, которые не могли быть объяснены ее конструкцией. "Создавая машины, с которыми он играет в игры, изобретатель присваивает себе функцию ограниченного творца..." заключил Винер. "Это особенно верно в случае игровых машин, которые учатся на опыте". Алан Тьюринг высказал практически ту же мысль в 1951 году: "Представляется вероятным, что, начав использовать метод машинного мышления, он не займет много времени, чтобы превзойти наши слабые способности".

В 1994 году компьютерная программа обыграла чемпиона мира по шашкам. Два года спустя Deep Blue обыграла Гарри Каспарова в шахматы. В 2011 году компьютер Watson от IBM выиграл в "Jeopardy!", практически уничтожив двух многолетних чемпионов шоу. Но ни одна из этих побед не подготовила никого к тому, что произошло в 2016 году в Сеуле. Той весной на шестом этаже отеля Four Seasons собрались сотни людей, чтобы посмотреть, как Ли Седоль, один из ведущих чемпионов мира по игре в го, играет с AlphaGo, алгоритмом, созданным компанией DeepMind, принадлежащей Google. Го - древняя китайская настольная игра, которая в геометрической прогрессии сложнее шахмат: количество возможных ходов превышает число атомов во Вселенной. В середине матча AlphaGo сделал настолько странный ход, что все присутствующие в зале решили, что это ошибка. "Это не человеческий ход", - сказал один из бывших чемпионов. "Я никогда не видел, чтобы человек делал такой ход". В итоге ход оказался решающим. Компьютер выиграл эту партию, затем следующую, обеспечив себе победу в матче из пяти партий.

AlphaGo - это разновидность глубокого обучения, особенно мощного вида машинного обучения, который с тех пор стал предпочтительным средством для получения прогнозов из огромного количества необработанных данных нашей эпохи. Кредитные аудиторы используют его, чтобы решить, выдавать или не выдавать кредит. ЦРУ использует его для прогнозирования социальных волнений. Эти системы можно найти и в программах безопасности аэропортов, где они используются для распознавания лиц на отсканированных фотографиях паспортов, и в больницах, где они стали очень хорошо диагностировать рак, и на Instagram, где они предупреждают пользователей о том, что что-то, что они собираются опубликовать, может быть оскорбительным. Оказывается, многое в жизни можно "геймифицировать", свести к ряду простых правил, которые позволяют этим машинам строить собственные модели мира - модели, которые оказываются до жути точными. В годы, последовавшие за матчем AlphaGo, революция в машинном обучении и, в частности, глубокое обучение, которое превозносили за его "неоправданную эффективность", казались безграничным энтузиазмом. К 2017 году эти алгоритмы превзошли людей-рентгенологов в выявлении рака легких, оказались быстрее и эффективнее людей в распознавании изображений на фотографиях и сочиняли барочные хоралы настолько убедительно, что профессиональные музыканты ошибочно приписывали их Баху.

Эта технология также вызывала опасения. Многие формы машинного обучения считаются технологиями "черного ящика". Они состоят из множества скрытых слоев нейронных сетей, и нет никакой возможности определить, какую модель они строят на основе своего опыта. В процессе обучения они создают внутренние узлы, представляющие абстрактные признаки или взаимосвязи, которые они обнаруживают, но ни один из которых не соответствует каким-либо терминам в человеческом языке (даже алгоритмы, обладающие сверхъестественной способностью распознавать, скажем, собак на фотографии, понятия не имеют, что такое собака на самом деле; они просто улавливают закономерности в данных). Если бы вы распечатали все, что делают сети между входом и выходом, это было бы равносильно миллиардам арифметических операций - "объяснение", которое невозможно понять. Когда AlphaGo выиграла матч в Сеуле, даже ее создатель Дэвид Сильвер не смог объяснить логику неожиданного хода алгоритма. "Он обнаружил это сам, - сказал Сильвер, - в процессе самоанализа и анализа". Хотя предпринимались различные попытки расшифровать, как машины пришли к тому или иному выводу, технология, похоже, поддается объяснению не больше, чем человеческий мозг (профессор лаборатории искусственного интеллекта Uber назвал такие попытки "искусственной нейронаукой"). Как никакая другая технология, эти алгоритмы выполнили призыв Андерсона к объективному знанию ценой человеческого понимания. Чтобы получить превосходные знания, которыми обладают машины, мы должны отказаться от своего желания знать "почему" и принять их результаты как чистое откровение.

Винер почувствовал в машинном обучении нечто принципиально религиозное, но он, пожалуй, неправильно распределил роли в Книге Иова. Эти алгоритмы - не хитрый дьявол, который перехитрил своего создателя. Вместо этого они стали абсолютными властителями, требующими слепого подчинения. По мере того как эти технологии все больше интегрируются в сферу общественной жизни, многие люди оказываются в положении, подобном положению Иова: им отказывают в праве знать, почему им отказали в кредите, уволили с работы или определили вероятность развития рака. На самом деле трудно избежать сравнения с божественным правосудием, учитывая, что наша система правосудия превратилась в настоящую лабораторию экспериментов по машинному обучению. Хотя статистический анализ используется в полицейских департаментах с середины 1990-х годов, сейчас многие правоохранительные органы опираются на алгоритмы прогнозирования для выявления очагов преступности. Одна из таких систем, PredPol, утверждает, что она в два раза точнее, чем человеческие аналитики, предсказывает места совершения преступлений. Система опирается на данные о прошлых преступлениях и помещает на своих картах красные квадратики вокруг районов или отдельных городских кварталов, чтобы обозначить их как места повышенного риска. Как отмечает Джеки Ванг в своей книге "Карцеральный капитализм", маркетинговая литература PredPol, похоже, предполагает, что система практически ясновидящая. В ней приводятся анекдоты, в которых полицейские, отправляясь в места повышенного риска, обнаруживают преступников, совершающих преступление.

43
{"b":"869786","o":1}