Человек в масштабах биомассы Земли
Если измерять эволюционный успех какого-либо вида величиной биомассы, то человеку нечем особо похвастаться. Согласно подсчетам ученых[4], 80 % биомассы Земли составляют растения, 13 % – бактерии (в одном только кишечнике человека их больше, чем звезд в нашей Галактике), 2 % приходится на грибы, 0,20 % составляют насекомые, паукообразные и ракообразные, около 0,13 % – рыбы, потом еще 0,05 % – представители животного мира и только 0,01 % в общей биомассе Земли – это люди. Фактически грибов и насекомых на Земле гораздо больше, чем людей. При этом мы считаем, что планета – это наша песочница для игр, ибо мы «цари природы». В реальности же мы аномалия, ведь нас очень мало, но ни один вид не оказывает на планету столь сильного воздействия, как мы.
Глава 3
Три типа искусственного интеллекта
Искусственный интеллект пока не претендует на мировое господство и еще довольно долго к нему не приблизится. Не способен он пока и «осознать себя», ибо находится в зародыше, – если провести параллель с нами и нашими предками, ИИ сейчас в стадии всего лишь прибрежной амфибии, которая начинает потихоньку смотреть на сушу. До приматов и сложного сознания ИИ еще далеко. Экспертное сообщество условно разбило эволюцию искусственного интеллекта на три этапа. Сейчас он находится на первом – artificial narrow intelligence (ANI), или узконаправленный ИИ. Все примеры условно умных машин, что мы видим сегодня, начиная от голосовых ассистентов Siri (Apple), Google Assistant, Cortana (Microsoft), Alexa (Amazon) и «Алисы» («Яндекс»), всех умных ботов, роботизированных пылесосов, беспилотных автомобилей, суперкомпьютеров, обыгрывающих человека в шахматы, и заканчивая компьютерным зрением, наводящим ракеты боевого дрона на цель с лицом идентифицированного террориста, – все это примеры ANI, или машин, заточенных под выполнение одной очень узкой задачи. Чем уже задача, тем лучше машина с ней справляется. Например, в системах распознавания лиц и идентификации личности по их изображению в настоящее время достигнута теоретическая эффективность 99,97 % – это мизерные шансы остаться анонимным в условиях, когда на вас смотрит городская камера с подключенной нейронной сетью распознавания. Причем, что важно, этот результат будет доступен и вашей родной полиции, и спецслужбам, и враждебно настроенным хакерам, которые могут использовать идентификацию не по назначению, например выявляя в толпе сотрудников спецслужб, у которых (сюрприз!) тоже есть лица, – но об этом мы поговорим в одной из последующих глав. Если «натравить» машину на распознавание фотографий кошечек и собачек (еще несколько лет назад эта задача считалась непосильной), она будет успешно классифицировать их с вероятностью выше 99 % – хотя лично мне до сих пор непонятно, кому нужна эта функция ☺ Стоит заменить фото животных на рентгеновские снимки легких или мозга, а машину заставить обнаруживать аномалии вроде злокачественных опухолей и ставить диагноз – она и тут справляется с заданием. Это примеры очень узких задач, в которых машина уже работает лучше человека или как минимум наравне с самыми талантливыми из нас.
Успешное обучение ИИ конкретным задачам влечет за собой последствия для рынка рабочих мест: специалисту-человеку становится все сложнее найти работу, ибо Homo sapiens хочет кушать, получать зарплату, страховку и отпуск, люди могут организовываться в профсоюзы и выходить на забастовки, болеть или просто быть не в настроении, а машину можно взять в лизинг и просто регулярно обслуживать, причем она всегда будет «на пике формы». Следовательно, работодатель при прочих равных начнет все чаще предпочитать машину. Но пока этот интеллект крайне несовершенен – достаточно сделать всего лишь шаг в сторону от узкой задачи, и все перестает работать. Например, стоит человеку надеть маску во время пандемии коронавируса или как следует похудеть, и точность распознавания лица резко упадет. Стоит сказать машине «на рентгенах надо смотреть не только на онкологию, но и вообще все диагнозы ставить, например выявлять осколки шрапнели», машина «покрутит пальцем у виска» и перестанет работать, хотя любой человек-рентгенолог без труда справится с задачей. Если попросить ANI, коим является, например, Siri, поставить культовую песню «Let It Be», она вполне может решить, что вы предлагаете ей съесть пчелу (let eat bee), а заказав какао и бриошь, можете, сам того не желая, отдать ей приказ «атаковать Польшу». ANI крайне несовершенен, когда к решаемой задаче подключается то, что для человека является естественным, но для машины – дикостью: любой отход от четкой задачи выводит ее модели из равновесия, ибо ИИ не может интерпретировать и обобщать так же, как человеческий мозг.
Но количество ошибок падает, а горизонтальный функционал (то есть способность на том же рентгене видеть все больше и все лучше) растет – ANI очень резво двигается в сторону AGI, или artificial general intelligence (общего искусственного интеллекта) – уровень ИИ, при котором машина может выполнять любую работу, которую способен делать человек, причем не хуже него. Апологетом движения в сторону AGI традиционно выступает Google – основатели компании Ларри Пейдж и Сергей Брин не раз высказывались о том, что AI ни в коем случае не надо бояться. И Google полным ходом движется в этом направлении – пожалуй, сильно быстрее большинства конкурентов: у Google есть уникальный массив и поисковых, и картографических, и финансовых, и визуальных (YouTube) данных, а браузер Chrome (по состоянию на сентябрь 2020-го им пользуются 68,5 % всех жителей Сети) – это арсенал, которого в таком объеме нет больше ни у кого. Но что важнее, работа с такими массивами данных постоянно подстегивает инженерный гений Google, заставляет придумывать инновационные решения. И на данный момент Google впереди всех.
Пока AGI сделать не получается, ибо это не просто машина, способная качественно выполнять несколько десятков тысяч узких задач. Человеческое сознание отличает непостижимая пока для машины способность обобщать и находить закономерности и стратегии там, где их, казалось бы, совсем нет. Например, человек видит в небе облако, но как бы в форме суслика, а в глубине души словно слышит «Ой, то не вечер, то не вечер» – и как-то тоскливо так, что невольно возникает потребность сделать что-то хорошее и полезное для сусликов, например написать программу для мониторинга их колоний, чтобы природоохранные организации могли взять их под защиту. Машина же просто видит облако – и все.
Но это не означает, что ИИ не эволюционирует в сторону AGI. Напротив, это происходит прямо сейчас при нашей активной помощи. Мутация ANI в AGI – вопрос времени, AGI без ANI был бы невозможен. AGI появляется не в вакууме, его разработка вбирает в себя значительную часть наработок ANI, начиная с перцептрона. Весь этот опыт и накопленный багаж знаний будет использован для создания принципиально новых методов работы ИИ, необходимых для AGI. По сути, мы имеем дело с такой же эволюцией, где каждое значимое качественное изменение, как правило, предвосхищается огромным количеством мелких усовершенствований: появление более сложной формы жизни, такой как приматы, невозможно без миллионов мутаций более простых организмов – по аналогичному принципу, появление ASI (artificial super intelligence), или искусственного суперинтеллекта – версии ИИ, опережающей человеческий интеллект абсолютно во всех задачах, невозможно без AGI и ANI.
Часть ученых, однако, считает, что ИИ никогда не сможет стать разумным и в некотором роде равным человеку (AGI). Основной аргумент противников общего ИИ – мысленный эксперимент в области философии сознания и искусственного интеллекта. Он называется «Китайская комната» и впервые был описан Джоном Серлом в 1980 году в статье «Сознание, мозг и программы»[5]. Суть эксперимента очень проста: представьте изолированную запертую комнату, в которой находится человек, не знающий ни одного китайского иероглифа. У него есть блокнот с инструкциями примерно такого вида: «Возьмите такой-то иероглиф из коробочки номер один и поместите его рядом с таким-то иероглифом из коробочки номер два», но в этих инструкциях отсутствует информация о значении иероглифов, так что человек просто выполняет предписанное. Второй человек (наблюдатель), знающий китайский, через щель под дверью комнаты один за другим просовывает листочки, на которых иероглифами написаны вопросы. На выходе наблюдатель ожидает получить осмысленный ответ. Инструкции для человека в комнате составлены таким образом, что если он будет им следовать, то из своих коробочек достанет нужные иероглифы, представляющие собой ответ на поставленный вопрос, и просунет обратно под дверь. Такой процесс эмулирует деятельность компьютера (человек в комнате) при работе с живым оператором (наблюдатель). В эксперименте с «китайской комнатой» наблюдатель может отправить под дверь любой вопрос, например «Какой ваш любимый цвет?» или «За какую команду будете болеть на чемпионате мира по футболу?», и получить вполне естественно выглядящий ответ – «Красный» или «Я болею за Германию со времен их победы над Аргентиной в 1990-м»; это похоже на общение с разумным человеком, который тоже владеет китайской письменностью. Но загвоздка в том, что человек в комнате ничего не знает ни о китайском языке и иероглифах, ни о том, что у него спрашивают, ни даже о том, что такое «красный» или «сборная Аргентины». Он просто реализует записанную в блокноте последовательность действий по перекладыванию иероглифов из одной коробочки в другую и не может ничему научиться, ибо не знает значения ни одного иероглифа. Противники AGI утверждают, что машина была, есть и будет человеком в «китайской комнате», выполняющим записанный в блокноте алгоритм, а сам принцип работы человеческого сознания для нее непостижим.