Выдвижение тех или иных новостей на первый план — не единственный способ влияния медиа на нашу идентичность. Мы также более склонны верить тому, что слышали прежде. В исследовании Хашера и Голдстейна от 1977 года участников попросили прочесть 60 утверждений и сказать, истинны они или ложны[263]. Все эти высказывания были правдоподобны, но некоторые истинны («Французские горнисты получают бонусы живыми деньгами, если остаются на военной службе»), а другие — нет («Развод существует лишь в технически продвинутых обществах»). Через две недели эти же испытуемые должны были оценить второй набор высказываний, в котором повторялись некоторые предложения из первого. В третий раз, еще через две недели, участники эксперимента гораздо чаще верили тем высказываниям, которые уже слышали. Информация как пища: мы — то, что мы потребляем.
Все это базовые психологические механизмы. Но если совместить их с персонализацией медиа, неприятности неизбежны. Ваша идентичность формирует ваше медиапотребление, но затем медиа формируют ваши убеждения и области интереса. Вы переходите по ссылке, и это сигнализирует об интересе к чему-то; значит, вы с большей вероятностью будете в дальнейшем видеть статьи именно на эту тему, что, в свою очередь, повысит значимость темы для пас. Вы оказываетесь в ловушке, в «я»-петле, и если система вдруг восприняла вас неверно, то это приведет к появлению весьма причудливых схем, подобно реверберации в усилителе звука.
Если вы пользуетесь Facebook, то, наверное, уже сталкивались с этой проблемой. Вы ищете свою старую подружку из колледжа, Салли. Это лишь мимолетное любопытство: а что же с ней стало после всех этих лет? Facebook воспринимает это так: вы интересуе тесь Салли. И вдруг ни с того ни с сего ее жизнь заполняет вашу ленту новостей. Вам все еще чуть-чуть любопытно, вы кликаете на новые фото ее детей, мужа и домашних питомцев, которые она вывесила, и тем самым подтверждаете догадку Facebook. С точки зрения программы, у вас с этим человеком есть какие-то отношения, даже если вы много лет не общались. И еще несколько месяцев жизнь Салли будет представлена в вашей ленте лучше, чем вам нужно. Есть люди, чьи сообщения вы прочли бы с гораздо большим интересом, но вам попадаются именно ее публикации.
Отчасти этот эффект обратной связи объясняется, по словам венчурного капиталиста Мэтта Колера, проблемой «локального максимума». Колер был одним из первых сотрудников Facebook и повсеместно считается одним из самых умных экспертов по социальным сетям в Кремниевой долине.
Проблема локального максимума, как он мне объяснил, возникает всякий раз, когда вы пытаетесь что-то оптимизировать. Допустим, вы хотите написать простые инструкции, чтобы помочь слепому, потерявшемуся в горах Сьерра-Невада, найти путь к пику этого хребта. «Потыкайте вокруг себя и проверьте, не имеет ли окружающая поверхность уклона, — говорите вы. — Если нет, то двигайтесь в направлении, где ощущается подъем, и так далее»[264].
Программисты сталкиваются с такими проблемами постоянно. Какая ссылка даст лучший ответ на запрос «рыба»? Какое фото Facebook должен показать вам, чтобы повысить вероятность, что вы приметесь листать фотографию за фотографией? Общее направление кажется довольно очевидным: нужно настраивать и корректировать выдачу в том или ином направлении, пока не попадете в точку. Но с инструкциями по ориентированию в холмах есть проблема: они в равной мере могут отправить вас и на вершину горы Уитни[265], и в ее предгорья — локальный максимум.
Кажется, ничего страшного? Однако за стеной фильтров то же может произойти с любым человеком и любой темой. Мне сложно не кликнуть на статью о новых гаджетах, хотя я на самом деле не считаю эту тему особенно важной. Персонализированные фильтры играют на наших самых непреодолимых влечениях, создавая «импульсные медиа», чтобы заставить вас переходить по ссылкам чаще. Технология обычно не способна отличить такое влечение от общего интереса, и если вы приносите сайту показы страниц, которые можно продавать рекламодателям, то все остальное и не важно.
Чем быстрее система учится на ваших кликах, тем вероятнее, что вы попадете в некий каскадный процесс: мелкое стартовое действие — клик на статью о садоводстве, анархии или Оззи Осборне показывает, что вам это нравится. Это, в свою очередь, приносит вам еще больше информации на данную тему, и вы еще более склонны кликать по новым ссылкам: тема уже подготовлена для вас.
Начиная со второго клика в игру вступает и ваш мозг. Он стремится уменьшить когнитивный диссонанс с помощью странной, неотразимой, хотя и нелогичной логики: «Зачем бы мне делать X, если я не человек, делающий X, — следовательно, в, должно быть, человек, делающий X». Каждый новый клик в этой петле еще одно самооправдание: «Черт, кажется, мне очень нравится Crazy Train[266]». Когда происходит такой рекурсивный процесс, подпитывающий сам себя, вы, по словам Колера, «оказываетесь на темной и узкой тропе». Мелодия тонет в реверберации. Если случайность н неожиданные озарения не разорвут петлю, вы застрянете и предгорьях вашей идентичности, вдалеке от реального пика.
И это еще относительно доброкачественная петля. Может быть и иначе.
Мы знаем, что происходит, когда учителя считают учеников тупыми: те становятся еще тупее. И одном эксперименте, который провели еще до учреждения комиссий по этике, учителям дали результаты теста, которые, как утверждалось, показывали IQ и степень одаренности учеников, поступающих в их класс. Однако им не сказали, что результаты были перераспределены случайным образом. Спустя год ученики, которых представили как смышленых, заметно увеличили свой IQ. Те же, чей уровень, согласно тестам, был ниже среднего, такого не добились[267].
Так что же происходит, когда Интернет считает вас тупицей? Персонализация, основанная на предполагаемом IQ, — не столь уж фантастический сценарий. В Google Docs, например, есть полезный инструмент для автоматической оценки уровня сложности написанного текста[268]. Даже если ваш уровень образования еще не попал в базу данных Acxiom, его легко может вычислить любой располагающий несколькими вашими электронными письмами и сообщениями в Facebook. Пользователям, чьи тексты говорят о наличии университетского диплома, могут чаще показывать статьи из New Yorker, а тем, кто пишет более простым языком, — из New York Post.
В мире вещательных СМИ предполагается, что все представители аудитории способны читать и обрабатывать информацию примерно на одном уровне. За стеной фильтров для этого нет никаких оснований. И это, с одной стороны, здорово: масса людей, отказавшихся от чтения, потому что газеты стали слишком заумными, могут снова начать потреблять письменный контент. Но если никто не потребует повышения качества, то эти люди надолго застрянут в третьем классе.
Поступки и приключения
Иногда передача алгоритмам права решать, что мы увидим и какие возможности нам предложат, приносит более честные результаты. Компьютер может игнорировать расу и пол, на что люди обычно не способны. Но это лишь в случае, если соответствующие алгоритмы добросовестны и проницательны. Иначе они будут просто отражать социальные нормы той культуры, которую обрабатывают.
В ряде случаев алгоритмическая обработка персональных данных может привести даже к большей дискриминации, чем если бы этим занимались люди. Например, программа, помогающая компаниям процеживать массу резюме в поисках подходящих соискателей, может «учиться», принимая во внимание, сколько рекомендованных ею кандидатов были наняты. Если работодатель выбирает девять белых подряд, то программа может сделать вывод, что компания не заинтересована в черных, и исключит их из дальнейшего поиска. «Во многих отношениях, — пишет социолог Дэлтон Конли из Нью-Йоркского университета, — такая сетевая категоризация более коварна, чем банальная сортировка по расе, классу, полу, религии или любому другому параметру»[269]. Среди программистов такая ошибка получила название «чрезмерно близкой подгонки».