2003: Маркетинг в поисковых машинах
Агрегирование может хорошо помочь в потреблении контента, но оно не решает главной проблемы – огромного избытка контента. С этим может справиться только поиск, который делает контент более управляемым за счет генерации его «на лету» – в виде ответов на поисковые запросы, отражающие интересы пользователей.
Это позволяет также и показывать рекламу «на лету». Первая успешная модель поискового маркетинга была продемонстрирована в 1998 году системой Overture (в 2003 году приобретенной Yahoo! Inc.). Она основывалась на идее платы за размещение в результатах поиска, которые показывались в том порядке, который отражал желание рекламодателей пробиться в первые строки. Google применил аналогичную модель в своем платном поисковом продукте AdWords, правда, добавив к ней компонент определения релевантности. Google также выделил специальное место для оплаченных рекламных объявлений на страницах с результатами обычного поиска, основанными только на релевантности. Релевантность, определяемая как процент кликов по каждой ссылке, эффективно перекладывает тяжесть оценки качества поиска на плечи пользователей, которые «голосуют» своими кликами за понравившиеся им ссылки. Качественные результаты поиска завоевали для Google огромную глобальную пользовательскую базу. Высокорелевантные оплаченные рекламные модули приводят к увеличенному количеству переходов на них, превращаясь в растущие продажи рекламодателей. Бесчисленные малые бизнесы обращаются через Интернет к аудиториям на противоположной стороне земного шара. Вокруг маркетинга в поисковых машинах сформировалась ни много ни мало новая отрасль с годовым оборотом, превышающим 20 миллиардов долларов.
А это означает, что он является мощным механизмом таргетирования, способным застать людей ровно в тот момент, когда они готовы что-то приобретать.
2008: Поведенческое таргетирование
Одним из недостатков поиска по ключевым словам, однако, является то, что он не учитывает контекст. Например, поиск Google не принимает во внимание разные типы данных в Интернете: является ли искомое слово чьим-то именем, названием места, песни, одежды или чем-то еще? Хотя фразу для поиска можно и уточнить (написав, например, «Canon 5 мегапикселей цифровая камера», чтобы не получать результаты, касающиеся пушек, канонов и т. п.), во многих случаях это сделать сложно. Особенно сложно иметь дело с омонимами. Например, словосочетание «Paris Hilton» может обозначать как человека, так и гостиницу (более того, несколько гостиниц и нескольких людей). У слов часто бывает много значений, и они могут зависеть от контекста.
Поскольку количество информации, наполняющей Интернет, продолжает расти взрывообразно, различение значений слов и контекстов их употребления будет ключевым фактором в том, чтобы Интернет оставался «судоходным» и релевантным. Поняв это, старые медиаигроки, такие как Thomson Reuters, и молодые стартапы, подобные Metaweb, начали инвестиции в работу по созданию «семантической Паутины». Их усилия направлены на то, чтобы классифицировать интернет-контент так, чтобы он был понятен для компьютеров и чтобы утомительная работа по связыванию однородной информации в Интернете могла быть автоматизирована. Например, представим себе семантическую веб-систему для продажи букинистических книг через Интернет. Когда кто-нибудь попадает на этот сайт впервые, его просят оставить о себе информацию: имя, адрес, электронную почту, номер телефона. Данные, введенные им, попадают в базу Resource Description Framework (RDF, «Структура описания ресурсов») и составляют контекст для будущих его визитов на этот сайт и другие сайты, входящие в семантическую Паутину. Аналогично любые данные, представленные о конкретной книге, такие как название, автор, издатель, ISBN и описание, сохраняются в аналогичной базе RDF. Таким образом постепенно создается универсальная база знаний о разных людях, местах, объектах – на основании их смысла, наличия связей в Интернете и отношения друг к другу.
В дополнение к метаданным о контенте Интернета уникальные характеристики, предпочтения и история поисков, проведенных разными людьми, также образуют важный контекст для каждого поиска. Нынешние поисковые машины в большей или меньшей степени построены на предположении, что все люди одинаковы. То есть если результаты моего поиска релевантны для меня, то они будут релевантны и для вас, будь вы 90-летней бабушкой, 12-летним мальчиком или крестьянином из Найроби.
Поведенческое таргетирование пытается заполнить этот пробел, создавая профиль каждого интернет-пользователя на основании его биографических данных и истории его деятельности в Интернете и затем показывая ему только ту рекламу, которая ему будет заведомо интересна. Рекламные сети и некоторые порталы, такие как AOL и Yahoo, уже почти десятилетие используют поведенческое таргетирование, чтобы показывать пользователям рекламу и контент, основываясь на их прошлой истории – посещенных сайтах, длительности визитов, нажатых баннерах и покупках. DoubleClick (приобретенный Google) был в свое время лидером в разработке таргетирования рекламы при помощи куков. В последнее время такие компании, как Tacoda (купленная AOL), Revenue Science, Front Porch, NebuAd и Phorm, возродили эти методы для использования широкополосными провайдерами, которые имеют доступ к гораздо большему количеству данных о веб-активности, поскольку обрабатывают трафик своих пользователей, направленный ко всем возможным сайтам, в отличие от обработки трафика на стороне сайтов, входящих в небольшой круг. Понятно, что поведенческое таргетирование вызвало к жизни целую волну дискуссий о вопросах сохранения приватности, поскольку в большинстве таких систем пользователи не дают в явном виде разрешения на такой доступ к их данным и даже часто не имеют возможности и отписаться от него и, таким образом, не могут контролировать, какая информация о них собирается и как она используется.
Будущее: социальное фильтрование
Сегодняшний бум «каждый – издатель» привел к взрывному росту онлайнового контента. Люди уже не смогут самостоятельно обработать всю имеющуюся информацию. С точки зрения отдельного человека, бόльшая часть того, что он видит на экране компьютера, – это мусор. Хотя поисковые машины и поведенческое таргетирование были первыми и важными шагами к тому, чтобы сделать изобилие онлайновых медиа более управляемым, продолжается тяжелая битва за преодоление гор информации и борьба с отвлекающими факторами. Мы продолжаем кажущуюся бесконечной войну со спамом в наших почтовых ящиках. Когда мы ищем информацию, нам приходится пролистывать десятки страниц результатов поиска, не содержащих ничего для нас интересного. Навязчивые всплывающие баннеры, рекламирующие совершенно ненужные нам товары и услуги, блокируют экран как раз в тот момент, когда мы хотим прочитать с таким трудом найденную интересную статью.
Но надежда еще не умерла. Онлайновый социальный граф может дать нам возможность впервые найти соответствие между тем, что издатели и рекламисты хотят нам показать, и тем, что пользователи хотят увидеть (рис. 2.1).
Рис. 2.1. До возникновения социального графа большее распространение приводило к большему количеству мусора. С помощью социального графа мы можем использовать наших друзей в качестве фильтров для поиска нужного нам контента и данных в нужное время
Например, формируется «подталкиваемый» контент: люди в Facebook и Twitter уже сейчас могут организовывать социально отфильтрованные ленты новостей, извещения и СМС-сообщения, касающиеся веб-страниц, статей, фотографий и постов в блогах. То есть контент, получаемый пользователем, зависит от рекомендаций его друзей. Такие извещения воспринимаются как менее навязчивые не только потому, что их получатели сами могут регулировать частоту и формат их получения, но и потому, что получаемая ими информация касается людей, которых они знают и о которых волнуются. Вы с меньшей вероятностью сочтете спамом сообщение, полученное от друга или от того, за кем вы следите в Twitter. Наоборот – большинство людей считают найденный их друзьями контент интересным и релевантным.