Несколько лет спустя, увидев, что GeoCities так и не стали прибыльным проектом, Yahoo ввела плату за хостинг. Сейчас видно, что это стало началом конца GeoCities. Люди стали от таких услуг отказываться, тем более что возникли новые сервисы, такие как Google Sites, предложившие еще большую простоту создания и администрирования сайта, использование новейших интернет-технологий и самое главное — бесплатность своих услуг. И все-таки GeoCities оставили после себя важное наследство: во-первых, стало понятно, что каждый человек может создать свой сайт и организовать свое присутствие в Интернете. Во-вторых, бизнес может иметь более специализированные площадки для своей рекламы.
1999: Агрегирование контента
Когда в Интернет хлынул массовый издатель, потребителям информации понадобились средства для того, чтобы управлять получением интересного для них контента: сайтами, и в особенности такими часто обновляемыми источниками, как новости, фотографии, посты в блогах. Для этого был разработан RSS — стандарт форматирования, предназначенный для передачи обновлений веб-контента. RSS-программы агрегируют контент из различных источников Интернета, собирая для подписчика «индивидуальную газету», состоящую из обновлений контента на всех сайтах, на которые он подписался. RSS-программы программируются так, чтобы регулярно проверять наличие обновлений на этих сайтах, чтобы потребителю не приходилось это делать вручную. Свойства RSS-агрегирования сейчас уже стали стандартными для многих браузеров и программ электронной почты. (Кстати, я разрабатывала RSS-модуль для Outlook в 2003 году, работая в Microsoft.) Существуют и RSS-программы, работающие на интернет-серверах, например Bloglines and Google Reader.
Издателям инструменты управления RSS-потоками, такие как FeedBurner (купленный в 2007 году Google), предоставляют возможность автоматического форматирования, анализа трафика и дополнительные рекламные сервисы. Хотя вначале существовали сомнения в том, что в RSS допустима реклама, сейчас более двух третей издателей, пользующихся FeedBurner, включают в свои RSS-потоки рекламу, считая, что это вполне жизнеспособная модель.
2003: Маркетинг в поисковых машинах
Агрегирование может хорошо помочь в потреблении контента, но оно не решает главной проблемы — огромного избытка контента. С этим может справиться только поиск, который делает контент более управляемым за счет генерации его «на лету» — в виде ответов на поисковые запросы, отражающие интересы пользователей.
Это позволяет также и показывать рекламу «на лету». Первая успешная модель поискового маркетинга была продемонстрирована в 1998 году системой Overture (в 2003 году приобретенной Yahoo! Inc.). Она основывалась на идее платы за размещение в результатах поиска, которые показывались в том порядке, который отражал желание рекламодателей пробиться в первые строки. Google применил аналогичную модель в своем платном поисковом продукте AdWords, правда, добавив к ней компонент определения релевантности. Google также выделил специальное место для оплаченных рекламных объявлений на страницах с результатами обычного поиска, основанными только на релевантности. Релевантность, определяемая как процент кликов по каждой ссылке, эффективно перекладывает тяжесть оценки качества поиска на плечи пользователей, которые «голосуют» своими кликами за понравившиеся им ссылки. Качественные результаты поиска завоевали для Google огромную глобальную пользовательскую базу. Высокорелевантные оплаченные рекламные модули приводят к увеличенному количеству переходов на них, превращаясь в растущие продажи рекламодателей. Бесчисленные малые бизнесы обращаются через Интернет к аудиториям на противоположной стороне земного шара. Вокруг маркетинга в поисковых машинах сформировалась ни много ни мало новая отрасль с годовым оборотом, превышающим 20 миллиардов долларов. А это означает, что он является мощным механизмом таргетирова-ния, способным застать людей ровно в тот момент, когда они готовы что-то приобретать.
2008: Поведенческое таргетирование
Одним из недостатков поиска по ключевым словам, однако, является то, что он не учитывает контекст. Например, поиск Google не принимает во внимание разные типы данных в Интернете: является ли искомое слово чьим-то именем, названием места, песни, одежды или чем-то еще? Хотя фразу для поиска можно и уточнить (написав, например, «Canon 5 мегапикселей цифровая камера», чтобы не получать результаты, касающиеся пушек, канонов и т. п.), во многих случаях это сделать сложно. Особенно сложно иметь дело с омонимами. Например, словосочетание «Paris Hilton» может обозначать как человека, так и гостиницу (более того, несколько гостиниц и нескольких людей). У слов часто бывает много значений, и они могут зависеть от контекста.
Поскольку количество информации, наполняющей Интернет, продолжает расти взрывообразно, различение значений слов и контекстов их употребления будет ключевым фактором в том, чтобы Интернет оставался «судоходным» и релевантным. Поняв это, старые медиаигро-ки, такие как Thomson Reuters, и молодые стартапы, подобные Metaweb, начали инвестиции в работу по созданию «семантической Паутины». Их усилия направлены на то, чтобы классифицировать интернет-контент так, чтобы он был понятен для компьютеров и чтобы утомительная работа по связыванию однородной информации в Интернете могла быть автоматизирована. Например, представим себе семантическую веб-систему для продажи букинистических книг через Интернет. Когда кто-нибудь попадает на этот сайт впервые, его просят оставить о себе информацию: имя, адрес, электронную почту, номер телефона. Данные, введенные им, попадают в базу Resource Description Framework (RDF, «Структура описания ресурсов») и составляют контекст для будущих его визитов на этот сайт и другие сайты, входящие в семантическую Паутину. Аналогично любые данные, представленные о конкретной книге, такие как название, автор, издатель, ISBN и описание, сохраняются в аналогичной базе RDF. Таким образом постепенно создается универсальная база знаний о разных людях, местах, объектах — на основании их смысла, наличия связей в Интернете и отношения друг к другу. В дополнение к метаданным о контенте Интернета уникальные характеристики, предпочтения и история поисков, проведенных разными людьми, также образуют важный контекст для каждого поиска. Нынешние поисковые машины в большей или меньшей степени построены на предположении, что все люди одинаковы. То есть если результаты моего поиска релевантны для меня, то они будут релевантны и для вас, будь вы 90-летней бабушкой, 12-летним мальчиком или крестьянином из Найроби.
Поведенческое таргетирование пытается заполнить этот пробел, создавая профиль каждого интернет-пользователя на основании его биографических данных и истории его деятельности в Интернете и затем показывая ему только ту рекламу, которая ему будет заведомо интересна. Рекламные сети и некоторые порталы, такие как AOL и Yahoo, уже почти десятилетие используют поведенческое таргетирование, чтобы показывать пользователям рекламу и контент, основываясь на их прошлой истории — посещенных сайтах, длительности визитов, нажатых баннерах и покупках. DoubleClick (приобретенный Google) был в свое время лидером в разработке таргетирования рекламы при помощи куков. В последнее время такие компании, как Tacoda (купленная AOL), Revenue Science, Front Porch, NebuAd и Phorm, возродили эти методы для использования широкополосными провайдерами, которые имеют доступ к гораздо большему количеству данных о веб-активности, поскольку обрабатывают трафик своих пользователей, направленный ко всем возможным сайтам, в отличие от обработки трафика на стороне сайтов, входящих в небольшой круг. Понятно, что поведенческое таргетирование вызвало к жизни целую волну дискуссий о вопросах сохранения приватности, поскольку в большинстве таких систем пользователи не дают в явном виде разрешения на такой доступ к их данным и даже часто не имеют возможности и отписаться от него и, таким образом, не могут контролировать, какая информация о них собирается и как она используется.