AMD Fusion: время УП
Никого не удивляет совмещение графического ядра с основным вычислительным на едином кристалле центрального процессора. Дело теперь за интенсивным использованием встроенного графического адаптера для многопоточных вычислений, не связанных с формированием изображения. Другой вопрос – насколько это сейчас актуально?
Компания AMD настолько привержена новому подходу к реорганизации вычислительных ресурсов ПК, что новая серия ее процессоров – семейство Fusion – не называется уже «центральными процессорами». Вместо этого используется термин «ускоренный процессор» (APU, accelerated processing unit – УП вместо привычного ЦП).
«Центральный процессор» называется центральным потому, что, помимо этого основного вычислительного узла, компьютерная система оснащается и другими. Например, математическим сопроцессором (в эпоху легендарных 286-х это была отдельная микросхема), процессором для организации сетевых транзакций, процессором обработки аудиоданных и т. п. Много лет основным способом повышения производительности ЦП было наращивание его рабочей частоты. Более скоростной процессор способен за единицу времени обработать больше данных. Этот способ отлично работал, пока на компьютерном рынке не наступила эра мультимедиа и потребовалась существенно более высокая вычислительная мощность.

В отличие от Intel c ее очевидным дисбалансом между великолепной производительностью вычислительных ядер ЦП (особенно новейших Sandy Bridge) и откровенной слабостью интегрированных с ними ГП, концепция AMD Fusion предполагает более взвешенный паритет. Так, платформа начального уровня AMD Brazos (процессоры Zacate и Ontario), нацеленная на противостояние Intel Atom в нетбуках и Intel Pentium в начальных моделях ноутбуков, содержит встроенную графику уровня Radeon HD 5450 куда более производительную, чем Intel GMA HD 2000. Впрочем, на нижнюю область нетбучного/ноутбучного (и даже неттопного) сегмента уже больше года активное давление оказывают планшеты, поэтому большого интереса для потребителя платформы Intel Atom и AMD Brazos все-таки не представляют. Гораздо любопытнее (особенно в сопоставлении с новинками Intel Sandy Bridge) решения на APU AMD Llano, предложенные нынешним летом: Lynx, рассчитанное на стационарные ПК, и мобильное Sabine. Так же как и ЦП Atom, они построены по упрощенной архитектуре, что позволяет снизить и цену, и тепловыделение (благодаря сокращению числа транзисторов). Однако УП Llano – полноценные современные процессоры (микроархитектура Stars), способные содержать до четырех вычислительных ядер общего назначения, а также до четырех сотен потоковых графических процессоров – почти впятеро больше, чем представители платформы Brazos. В мобильном сегменте картина примерно та же.
В любом случае, эпоха однопоточных вычислений уходит в прошлое. И чем больше внимания программисты будут уделять многопоточному программированию, тем выгоднее будет оказываться обсчет самых разнообразных задач на УП вместо ЦП.
Летний бунт поисковых машин
Июль 2011 г. в российском сегменте Интернета ознаменовался серией скандалов, связанных с активностью поисковых систем. Точнее, с тем, что роботы-краулеры этих систем, оказывается, собирают информацию в Интернете! И предоставляют ее всем, кто способен составить детализированный поисковый запрос! «Ужас!» – возмутилась общественность. – «Неужели все, что попадает в Интернет, действительно может быть проиндексировано?!» Шел 2011 г…
Поисковые машины действительно устроены так, что собирают любую открытую незашифрованную информацию. Именно благодаря поисковикам Всемирная паутина вышла на самый высокий уровень связности, какого невозможно было бы достичь одним лишь использованием гипертекста. Не будь у AltaVista, WebCrawler, Google, «Яндекса» и прочих машин возможности искать (и находить!) Web-страницы в соответствии с запросами пользователей, – Интернет до сих пор был бы пристанищем гиков, нердов, хакеров и прочих занятных персонажей хайтековского бестиария.
Более того, только благодаря поисковикам и связанным с ними системам контекстной рекламы Web-активность больших компаний и отдельных граждан получила шанс окупиться. Сам факт появления такого неприглядного бизнеса, как поисковая оптимизация, свидетельствует: именно поисковые машины правят нынешним Интернетом. Принимать или не принимать в расчет особенности их работы – решает для себя каждый создатель крупного сайта или персональной Web-странички, однако, если полностью игнорировать очевидное, происходит именно то, что случилось в середине июля с Рунетом.
Многие администраторы сайтов сами заботятся о том, чтобы поисковые роботы индексировали их странички в точности так, как до`лжно. Для этого имеются два инструмента: карта сайта (XML-файл стандартизованного протокола Sitemaps, информирующего краулеров о подлежащих индексации страницах) и перечень исключений (пресловутый файл robots.txt, где содержатся инструкции по ограничению индексации подразделов сайта).
Соответственно, если Web-мастер или владелец странички не обладают достаточной компетенцией (или же им просто лень), инструкции для поисковых роботов не будут предусматривать сокрытия конфиденциальной информации. Такой, например, как кэш страничек с SMS-сообщениями, отправляемыми с Web-сайтов сотовых операторов. Или страницы подтверждения заказа для онлайновых магазинов (от службы доставки железнодорожных билетов до секс-шопа).
Так что пенять на поисковики в данном случае бессмысленно – вместо бунта краулеров мы имеем тут дело с очередным проявлением чисто человеческой несобранности. Кстати, если речь идет о Web-кэшировании страниц с персональной информацией, доступ к ним следует организовывать с применением шифрования по протоколу HTTPS. Но тогда придется получать сертификат безопасности, своевременно его верифицировать, тратить часть вычислительных мощностей сервера на шифрование сессий… Тоже, видимо, лень.
А следом за скандалами с обнародованием нескольких тысяч SMS-сообщений и нескольких сотен счетов из онлайновых магазинов в конце июля чуть было не полыхнуло по-настоящему, когда информационные ленты запестрели сообщениями о том, что в результатах выдачи поисковых машин по запросам «совершенно секретно» и «для служебного пользования» стали попадаться соответствующие документы отечественных госорганов.
Правда, достаточно быстро выяснилось, что проиндексированными оказались не сами документы СС/ДСП, а официальные бумаги, содержащие упоминания о них. И это понятно: госсекреты у нас традиционно оберегаются строже, чем персональные данные.
Вместе с тем именно в конце июля вступили, наконец, в силу президентские поправки в закон № 152-ФЗ «О персональных данных». Теперь граждане получают основания требовать компенсации морального и материального вреда за утечку информации о себе (в том числе и через Интернет, в том числе и из-за некорректно прописанного файла robots.txt на страничке оформления заказа в онлайновом магазине).
Допустившее утечку персональных данных юридическое лицо может быть отныне оштрафовано на несколько десятков тысяч рублей, а при повторном подобном нарушении поплатиться приостановкой деятельности. Возможно, внезапное обнаружение поисковиками не защищенных от индексирования страничек с персональной информацией имело, скажем так, профилактический смысл?
Плюс нож в спину бесплатным облакам
Очередная новая служба Google, социальная сеть Google+, стартовала в режиме доступа «по приглашениям». Как водится, первыми ее виртуальное пространство наводнили энтузиасты, искренние приверженцы поисковика и его сервисов. Тем горше для многих из этих энтузиастов было обнаружить в последние сутки, что их учетные записи в Google+ заморожены – по причине «нарушений пользовательского соглашения».