На практике системы вроде этой основываются на идее, что определенные математические операции легче совершить в одном направлении, чем в другом, например умножение и разложение на множители. Если я скажу вам, что х умножить на у равняется 37523, сколько времени вам понадобится, чтобы разложить произведение на множители и сообщить мне значения х и у? Но если я задам вам обратную задачу, скажу, что 239 умножить на 157 равняется z и попрошу вычислить z, уверен, вы дадите ответ гораздо быстрее. Самый популярный метод шифрования с открытым ключом основан на сложности факторизации очень больших чисел. Это занимает много времени даже у мощнейших компьютеров. К примеру, на факторизацию тысячезначного числа уходит больше времени, чем возраст Вселенной, даже при использовании мощнейшего в мире компьютера!
Однако, если когда-нибудь мы сумеем создать квантовый компьютер, у нас может появиться способ гораздо более быстрой факторизации чисел. Если это произойдет, безопасность современных систем шифрования очень быстро окажется под угрозой. Впрочем, даже в отсутствие квантовых компьютеров нельзя забывать о прогрессе в математике, который может привести к открытию алгоритма для факторизации больших чисел. К счастью, есть и другой тип криптографии, который гарантирует полную безопасность и основывается на квантовой механике.
Главная идея квантовой криптографии заключается в разрешении передачи криптографического «ключа» между удаленными друг от друга сторонами – которые в литературе называют Алиса (отправитель) и Боб (получатель) – в условиях абсолютной безопасности, обеспечиваемой законами физики. Этот ключ позволяет отправителю зашифровать, а получателю расшифровать текст послания. Так что квантовую криптографию корректнее называть квантовым распределением ключей.
В настоящее время разработаны две техники. Обе основаны на том, что, согласно квантовой механике, любая попытка шпиона перехватить ключ предполагает некоторое измерение, а это неизбежно нарушает состояние системы и предупреждает отправителя и получателя. Первая техника, протокол Беннета – Брассара, названный в честь ученых, которые изобрели его в 1984 году, полагается на идею о том, что Алиса и Боб проводят измерения и обмениваются фотонами. Определенные свойства этих фотонов, в частности их поляризацию, затем можно преобразовать в бинарную последовательность нулей и единиц, чтобы создать ключ. Не вдаваясь в технические детали, скажу, что в основе этого метода лежат квантовая суперпозиция и принцип неопределенности.
В начале 1990-х годов Артур Экерт открыл второй протокол, который основывается на феноменах нелокальности и запутанности. Здесь Боб посылает Алисе один из пары запутанных фотонов, который она каким-то образом измеряет и отправляет обратно. Затем Боб проводит измерение комбинированного состояния, с помощью которого выясняет, какое именно измерение произвела Алиса. Его знание о серии измерений Алисы и составляет ключ. Любая попытка шпиона перехватить фотон окажет влияние на его партнера и предупредит Боба.
Закон Мура
Не знаю, хранится ли он до сих пор в одном из темных углов моей квартиры, но более двадцати лет назад я купил свой первый программируемый компьютер. Это был Sinclair ZX81[78] с процессором частотой 3 МГц и одним килобайтом памяти. Я добавил дополнительную память, подсоединив к нему плату ОЗУ на 16 килобайт, которая хотя бы дала мне возможность набирать более одного экрана кода, прежде чем память заполнялась до отказа. Но любой незначительный толчок – и физическое соединение, обеспечиваемое неисчерпаемым запасом клея-пластилина, разрывалось, стирая все, что я успел напечатать. В общем, использовать этот компьютер мне удавалось только для создания коротких программ для расчета данных для моих лабораторных отчетов, что занимало бы существенно больше времени при применении карманного калькулятора. Ноутбук, на котором я работаю сегодня, по размеру сравним с тем компьютером, но снабжен процессором частотой 1000 МГц (в триста раз быстрее) и 15 гигабайтами дискового пространства (в миллион раз больше). При этом ему уже больше года, так что его нельзя назвать последним словом техники.
В 1965 году один из основателей компании Intel Гордон Мур предсказал, что в обозримом будущем мощность компьютеров будет удваиваться каждые восемнадцать месяцев. Его предсказание, теперь называемое законом Мура, оказалось на удивление точным, и теперь нам всем известно, что наши компьютеры необходимо регулярно обновлять, чтобы они поддерживали все более и более сложные программы. Но сколько еще так может продолжаться? Знаем ли мы, когда произойдет нарушение закона Мура?
Оказывается, мы действительно знаем, когда это случится, при условии что нынешний вектор развития технологий останется неизменным. В предыдущей главе я упомянул, что лазеры используются для вырезания крошечных узоров интегральных микросхем на поверхности кремниевых чипов. Повышение компьютерной мощности зависит от постоянной миниатюризации этого процесса. Учитывая современное развитие технологий, это будет без проблем продолжаться еще около двадцати лет, по мере того как длина волны лазера будет становиться все короче и короче. Однако было высказано предположение, что закон Мура резко перестанет действовать через пять-десять лет из-за неизбежной проблемы повышения миниатюризации, которая называется тепловым шумом. Но даже без нее мы в конце концов наткнемся на так называемый «первый» барьер. Это произойдет, когда длина волны лазерного пучка станет такова, что ширина каждого транзистора микрочипа будет составлять всего 0,1 микрона. Это означает, что около одной тысячи транзисторов, расположенных вплотную друг к другу на чипе, можно будет разметить на срезе человеческого волоса. К этому моменту длина волны лазеров будет находиться глубоко в ультрафиолетовом диапазоне и нам придется искать другую технику создания еще более тонких пучков с гораздо более короткими длинами волн. Альтернативой дальнейшей миниатюризации чипов может стать замена кремния арсенидом галлия. Атомное строение этого полупроводящего материала позволит размещенным на его поверхности микросхемам гораздо быстрее проводить электричество.
В итоге мы достигнем другого барьера, называемого критерием Рэлея, который гласит, что минимально разрешимые элементы чипа должны быть не меньше, чем половина длины волны пучка. По достижении этой стадии нам следует начать учитывать квантово-механические эффекты. К примеру, сейчас изучается возможность использования квантовой запутанности фотонов лазерного пучка, чтобы отодвинуть этот барьер, но, скорее всего, ненамного.
Как только мы дойдем до молекулярных масштабов, что произойдет примерно к 2020 году, век полупроводниковых чипов закончится. Исследователи уже ищут альтернативы, и две области кажутся довольно перспективными. Первая связана с использованием биомолекулярных компьютеров, которые основываются на способности молекул ДНК хранить невероятное количество информации, благодаря чему однажды они могут быть применены для создания молекулярных логических схем. Другая заключается в возможности использования квантовых транзисторов, которые полагаются на свойства отдельных электронов, искусственно помещенных в «квантовые колодцы» немногим больше атома. Немного изменяя напряжение в этих колодцах, мы можем контролировать поведение электронов подобным действию транзистора способом.
Все вышеописанные достижения представляют собой не просто спекуляцию и помогут росту компьютерной мощности еще при нашей жизни. Однако все большее число квантовых физиков работает над настоящей проверкой квантовой странности. Они не сомневаются, что в этом веке им удастся создать величайшую квантовую машину – квантовый компьютер.
Кубиты
В начале 1980-х годов, примерно в то время, когда я купил свой ZX81, физик Ричард Фейнман высказал предположение, что определенные проблемы, к примеру вопросы симуляции поведения квантовой системы, разумнее решать при помощи компьютера, который также действует по законам квантовой механики. Такой компьютер должен применять идею суперпозиции для создания совершенно новых типов алгоритмов. Вскоре исследование квантовых компьютеров выделилось в отдельную область науки, когда в 1985 году оксфордский физик Дэвид Дойч опубликовал прорывную статью, в которой показал, каким образом их создание достижимо на практике.