Литмир - Электронная Библиотека
Содержание  
A
A

Базовым строительным кирпичиком квантовых компьютеров являются кубиты (qubit, сокращение от quantum bit — квантовый бит) — «квантовые версии» двоичных регистров. Как и бит, кубит допускает два собственных состояния, обозначаемых — по предложению Поля Дирака — «|0〉» и «|1〉». При этом, согласно принципам квантовой механики, кубит находится в «суперпозиции»: «A|0〉 + B|1〉», где A и B — это комплексные числа, удовлетворяющие условию A2 + B2 = 1, а при любом измерении состояния кубита он случайным образом с вероятностью A2 переходит в состояние «|0〉», а с вероятностью B2 — в состояние «|1〉». Кубиты могут пребывать в состоянии «квантовой запутанности» друг с другом, что предполагает наличие между ними некоторой ненаблюдаемой связи, выражающейся в том, что при любом изменении одного кубита остальные изменяются согласованно с ним. Из кубитов можно составлять квантовые логические вентили, позволяющие конструировать сложную вычислительную логику. Также существует расширенная версия кубита с количеством состояний больше двух — кудит (qudit, сокращение от quantum dit — квантовый дит[1714])[1715].

За последние три десятилетия достижения в области квантовых вычислений стимулировали значительный интерес к этой области со стороны промышленности, инвесторов, средств массовой информации, менеджмента и общества. Создано множество опытных квантовых компьютеров, возможности которых пока существенно ограниченны, однако с их помощью уже получен ряд обнадёживающих результатов[1716]. В последние годы активно исследуются возможности реализации алгоритмов машинного обучения на квантовых компьютерах. Разработаны квантовые реализации как для «классических» методов, таких как линейная регрессия[1717], [1718], [1719], [1720], деревья решений[1721], SVM[1722], [1723], [1724], скрытые марковские модели[1725], [1726], так и для различных архитектур нейронных сетей: машин Больцмана[1727], [1728], [1729], [1730], [1731], [1732], вариационных автокодировщиков[1733], свёрточных сетей[1734], LSTM[1735], трансформеров[1736], а также произвольных многослойных перцептронов[1737][1738][1739], [1740], [1741]. Предложены концепции, позволяющие реализовать на квантовых машинах такие парадигмы машинного обучения, как обучение с подкреплением[1742], генеративно-состязательные сети[1743], [1744], [1745] и ансамбли моделей[1746][1747], [1748].

По мере создания квантовых компьютеров, состоящих из достаточно большого числа элементов (кубитов или кудитов), квантовые машины смогут претендовать на роль основной вычислительной платформы для задач машинного обучения. Однако пока их разработка находится на стадии поиска физической основы вычислений, наиболее подходящей для последующего масштабирования. Появление удачной физической платформы может стать началом настоящей революции, которая до неузнаваемости изменит нашу вычислительную технику, а вместе с ней, по всей видимости, и всю индустрию машинного обучения. Обнадёживающие новости приходят и из мира нанофотоники.

В биотехнологических лабораториях учёные из биологических нейронов выращивают органоиды, которые могут стать основой будущих вычислительных устройств на основе технологий wetware[1749]. Исследователи из компании Cortical Labs создали систему Dishbrain, состоящую из находящихся в чашке Петри примерно миллиона человеческих нейронов, которая успешно соперничает с искусственными нейронными сетями при обучении игре в Pong[1750]. Клеточные культуры управляют первыми криповатыми гибротами (гибридными роботами из электроники и живой ткани)[1751].

Какие-то из этих технологий так и останутся лабораторными игрушками, а каким-то уже совсем скоро предстоит стать новой технологической базой нашего общества.

5.4 Данные

Ещё младенцем, однажды где-то

без спросу взял я с гербом и грифом бумагу;

и в правом верхнем углу цветное

своё, конечно, изображенье наклеил;

а посредине — единым махом,

славянской вязью, китайской тушью —

вписал подряд, как есть, не тая:

свой рост и возраст, и вес и адрес,

и род занятий, и беспартийность, конечно;

к тому прибавил, со строчки красной,

подробный список родных и близких, а как же;

потом немного ещё подумал —

и отпечаток большого пальца

оттиснул в левом нижнем углу;

а в нижнем правом — поставил подпись,

таким уж, видно, смышлёным был я ребёнком…

Михаил Щербаков

Важным и во многом недооценённым фактором, повлиявшим на прогресс технологий машинного обучения, является наличие массивов оцифрованных данных, которые могут быть использованы в качестве обучающих выборок. В датасете MNIST, широко использовавшемся на заре новой коннекционистской весны, содержится 60 000 изображений в обучающей и 10 000 в тестовой выборке. Если при обучении перцептрона Розенблатта вы предъявляли бы ему эти изображения обучающей выборки со скоростью одно в секунду, процесс обучения занял бы почти 17 часов. А ведь это массив, который в наши дни считается «игрушечным». Для сравнения: в базе ImageNet, использовавшейся для обучения и тестирования систем распознавания образов в 2010-е гг., есть 14 197 122 изображения, разбитые на 21 841 категорию. На «скармливание» такого массива перцептрону ушло бы почти полгода. Во времена первой коннекционистской весны не существовало доступной цифровой фотографии, не существовало гигантских библиотек оцифрованных текстов, не было миллионов пользователей социальных сетей, ежедневно выкладывающих в открытый доступ тексты, фотографии и аудиозаписи. Причём данные, доступные в интернете, уже отчасти структурированы и размечены пользователями: посты в социальных сетях содержат метки в виде лайков и тегов, фотографии часто снабжены сопроводительным текстом, профили пользователей содержат информацию о связях с другими профилями, публикации снабжены комментариями, видео на видеосервисах — информацией о количестве просмотров и так далее. Специалистами собраны, размечены и выложены в открытый доступ специализированные датасеты на любой вкус. И наконец, мощным источником данных являются производственные системы автоматизации. Благодаря внедрению вычислительной техники в работу предприятий и учреждений ежедневно собираются и накапливаются структурированные сведения о самых разных формах человеческой деятельности.

вернуться

1714

* Дит — единица количества информации, содержащейся в сообщении о данном состоянии системы, имеющей десять равновероятных состояний.

вернуться

1715

Wang Y., Hu Z., Sanders B. C., Kais S. (2020). Qudits and high-dimensional quantum computing // https://arxiv.org/abs/2008.00959

вернуться

1716

Fedorov A. K., Beloussov S. M. (2021). Quantum computing at the quantum advantage threshold / Unpublished paper.

вернуться

1717

Wang G. (2014). Quantum Algorithm for Linear Regression // https://arxiv.org/abs/1402.0660

вернуться

1718

Schuld M., Sinayskiy I., Petruccione F. (2016). Prediction by linear regression on a quantum computer // https://arxiv.org/abs/1601.07823

вернуться

1719

Li G., Wang Y., Luo Y., Feng Y. (2019). Quantum Data Fitting Algorithm for Non-sparse Matrices // https://arxiv.org/abs/1907.06949

вернуться

1720

Dutta S., Suau A., Dutta S., Roy S., Behera B. K., Panigrahi P. K. (2020). Quantum circuit design methodology for multiple linear regression / IET Quantum Communication, Vol. 1, Iss. 2, pp. 55-61 // https://doi.org/10.1049/iet-qtc.2020.0013

вернуться

1721

Lu S., Braunstein S. L. (2014). Quantum decision tree classifier / Quantum Information Processing, Vol. 13, pp. 757—770 // https://doi.org/10.1007/s11128-013-0687-5

вернуться

1722

Rebentrost P., Mohseni M., Lloyd S. (2014). Quantum Support Vector Machine for Big Data Classification / Physical Review Letters, Vol. 113, Iss. 13 // https://doi.org/10.1103/PhysRevLett.113.130503

вернуться

1723

Chatterjee R., Yu T. (2016). Generalized Coherent States, Reproducing Kernels, and Quantum Support Vector Machines // https://arxiv.org/abs/1612.03713

вернуться

1724

Schuld M., Killoran N. (2018). Quantum machine learning in feature Hilbert spaces // https://arxiv.org/abs/1803.07128

вернуться

1725

Monras A., Beige A., Wiesner K. (2010). Hidden Quantum Markov Models and non-adaptive read-out of many-body states // https://arxiv.org/abs/1002.2337

вернуться

1726

Srinivasan S., Gordon G., Boots B. (2017). Learning Hidden Quantum Markov Models // https://arxiv.org/abs/1710.09016

вернуться

1727

Denil M., de Freitas N. (2011). Toward the Implementation of a Quantum RBM / NIPS 2011 Deep Learning and Unsupervised Feature Learning Workshop // https://www.cs.ubc.ca/~nando/papers/quantumrbm.pdf

вернуться

1728

Dumoulin V., Goodfellow I. J., Courville A., Bengio Y. (2013). On the Challenges of Physical Implementations of RBMs // https://arxiv.org/abs/1312.5258

вернуться

1729

Wiebe N., Kapoor A., Svore K. M. (2014). Quantum Deep Learning // https://arxiv.org/abs/1412.3489

вернуться

1730

Benedetti M., Realpe-Gómez J., Biswas R., Perdomo-Ortiz A. (2015). Estimation of effective temperatures in quantum annealers for sampling applications: A case study with possible applications in deep learning // https://arxiv.org/abs/1510.07611

вернуться

1731

Amin M. H., Andriyash E., Rolfe J., Kulchytskyy B., Melko R. (2016). Quantum Boltzmann Machine // https://arxiv.org/abs/1601.02036

вернуться

1732

Anschuetz E. R., Cao Y. (2019). Realizing Quantum Boltzmann Machines Through Eigenstate Thermalization / https://arxiv.org/abs/1903.01359

вернуться

1733

Khoshaman A., Vinci W., Denis B., Andriyash E., Sadeghi H., Amin M. H. (2018). Quantum variational autoencoder / Quantum Science and Technology, Vol. 4, No. 1 // https://iopscience.iop.org/article/10.1088/2058-9565/aada1f

вернуться

1734

Cong I., Choi S., Lukin M. D. (2019). Quantum convolutional neural networks / Nature Physics, Vol. 15, pp. 1273—1278 // https://doi.org/10.1038/s41567-019-0648-8

вернуться

1735

Chen S. E.-C., Yoo S., Fang Y.-L. L. (2020). Quantum Long Short-Term Memory // https://arxiv.org/abs/2009.01783

вернуться

1736

Di Sipio R. (2021). Toward a Quantum Transformer / Towards Data Science, Jan 10, 2021 // https://towardsdatascience.com/toward-a-quantum-transformer-a51566ed42c2

вернуться

1737

Kak S. C. (1995). Quantum Neural Computing / Advances in Imaging and Electron Physics, Vol. 94, pp. 259—313 // https://doi.org/10.1016/S1076-5670(08)70147-2

вернуться

1738

Zak M., Williams C. P. (1998). Quantum Neural Nets / International Journal of Theoretical Physics, Vol. 37, pp. 651—684 // https://doi.org/10.1023/A:1026656110699

вернуться

1739

Cao Y., Guerreschi G. G., Aspuru-Guzik A. (2017). Quantum Neuron: an elementary building block for machine learning on quantum computers // https://arxiv.org/abs/1711.11240

вернуться

1740

Wan K. H., Dahlsten O., Kristjánsson H., Gardner R., Kim M. S. (2017). Quantum generalisation of feedforward neural networks / npj Quantum Information, Vol. 3 // https://doi.org/10.1038/s41534-017-0032-4

вернуться

1741

Killoran N., Bromley T. R., Arrazola J. M., Schuld M., Quesada N., Lloyd S. (2018). Continuous-variable quantum neural networks // https://arxiv.org/abs/1806.06871

вернуться

1742

Strömberg T., Schiansky P., Dunjko V., Friis N., Harris N. C., Hochberg M., Englund D., Wölk S., Briegel H. J., Walther P. (2021). Experimental quantum speed-up in reinforcement learning agents / Nature, Vol. 591, pp. 229—233 // https://doi.org/10.1038/s41586-021-03242-7

вернуться

1743

Gao X., Zhang Z., Duan L. (2017). An efficient quantum algorithm for generative machine learning // https://arxiv.org/abs/1711.02038

вернуться

1744

Lloyd S., Weedbrook C. (2018). Quantum generative adversarial learning // https://arxiv.org/abs/1804.09139

вернуться

1745

Dallaire-Demers P.-L., Killoran N. (2018). Quantum generative adversarial networks // https://arxiv.org/abs/1804.08641

вернуться

1746

Schuld M., Petruccione F. (2018). Quantum ensembles of quantum classifiers / Scientific Reports, Vol. 8 (2772) // https://doi.org/10.1038/s41598-018-20403-3

вернуться

1747

Wang X., Ma Y., Hsieh M.-H., Yung M. (2019). Quantum Speedup in Adaptive Boosting of Binary Classification // https://arxiv.org/abs/1902.00869

вернуться

1748

Arunachalam S., Maity R. (2020). Quantum Boosting // https://arxiv.org/abs/2002.05056

вернуться

1749

Trujillo C. A., Gao R., Negraes P. D., Chaim I. A., Domissy A., Vandenberghe M., Devor A., Yeo G. W., Voytek B., Muotri A. R. (2018). Nested oscillatory dynamics in cortical organoids model early human brain network development // https://www.biorxiv.org/content/10.1101/358622v1

вернуться

1750

Le Page M. (2021). Human brain cells in a dish learn to play Pong faster than an AI / New Scientist, 17 December 2021 // https://www.newscientist.com/article/2301500-human-brain-cells-in-a-dish-learn-to-play-pong-faster-than-an-ai/

вернуться

1751

Bakkum D. J., Booth M. C., Brumfield J. R., Chao Z., Madhavan R., Passaro P. A., Rambani K., Shkolnik A. C., Towal R. B. (2004). Hybrots: hybrids of living neurons and robots for studying neural computation / Brain Inspired Cognitive Systems, August 29 — September 1, 2004, University of Stirling, Scotland, UK // http://www.cs.stir.ac.uk/~lss/BICS2004/CD/papers/1094.pdf

180
{"b":"936964","o":1}