Базовым строительным кирпичиком квантовых компьютеров являются кубиты (qubit, сокращение от quantum bit — квантовый бит) — «квантовые версии» двоичных регистров. Как и бит, кубит допускает два собственных состояния, обозначаемых — по предложению Поля Дирака — «|0〉» и «|1〉». При этом, согласно принципам квантовой механики, кубит находится в «суперпозиции»: «A|0〉 + B|1〉», где A и B — это комплексные числа, удовлетворяющие условию A2 + B2 = 1, а при любом измерении состояния кубита он случайным образом с вероятностью A2 переходит в состояние «|0〉», а с вероятностью B2 — в состояние «|1〉». Кубиты могут пребывать в состоянии «квантовой запутанности» друг с другом, что предполагает наличие между ними некоторой ненаблюдаемой связи, выражающейся в том, что при любом изменении одного кубита остальные изменяются согласованно с ним. Из кубитов можно составлять квантовые логические вентили, позволяющие конструировать сложную вычислительную логику. Также существует расширенная версия кубита с количеством состояний больше двух — кудит (qudit, сокращение от quantum dit — квантовый дит[1714])[1715].
За последние три десятилетия достижения в области квантовых вычислений стимулировали значительный интерес к этой области со стороны промышленности, инвесторов, средств массовой информации, менеджмента и общества. Создано множество опытных квантовых компьютеров, возможности которых пока существенно ограниченны, однако с их помощью уже получен ряд обнадёживающих результатов[1716]. В последние годы активно исследуются возможности реализации алгоритмов машинного обучения на квантовых компьютерах. Разработаны квантовые реализации как для «классических» методов, таких как линейная регрессия[1717], [1718], [1719], [1720], деревья решений[1721], SVM[1722], [1723], [1724], скрытые марковские модели[1725], [1726], так и для различных архитектур нейронных сетей: машин Больцмана[1727], [1728], [1729], [1730], [1731], [1732], вариационных автокодировщиков[1733], свёрточных сетей[1734], LSTM[1735], трансформеров[1736], а также произвольных многослойных перцептронов[1737], [1738], [1739], [1740], [1741]. Предложены концепции, позволяющие реализовать на квантовых машинах такие парадигмы машинного обучения, как обучение с подкреплением[1742], генеративно-состязательные сети[1743], [1744], [1745] и ансамбли моделей[1746], [1747], [1748]. По мере создания квантовых компьютеров, состоящих из достаточно большого числа элементов (кубитов или кудитов), квантовые машины смогут претендовать на роль основной вычислительной платформы для задач машинного обучения. Однако пока их разработка находится на стадии поиска физической основы вычислений, наиболее подходящей для последующего масштабирования. Появление удачной физической платформы может стать началом настоящей революции, которая до неузнаваемости изменит нашу вычислительную технику, а вместе с ней, по всей видимости, и всю индустрию машинного обучения. Обнадёживающие новости приходят и из мира нанофотоники. В биотехнологических лабораториях учёные из биологических нейронов выращивают органоиды, которые могут стать основой будущих вычислительных устройств на основе технологий wetware[1749]. Исследователи из компании Cortical Labs создали систему Dishbrain, состоящую из находящихся в чашке Петри примерно миллиона человеческих нейронов, которая успешно соперничает с искусственными нейронными сетями при обучении игре в Pong[1750]. Клеточные культуры управляют первыми криповатыми гибротами (гибридными роботами из электроники и живой ткани)[1751]. Какие-то из этих технологий так и останутся лабораторными игрушками, а каким-то уже совсем скоро предстоит стать новой технологической базой нашего общества. 5.4 Данные Ещё младенцем, однажды где-то без спросу взял я с гербом и грифом бумагу; и в правом верхнем углу цветное своё, конечно, изображенье наклеил; а посредине — единым махом, славянской вязью, китайской тушью — вписал подряд, как есть, не тая: свой рост и возраст, и вес и адрес, и род занятий, и беспартийность, конечно; к тому прибавил, со строчки красной, подробный список родных и близких, а как же; потом немного ещё подумал — и отпечаток большого пальца оттиснул в левом нижнем углу; а в нижнем правом — поставил подпись, таким уж, видно, смышлёным был я ребёнком… Михаил Щербаков Важным и во многом недооценённым фактором, повлиявшим на прогресс технологий машинного обучения, является наличие массивов оцифрованных данных, которые могут быть использованы в качестве обучающих выборок. В датасете MNIST, широко использовавшемся на заре новой коннекционистской весны, содержится 60 000 изображений в обучающей и 10 000 в тестовой выборке. Если при обучении перцептрона Розенблатта вы предъявляли бы ему эти изображения обучающей выборки со скоростью одно в секунду, процесс обучения занял бы почти 17 часов. А ведь это массив, который в наши дни считается «игрушечным». Для сравнения: в базе ImageNet, использовавшейся для обучения и тестирования систем распознавания образов в 2010-е гг., есть 14 197 122 изображения, разбитые на 21 841 категорию. На «скармливание» такого массива перцептрону ушло бы почти полгода. Во времена первой коннекционистской весны не существовало доступной цифровой фотографии, не существовало гигантских библиотек оцифрованных текстов, не было миллионов пользователей социальных сетей, ежедневно выкладывающих в открытый доступ тексты, фотографии и аудиозаписи. Причём данные, доступные в интернете, уже отчасти структурированы и размечены пользователями: посты в социальных сетях содержат метки в виде лайков и тегов, фотографии часто снабжены сопроводительным текстом, профили пользователей содержат информацию о связях с другими профилями, публикации снабжены комментариями, видео на видеосервисах — информацией о количестве просмотров и так далее. Специалистами собраны, размечены и выложены в открытый доступ специализированные датасеты на любой вкус. И наконец, мощным источником данных являются производственные системы автоматизации. Благодаря внедрению вычислительной техники в работу предприятий и учреждений ежедневно собираются и накапливаются структурированные сведения о самых разных формах человеческой деятельности.
вернуться * Дит — единица количества информации, содержащейся в сообщении о данном состоянии системы, имеющей десять равновероятных состояний. вернуться Wang Y., Hu Z., Sanders B. C., Kais S. (2020). Qudits and high-dimensional quantum computing // https://arxiv.org/abs/2008.00959 вернуться Fedorov A. K., Beloussov S. M. (2021). Quantum computing at the quantum advantage threshold / Unpublished paper. вернуться Wang G. (2014). Quantum Algorithm for Linear Regression // https://arxiv.org/abs/1402.0660 вернуться Schuld M., Sinayskiy I., Petruccione F. (2016). Prediction by linear regression on a quantum computer // https://arxiv.org/abs/1601.07823 вернуться Li G., Wang Y., Luo Y., Feng Y. (2019). Quantum Data Fitting Algorithm for Non-sparse Matrices // https://arxiv.org/abs/1907.06949 вернуться Dutta S., Suau A., Dutta S., Roy S., Behera B. K., Panigrahi P. K. (2020). Quantum circuit design methodology for multiple linear regression / IET Quantum Communication, Vol. 1, Iss. 2, pp. 55-61 // https://doi.org/10.1049/iet-qtc.2020.0013 вернуться Lu S., Braunstein S. L. (2014). Quantum decision tree classifier / Quantum Information Processing, Vol. 13, pp. 757—770 // https://doi.org/10.1007/s11128-013-0687-5 вернуться Rebentrost P., Mohseni M., Lloyd S. (2014). Quantum Support Vector Machine for Big Data Classification / Physical Review Letters, Vol. 113, Iss. 13 // https://doi.org/10.1103/PhysRevLett.113.130503 вернуться Chatterjee R., Yu T. (2016). Generalized Coherent States, Reproducing Kernels, and Quantum Support Vector Machines // https://arxiv.org/abs/1612.03713 вернуться Schuld M., Killoran N. (2018). Quantum machine learning in feature Hilbert spaces // https://arxiv.org/abs/1803.07128 вернуться Monras A., Beige A., Wiesner K. (2010). Hidden Quantum Markov Models and non-adaptive read-out of many-body states // https://arxiv.org/abs/1002.2337 вернуться Srinivasan S., Gordon G., Boots B. (2017). Learning Hidden Quantum Markov Models // https://arxiv.org/abs/1710.09016 вернуться Denil M., de Freitas N. (2011). Toward the Implementation of a Quantum RBM / NIPS 2011 Deep Learning and Unsupervised Feature Learning Workshop // https://www.cs.ubc.ca/~nando/papers/quantumrbm.pdf вернуться Dumoulin V., Goodfellow I. J., Courville A., Bengio Y. (2013). On the Challenges of Physical Implementations of RBMs // https://arxiv.org/abs/1312.5258 вернуться Wiebe N., Kapoor A., Svore K. M. (2014). Quantum Deep Learning // https://arxiv.org/abs/1412.3489 вернуться Benedetti M., Realpe-Gómez J., Biswas R., Perdomo-Ortiz A. (2015). Estimation of effective temperatures in quantum annealers for sampling applications: A case study with possible applications in deep learning // https://arxiv.org/abs/1510.07611 вернуться Amin M. H., Andriyash E., Rolfe J., Kulchytskyy B., Melko R. (2016). Quantum Boltzmann Machine // https://arxiv.org/abs/1601.02036 вернуться Anschuetz E. R., Cao Y. (2019). Realizing Quantum Boltzmann Machines Through Eigenstate Thermalization / https://arxiv.org/abs/1903.01359 вернуться Khoshaman A., Vinci W., Denis B., Andriyash E., Sadeghi H., Amin M. H. (2018). Quantum variational autoencoder / Quantum Science and Technology, Vol. 4, No. 1 // https://iopscience.iop.org/article/10.1088/2058-9565/aada1f вернуться Cong I., Choi S., Lukin M. D. (2019). Quantum convolutional neural networks / Nature Physics, Vol. 15, pp. 1273—1278 // https://doi.org/10.1038/s41567-019-0648-8 вернуться Chen S. E.-C., Yoo S., Fang Y.-L. L. (2020). Quantum Long Short-Term Memory // https://arxiv.org/abs/2009.01783 вернуться Di Sipio R. (2021). Toward a Quantum Transformer / Towards Data Science, Jan 10, 2021 // https://towardsdatascience.com/toward-a-quantum-transformer-a51566ed42c2 вернуться Kak S. C. (1995). Quantum Neural Computing / Advances in Imaging and Electron Physics, Vol. 94, pp. 259—313 // https://doi.org/10.1016/S1076-5670(08)70147-2 вернуться Zak M., Williams C. P. (1998). Quantum Neural Nets / International Journal of Theoretical Physics, Vol. 37, pp. 651—684 // https://doi.org/10.1023/A:1026656110699 вернуться Cao Y., Guerreschi G. G., Aspuru-Guzik A. (2017). Quantum Neuron: an elementary building block for machine learning on quantum computers // https://arxiv.org/abs/1711.11240 вернуться Wan K. H., Dahlsten O., Kristjánsson H., Gardner R., Kim M. S. (2017). Quantum generalisation of feedforward neural networks / npj Quantum Information, Vol. 3 // https://doi.org/10.1038/s41534-017-0032-4 вернуться Killoran N., Bromley T. R., Arrazola J. M., Schuld M., Quesada N., Lloyd S. (2018). Continuous-variable quantum neural networks // https://arxiv.org/abs/1806.06871 вернуться Strömberg T., Schiansky P., Dunjko V., Friis N., Harris N. C., Hochberg M., Englund D., Wölk S., Briegel H. J., Walther P. (2021). Experimental quantum speed-up in reinforcement learning agents / Nature, Vol. 591, pp. 229—233 // https://doi.org/10.1038/s41586-021-03242-7 вернуться Gao X., Zhang Z., Duan L. (2017). An efficient quantum algorithm for generative machine learning // https://arxiv.org/abs/1711.02038 вернуться Lloyd S., Weedbrook C. (2018). Quantum generative adversarial learning // https://arxiv.org/abs/1804.09139 вернуться Dallaire-Demers P.-L., Killoran N. (2018). Quantum generative adversarial networks // https://arxiv.org/abs/1804.08641 вернуться Schuld M., Petruccione F. (2018). Quantum ensembles of quantum classifiers / Scientific Reports, Vol. 8 (2772) // https://doi.org/10.1038/s41598-018-20403-3 вернуться Wang X., Ma Y., Hsieh M.-H., Yung M. (2019). Quantum Speedup in Adaptive Boosting of Binary Classification // https://arxiv.org/abs/1902.00869 вернуться Arunachalam S., Maity R. (2020). Quantum Boosting // https://arxiv.org/abs/2002.05056 вернуться Trujillo C. A., Gao R., Negraes P. D., Chaim I. A., Domissy A., Vandenberghe M., Devor A., Yeo G. W., Voytek B., Muotri A. R. (2018). Nested oscillatory dynamics in cortical organoids model early human brain network development // https://www.biorxiv.org/content/10.1101/358622v1 вернуться Le Page M. (2021). Human brain cells in a dish learn to play Pong faster than an AI / New Scientist, 17 December 2021 // https://www.newscientist.com/article/2301500-human-brain-cells-in-a-dish-learn-to-play-pong-faster-than-an-ai/ вернуться Bakkum D. J., Booth M. C., Brumfield J. R., Chao Z., Madhavan R., Passaro P. A., Rambani K., Shkolnik A. C., Towal R. B. (2004). Hybrots: hybrids of living neurons and robots for studying neural computation / Brain Inspired Cognitive Systems, August 29 — September 1, 2004, University of Stirling, Scotland, UK // http://www.cs.stir.ac.uk/~lss/BICS2004/CD/papers/1094.pdf |