محتوای آموزشی

بررسی و معرفی الگوریتم‌های یادگیری ماشین کوانتومی

رایانه‌های کلاسیک در مقایسه با رایانه‌های کوانتومی

رایانه‌ها یا کامپیوترهای کلاسیکی، بیت‌های 0 و 1 را دستکاری می‌کنند تا اطلاعات را به عنوان داده‌های باینری ذخیره کنند، در حالی که رایانه‌های کوانتومی از احتمال وضعیت یک شی قبل از اندازه‌گیری استفاده می‌کنند. بنابراین، این پتانسیل را به آنها می‌دهد تا داده‌های بیشتری را در مقایسه با رایانه‌های کلاسیک پردازش کنند. بر خلاف رایانه‌های کلاسیک که از بیت باینری استفاده می‌کنند، رایانه‌های کوانتومی از کیوبیت‌هایی استفاده می‌کنند که توسط حالت کوانتومی تولید می‌شوند تا عملیات را انجام دهند. درهم‌تنیدگی، همبستگی قوی بین ذرات کوانتومی است. این پدیده‌ها به رایانه‌ی کوانتومی کمک می‌کند تا با 0، 1 و برهم نهی 0 و 1 کار کند تا محاسبات پیچیده را بتوانند انجام دهند؛ این در حالی است که سیستم‌های کلاسیک مدرن نمی‌توانند انجام دهند یا برای رسیدن به نتیجه مطلوب زمان قابل توجهی را می‌طلبند.

یادگیری ماشین کوانتومی یکی از این کاربردها است. در ادامه الگوریتم‌های یادگیری ماشین کوانتومی و تکنیک استفاده شده برای ارتقاء این الگوریتم‌ها معرفی شده‌اند.

الگوریتم‌های کوانتومی برای یادگیری ماشین

در زمینه یادگیری ماشین، ما الگوریتم‌هایی را توسعه می‌دهیم که می‌توانند از نمونه‌های داده‌شده (ورودی‌ها و خروجی‌های دلخواه) یاد بگیرند، به دنبال آن انتظار داریم الگوریتم‌ها مقادیر ورودی‌های ناشناخته آینده را پیش‌بینی کنند.

از سوی دیگر، جدول زیر خلاصه ای از نحوه دستیابی الگوریتم یادگیری ماشین کوانتومی به سرعت در مقایسه با یک کامپیوتر کلاسیک را ارائه می‌دهد.

خوشه‌بندی نزدیکترین همسایه و خوشه بندی k-means

الگوریتم خوشه‌بندی نزدیکترین همسایه یک الگوریتم استاندارد در یادگیری ماشین است. الگوریتم K-نزدیکترین همسایه (KNN) در حین ارزیابی یک آیتم داده جدید که باید بر اساس شباهت و نحوه خوشه‌بندی همسایه‌های آن طبقه‌بندی شود، تمام داده‌های قبلی را در نظر می‌گیرد. هر چه یک بردار به بردار دیگر نزدیکتر باشد، شباهت آنها بیشتر است. روش‌های استاندارد برای ارزیابی نزدیکی یا فاصله عبارتند از حاصل ضرب درونی، فاصله همینگ یا اقلیدسی.

ایمور و همکاران از تکنیک همپوشانی یا وفاداری |⟨a|b⟩| برای دو حالت کوانتومی ⟨a⟩ و ⟨b⟩ به منظور اندازه‌گیری شباهت بین بردارها استفاده می‌کنند. همپوشانی از طریق یک برنامه فرعی به نام تست جابجایی به دست می‌آید. بر اساس روش ایمور، لوید وهمکاران یک الگوریتم کوانتومی با زمان اجرای O(log MN) پیشنهاد کرده‌اند.

در ادامه روند بهبود الگوریتم یادگیری ماشین نزدیک‌ترین همسایه برمن و همکاران الگوریتم‌هایی برای اندازه‌گیری فاصله بین بردارهای ویژگی‌ها ارائه کرده‌اند. این رویکرد که مبتنی بر تست جابجایی است، روش‌هایی را برای محاسبه فاصله اقلیدسی هم به طور مستقیم و هم با استفاده از حاصلضرب داخلی ارائه می‌کند. این روش با تقویت دامنه و جستجوی گروور همراه است. با این حال، نمایش اطلاعات کلاسیک از طریق کیوبیت‌ها متفاوت است. در بدترین حالت، الگوریتم در مقایسه با الگوریتم‌های مونت کارلو منجر به کاهش چند جمله‌ای می‌شود.

ماشین بردار پشتیبان (SVM)

SVM ها الگوریتم‌های یادگیری ماشین نظارت شده هستند. آنها عمدتاً برای تجزیه و تحلیل خوشه‌بندی و همچنین برای رگرسیون استفاده می‌شوند. این الگوریتم از یک نمونه آزمایشی برای آموزش مدل و تخصیص هر مقدار به یکی از کلاس‌های موجود استفاده می‌کند. وظیفه الگوریتم SVM در چنین مسائلی یافتن یک ابر صفحه بهینه بنحوی است که مناطق دو کلاسه را به وضوح جدا می‌کند و به عنوان یک مرز تصمیم برای ورودی‌های آینده عمل می‌کند.

در اوایل دهه 2000، ویبی و همکاران  اولین نسخه SVM کوانتومی که از نوعی جستجوی گروور استفاده می‌کرد را پیشنهاد کردند. اخیراً روش‌های قدرتمندتری که می‌توانند داده‌های ورودی را  از منابعی مانند qRAM که به داده‌های کلاسیک دسترسی دارد، یا یک زیربرنامه کوانتومی که حالت‌های کوانتومی را آماده می‌کند توسعه یافته اند. به طور خاص، تخمین فاز کوانتومی برای ایجاد ابرصفحه بهینه و آزمایش بردار ورودی استفاده می‌شود، که در اصل به زمان log N نیاز دارد. N بعد ماتریسی است که برای تولید نسخه کوانتومی بردار ابرصفحه مورد نیاز است. روش‌های شرح داد‌ه‌ شده در [8-10] تجزیه و تحلیل داده‌ها را با استفاده از الگوریتم HHL که یک الگوریتم کوانتومی قدرتمند برای حل دستگاه معادلات خطی است انجام می دهند. الگوریتم HHL توانسته است سرعت حل دستگاه معادلات را بصورت نمایی کاهش دهد. این کاهش سرعت منجر به بهبود الگوریتم های SVM شده است.

شبکه های عصبی کوانتومی (QNN) و یادگیری عمیق

QNN ها شبکه‌های عصبی محاسباتی هستند که بر روی اصولی که توسط مکانیک کوانتومی اداره می‌شود کار می‌کنند. شبکه‌های عصبی مصنوعی به طور خاص به دلیل کمک آنها در تشخیص الگو و کاربرد در کلان داده‌ها موردبررسی  قرار می‌گیرند. محققان بر این باورند که استفاده از مفاهیمی مانند درهم‌تنیدگی، موازی سازی و تداخل ممکن است به بهبود الگوریتم‌های شبکه عصبی کمک کند. اخیرا از مفهوم جایگزینی بیت باینری کلاسیک با یک کیوبیت و در نتیجه ایجاد یک سلول عصبی استفاده می‌کنند. این کیوبیت در برهم‌نهی از حالت‌های فعال و غیرفعال قرار دارد.

در ادامه استفاده از آنیلینگ کوانتومی برای توسعه شبکه‌های عصبی معرفی شدند. آنیلینگ کوانتومی به راحتی مقیاس‌پذیر و به صورت تجاری در دسترس است. درنتیجه برای ساخت شبکه‌های یادگیری کوانتومی عمیق مناسب هستند. یک شبکه یادگیری عمیق که ماشین بولتزمن است، ساده‌ترین شبکه برای تقریب است. خروجی ماشین کوانتومی بولتزمن داده‌های کوانتومی بر حسب کیوبیت است. شولد و همکاران در بررسی خود به این نتیجه رسیده‌اند که هیچ پیشنهادی وجود ندارد که بتواند از قدرت کامل رایانه‌های کوانتومی استفاده کند. این به دو دلیل است.اولا استفاده از یک عملگر واحد مانند جمع در فضای هیلبرت (یک فضای حاصل ضرب درونی واقعی یا پیچیده که ویژگی‌های خاصی را برآورده می‌کند) یک حالت نامعتبر ایجاد می‌کند. ثانیا شبکه‌های عصبی کلاسیک دارای دینامیک غیرخطی هستند، در حالیکه QNN دارای دینامیک خطی هستند. همه این موارد منجر به این می‌شود که ما نتوانیم از قدرت رایانه‌های کوانتومی به صورت تمام و کمال در محاسبات شبکه‌های عمیق استفاده کنیم.