کد خبر: ۲۹۰۲۲
تاریخ انتشار: ۰۹:۰۲ - ۱۹ بهمن ۱۳۹۸ - 2020 February 08
آیا چیزی به نام «رایانش کوانتومی» وجود دارد؟ چند دهه است که حرکت در این حوزه، با ابهام و تردید همراه است و بعضی آن را آب در هاون کوبیدن می‌دانستند؛ اما اخیراً گوگل با رسیدن به مفهومی موسوم به «برتری کوانتومی»، بسیاری از تردیدها را از بین برده و رایانه‌های کوانتومی را در مرکز توجه قرار داده است.
به گزارش آی تابناک : آیا چیزی به نام «رایانش کوانتومی» وجود دارد؟ چند دهه است که حرکت در این حوزه، با ابهام و تردید همراه است و بعضی آن را آب در هاون کوبیدن می‌دانستند؛ اما اخیراً گوگل با رسیدن به مفهومی موسوم به «برتری کوانتومی»، بسیاری از تردیدها را از بین برده و رایانه‌های کوانتومی را در مرکز توجه قرار داده است. به همین مناسبت در این مطلب می‌خواهیم با رایانش و رایانه‌ی کوانتومی بیشتر آشنا شویم.

تحقیقات گوگل که برخی از نتایج آن همین اواخر منتشر شد، علاوه بر نمایش برتری کوانتومی، به فعالان عرصه‌ی فناوری و رایانش نشان داد که این حرکت، تنها یک گام اولیه است و تازه از این نقطه به بعد است که توانمندی‌های فوق‌العاده‌ی رایانه‌های کوانتومی دیده می‌شود.

این اتفاق بدون اغراق، یک جهش ویژه در تاریخ رایانه‌ها از جهات مختلف خواهد بود. برای مقایسه، می‌توانید تصمیم استفاده از ترانزیستورها به جای فناوری آنالوگ در دهه‌ی 60 میلادی را در نظر بگیرید که در ابتدا تنها افراد کمی از آن اطلاع داشتند اما حالا به عنوان یک نقطه‌ی مهم و یک شتاب‌دهنده‌ی مؤثر در پیشرفت رایانه‌ها شناخته می‌شود.

در مورد رایانه‌های کوانتومی اما ما بسیار خوش‌شانس هستیم که می‌توانیم در همین نقطه‌ی تاریخی هم در جریان پیشرفت‌ها قرار گرفته و طلوع باشکوه این خورشید زیبا را به نظاره بنشینیم. البته فهم این حوزه نیاز به توضیحاتی دارد و بهترین نقطه برای شروع این توضیحات، شاید صحبت کردن در مورد نوابغ ریاضیات، رایانه و فیزیک یعنی آلن تورینگ و ریچارد فاینمن باشد.

طبیعت کلاسیک نیست، لعنت بهش!
ماشین محاسباتی جامع که توسط تورینگ و دیگر هم‌نسل‌هایش تعریف می‌شد، در طول جنگ جهانی دوم و پس از آن به باروری رسید و پیشرفت خود را از لامپ‌های خلأ تا ترانزیستورهای دست‌ساز و چیپ‌های بسیار متراکم امروزی طی کرده است. ایده‌ی عمومی رایانش به این سبک این است که «اگر چیزی بتواند با اعداد نمایش داده شود، ما می‌توانیم آن را شبیه‌سازی کنیم».

این به آن معنی است که آرایش ابرها، تشخیص اشیاء، ترکیب صداها، هندسه‌ی سه‌بعدی، ریاضیات پیچیده و بسیاری از موضوعات دیگر خارج این‌ها، با توان محاسباتی کافی، می‌توانند با استفاده از ماشین‌های متعارف مبتنی بر پردازنده، حافظه‌ی رم و فضای ذخیره‌سازی یا همان معماری فون‌نیومان انجام شوند.

اما استثنائاتی نیز وجود دارند و اگرچه بعضی از این استثنائات، مسائل مبهمی مثل پارادکس‌های ریاضی هستند، حوزه‌ی فیزیک کوانتوم نیز ثابت کرده که می‌تواند یکی از همین موارد استثنائی در این زمینه باشند. اینجاست که به ریچارت فاینمن می‌رسیم که در اوایل دهه‌ی 80 میلادی می‌گوید اگر بخواهیم یک سیستم کوانتومی را شبیه‌سازی کنیم، نیازمند یک سیستم کوانتومی برای این کار خواهیم بود:

بر همین اساس او نتیجه می‌گیرد رایانه‌های کلاسیک (که در آن زمان به عنوان تنها رایانه‌های ممکن شناخته می‌شدند) برای انجام بعضی امور کافی نخواهند بود.

feynman.jpg

حالا معلوم می‌شود که ریچارد فاینمن درست می‌گفت

مشکل کجاست؟ در آن زمان هنوز چیزی به نام رایانه‌ی کوانتومی وجود نداشت و کسی حتی ایده‌ای کوچک هم برای ساخت یکی از آن‌ها نداشت. اما به هر حال موضوع باز شده بود و با همین اتفاق، رقابت نظریه‌پردازان و دانشمندان رایانه (از جله خود فاینمن) برای رسیدن به این ایده آغاز شده بود.

آیا به صورت واقعی امکان ساخت یک رایانه کوانتومی حقیقی وجود دارد؟
در این باره باید پیش از ادای هر مطلبی به چند سوال پاسخ دهیم:

 آیا رایانه‌های مد نظر فاینمن، توانایی همین رایانه‌های فراتر از تصورِ آن زمان (دیتاسنترهایی با فضای ذخیره‌سازی یوتابایتی و توان پردازشی اگزافلاپی) را که می‌توانند طبیعت را تا سطح کوچکترین ذراتش شبیه‌سازی کنند دارند؟

آیا ممکن است مسائلی را داشته باشیم که با آن‌ها مواجه شویم و تمام رایانه‌های روی زمین را روی آن متمرکز کنیم اما نوار پیشرفت آن، هر یک میلیون سال، چند درصدی را طی کند؟

اگر دو مورد بالا درست باشند، آیا به صورت کلی امکان ساخت رایانه‌ای که بتواند چنین مسائلی را در مدت زمان قابل قبول حل کند وجود خواهد داشت؟

برای اثبات درستی حرف فاینمن، باید بتوانیم به سؤالات بالا پاسخ دهیم. باید بتوانیم نشان دهیم که مسئله‌ای وجود دارد که نه فقط برای رایانه‌های عادی دشوار است، بلکه در عمل حتی با سطح مصرف انرژی باورنکردنی بالا هم حل این مسئله برای این رایانه‌ها، «غیر ممکن» باشد. علاوه بر آن، باید بتوانیم نه فقط در تئوری، که در عمل هم یک رایانه‌ی جدید بسازیم که بتواند همان مسئله را به طور کاملاً عینی، حل کند.

لحظه‌ی «Hello World» رایانه‌های کوانتومی
با انجام این کار، علاوه بر اثبات یک نظریه‌ی قدیمی، حوزه‌ی جدیدی از نظریات حل مسائل را باز خواهید کرد. آن زمان، هنگامی خواهد بود که یک بخش کاملاً جدید در رایانش، پیغام «Hello World» خود را روی مانیتور جهانیان نشان خواهد داد؛ و این همان چیزی است که محققان در گوگل و ناسا ادعا می‌کنند به آن رسیده‌اند؛ لحظه‌ی «Hello World» رایانه‌های کوانتومی!

google-quantum-team.jpg

مهندسان و محققان گوگل در حال کار روی رایانه‌ی کوانتومی

در ادامه بعضی مفاهیم پایه‌ای در مورد رایانش کوانتومی و تفاوت آن با رایانش سنتی را ذکر می‌کنیم.

رایانه‌های کلاسیک حول محور ترانزیستورها ساخته شده‌اند که با نگه داشتن یا تخلیه‌ی ولتاژ (اعمال سوئیچینگ)، مقادیر یک یا صفر را نمایش می‌دهند. با اتصال این ترانزیستورها به یکدیگر در یک ترکیب پیچیده، امکان نمایش اطلاعات یا ارسال و ترکیب آن‌ها به گیت‌های منطقی مثل AND و OR فراهم می‌شود. با استفاده از یک زبان سطح بالا مخصوص رایانه‌های دیجیتال که در دهه‌های گذشته رشد کرده، می‌توانیم با همین صفر و یک‌ها انواع و اقسام عملیات جالب را انجام دهیم.

رایانه‌های کوانتومی هم در واقع در بسیاری از موارد همین گونه هستند و یک واحد پایه دارند که عملیات منطقی را برای انجام کارهای مختلف روی آن انجام می‌دهند. تفاوت در این است که این «واحد» در کوانتوم پیچیده‌تر است: یک کیوبیت که مقداری در فضای ریاضی بالاتر از سطح «روشن» و «خاموش» را نمایش می‌دهد.

حالت این واحد را می‌توان با یک مکان از سطح یک کره یا نقطه‌ای در فضای سه‌بعدی درک کرد. منطق مربوط به آن هم البته پیچیده‌تر است که هنوز هم نسبتاً ابتدایی است: نقطه می‌تواند تعدیل شود، برعکس شود و مثل این‌ها. کیوبیت هم وقتی «مشاهده شود»، یک مقدار دیجیتال است که بین صفر و یک متغیر خواهد بود.

با استفاده از مزیت نمایش یک مقدار در یک فضای ریاضی بزرگتر، این کیوبیت‌ها و نتایج مربوط به آن‌ها می‌توانند عملیات جدید و جالبی را انجام دهند که در بعضی موارد، همان طور که گوگل نشان می‌دهد، پیش از این انجام آن‌ها ممکن نبود.

تدابیر اندیشیده شده
برای انجام عملیاتی که چند خط قبل گفته شد، تیم این پروژه ابتدا باید مسئله‌ای را پیدا می‌کردند که برای رایانه‌های کلاسیک دشوار باشد اما رایانه‌ی کوانتومی نسبتاً ساده بتواند از پس آن برآید. مسئله‌ای که آن‌ها برای این کار در نظر گرفتند به نوعی خنده‌آور بود: اینکه یک رایانه‌ی کوانتومی باشد!

از خواندن ادامه‌ی مقاله منصرف شدید؟ اشتباه نکنید، مسلم است که یک رایانه‌ی کوانتومی بهتر از یک رایانه‌ی معمولی می‌تواند «خودش» باشد، اما موضوع به این سادگی‌ها هم نیست.

یک لحظه به یک دستگاه قدیمی و جذاب فکر کنید: یک آتاری 800. این دستگاه مطمئناً به خوبی می‌تواند «خودش» باشد و برنامه‌های مربوط به خود را به خوبی اجرا می‌کند. اما هر رایانه‌ی مدرن امروزی هم می‌تواند یک آتاری 800 را به خوبی شبیه‌سازی کرده و برنامه‌های آن را با سرعت بسیار بالاتری اجرا کند. به همین ترتیب، یک رایانه‌ی مدرن را هم می‌توان به خوبی با یک اَبَررایانه شبیه‌سازی کرد.

علاوه بر آن، همین حالا هم شبیه‌سازی‌هایی از رایانه‌های کوانتومی وجود دارد. این شبیه‌سازی‌ها به صورت هم‌زمان با سخت‌افزار واقعی کوانتومی پیش می‌رود تا بتوان کارایی آن‌ها را با تئوری مقایسه کرد. این شبیه‌سازی‌ها و سخت‌افزارها تفاوت‌های گسترده‌ای با یکدیگر دارند و در سال‌های اخیر که رایانش کوانتومی برای آزمایشگاه‌های تحقیقاتی و شرکت‌های بزرگ چیزی بیش از یک سرگرمی شده است، پیشرفت بسیار خوبی داشته‌اند.

qubit-lattice.png

«شبکه‌»ای از کیوبیت‌ها که بر اساس خطایی که تولید می‌کنند رنگ شده‌اند و البته توضیح آن نیاز به مقاله مبسوط و مجزایی دارد

تا به حال نام بازی پاچینکو را شنیده‌اید؟ در این بازی توپ پاچینکو از بین بازوها، چاله‌ها و سراشیبی‌ها سقوط می‌کند. مسیری که توپ طی می‌کند تصادفی است اما اگر 10،000 بار توپ را از یک موقعیت خاص در یک مارپیچ یکسان بیندازید، الگوی نتایج تصادفی که تولید می‌شود یک طیف از احتمالات خواهد بود که احتمالاً بیشتر در مرکز متمرکز شده و کمتر در لبه‌ها اتفاق می‌افتد.به طور خاص، مسئله شبیه‌سازی خروجی یک دنباله‌ی تصادفی از گیت‌ها و کیوبیت‌ها در یک رایانه‌ی کوانتومی است.به بیان ساده اگر بخواهیم توضیح دهیم، وقتی مداری از کیوبیت‌ها کاری می‌کنند، نتیجه مثل هر رایانه‌ای، رشته‌ای از صفرها و یک‌ها خواهد بود. این رشته با توجه به طبیعت مستعد نویز کیوبیت‌ها و گیت‌های کوانتومی، تصادفی بودن را ایجاد می‌کنند. اما به شکل جالبی، نتیجه‌ی «تصادفی»، الگویی مخصوص و قابل پیش‌بینی خواهد داشت.

اگر ماشین پاچینکو را روی یک رایانه شبیه‌سازی کنید، می‌توانید با مقایسه‌ی خروجی 10،000 انداختن مجازی با 10،000 اجرای واقعی، ببینید که نتیجه‌ی شبیه‌سازی دقت خوبی خواهد داشت.

pach-1.jpg

کلوپی در ژاپن که علاقه‌مندان به بازی پاچینکو را دور هم جمع کرده است

شبیه‌سازی یک رایانه‌ی کوانتومی نیز همین طور است، اگرچه این کار پیچیدگی‌های بیشتری دارد. در نهایت رایانه همان روند را طی خواهد کرد: شبیه‌سازی یک فرایند فیزیکی و حدس زدن نتایج. و درست مانند شبیه‌ساز پاچینکو، دقت آن می‌تواند با اجرای همان کار در عالم واقع و مقایسه‌ی نتایج سنجیده شود.

اما درست همان طور که شبیه‌سازی یک ماشین پاچینکوی ساده، آسان‌تر از یک ماشین پیچیده است، شبیه‌سازی چند کیوبیت انگشت‌شمار نیز بسیار ساده‌تر از تعداد زیادی از کیوبیت‌هاست. کیوبیت‌ها به تنهایی پیچیده هستند و وقتی در مورد تداخل آن‌ها، خطای اندکشان، جهتی که به سمت آن حرکت می‌کنند و مسائلی از این دست فکر کنیم، می‌بینیم که فاکتورهای پرشماری در موردشان وجود دارد و به گفته‌ی فاینمن، از جایی به بعد دیگر نمی‌توانید تمامی این فاکتورها را در نظر بگیرید. دقیقاً در همین نقطه است که وارد قلمروی می‌شوید که تنها یک رایانه‌ی کوانتومی می‌تواند نتایج مورد نظر را ایجاد کند: قلمرو «برتری کوانتومی».

بیشتر، بیشتر و باز هم بیشتر

بعد از این همه حرف، این سؤال مهم پیش می‌آید که «چرا این اتفاق مهم است؟». به هر حال با این که برتری کوانتومی به نظر اتفاق بزرگی می‌رسد، اما این تنها یک بخش از دست‌یافته‌ها است و این نتایج تا ابد باقی نخواهند ماند و بسیاری از فاکتورهای آن تغییر می‌کنند.

مقایسه‌ی گوگل مانند روند حرکت رایانش کوانتومی، ساده بود. مهندسان این شرکت مدارهای تصادفی و کیوبیت‌ها را در رایانه‌ی کوانتومی خود و در یک شبیه‌ساز نرم‌افزاری در رایانه‌ی معمولی آماده کردند. در ابتدا با چند کیوبیت و انجام چند دور،عملکردی، فرایند کار آغاز شد و در نهایت نتایج تولید شده از هر دو حالت در مقام مقایسه با یکدیگر قرار گرفتند.

در نظر داشته باشید که شبیه‌سازی روی یک لپ‌تاپ انجام نمی‌شود تا با یک رایانه‌ی کوانتومی به اندازه‌ی یک یخچال فریزر مقایسه شود. رایانه‌ی معمولی که از آن صحبت می‌کنیم، اَبَررایانه‌ی Summit است که در آزمایشگاه ملی اوک ریج استفاده می‌شود و با اختلاف فراوان به عنوان قدرتمندترین سیستم تک‌پردازنده‌ی دنیا شناخته می‌شود. این رایانه 2.4 میلیون هسته‌ی پردازشی و اندکی کمتر از 3 پتابایت حافظه‌ی رم دارد و قدرت پردازش آن به حدود 150 پتافلاپ می‌رسد.

summit.jpg

ابر رایانه سامیت که ساخت IBM است ولی با تغییر کاربری می‌تواند توسط شرکت‌های مختلف مورد استفاده قرار بگیرد

در این مراحل ابتدایی، شبیه‌ساز و رایانه‌ی کوانتومی نزدیک به هم کار می‌کنند. اعداد تولید شده و طیف احتمالاتش بسیار شبیه به هم بودند.

اما هرچه کیوبیت‌ها بیشتر می‌شوند و پیچیدگی به سیستم اضافه می‌شود، زمانی که شبیه‌ساز برای تولید پیش‌بینی‌هایش نیاز دارد افزایش می‌یابد. این همان چیزی است که انتظار می‌رود و در ماشین پاچینکو هم اتفاق می‌افتاد. در اوایل این روند زمان اجرای محاسبه‌ی واقعی و شبیه‌سازی باز هم قابل مقایسه بود و در حد چند ثانیه یا دقیقه اختلاف داشتند، اما این اعداد به زودی ساعت به ساعت افزایش می‌یابد تا به آزمایش تا 54 کیوبیت می‌رسد.

وقتی به این نقطه می‌رسیم، شبیه‌ساز 5 ساعت برای بررسی نتایج رایانه‌ی کوانتومی زمان صرف می‌کند. حالا گوگل تغییری در روند ایجاد می‌کند. به این دلیل که اضافه کردن کیوبیت‌ها تنها راه برای پیچیده کردن محاسبات کوانتومی نیست و البته اینکه دیگر امکان اضافه کردن کیوبیت به سخت‌افزار موجود وجود نداشت، آن‌ها شروع به افزایش دورهای محاسباتی روی مدار کردند که می‌تواند انواع و اقسام پیچیدگی‌های جدید را به شبیه‌سازی اضافه کند که البته توضیح دقیق‌تر در مورد علت آن در این مطلب نمی‌گنجد.

برای رایانه‌ی کوانتومی، انجام یک دور دیگر از محاسبات تنها به اندازه‌ی کسری از ثانیه طول می‌کشد و حتی چند صد بار تکرار آن برای تولید اعداد مورد نیاز به منظور رسیدن به مقدار احتمالات کافی، فقط چند ثانیه‌ی دیگر ماشین را مشغول نگه می‌دارد؛ اما برای شبیه‌ساز، بررسی نتایج حاصل به اندازه‌ی یک هفته (یک هفته روی قدرتمندترین رایانه‌ی دنیا) طول می‌کشد.

در این نقطه تیم پروژه تست کامل شبیه‌ساز را متوقف می‌کنند زیرا این کار بسیار زمان‌بر و هزینه‌بر خواهد بود. حتی با این وجود، کسی ادعا نمی‌کند که به سطح «برتری کوانتومی» رسیده است. به هر حال، درست است که این عملیات روی بزرگترین رایانه‌ی کلاسیک بسیار بسیار بیشتر طول می‌کشید، اما باز هم انجام‌شدنی بود.

بنابراین آن‌ها فرایند را باز هم به جلو هدایت کردند. 54 کیوبیت و انجام 25 دور محاسبه باعث می‌شود سیستم کوانتومی گوگل موسوم به Sycamore تا 200 ثانیه درگیر باشد. اما با برون‌یابی از نمودار نتایج قبلی، تخمین زده شده که این محاسبات روی Summit حدود 10،000 سال به طول می‌انجامد.

چیزی که اتفاق افتاده را تیم پروژه، افزایش نمایی دوتایی می‌گویند. مشاهده شده که افزایش کیوبیت‌ها و دورهای محاسباتی به یک رایانه‌ی کوانتومی، چند میکروثانیه یا ثانیه به کار اضافه می‌کند که یک افزایش خطی است. اما هر کیوبیت که به سیستم شبیه‌سازی اضافه می‌شود باعث می‌شود هزینه‌ی شبیه‌سازی نمایی اضافه شود و همین داستان برای افزایش دورها هم تکرار می‌شود.

schroed-feyn-chart.png

نتایج منطبق بر این جدول هستند. خطوط منقطع مسیر حدودی است که توسط تیم طی شده

فرض کنید قرار باشد شما به اندازه‌ی من به توان دو و دوباره به توان دو شنا بروید. اگر من یک شنا بروم، شما هم یک شنا خواهید داشت. اگر من 2 بار آن را انجام دهم، شما باید به 16 برسید. تا اینجا مشکل خاصی نیست اما وقتی من به 10 برسم، باید چند هفته‌ای را صبر کنم تا شما 10،000 شنای خود را به پایان برسانید.

این روند دقیقاً مشابه وضعیت سیکامور و سامیت نیست، زیرا اضافه کردن کیوبیت‌ها و دورهای بیشتر، تأثیرات افزایشی متفاوتی روی سختی کار دارند، اما احتمالاً موضوع جا افتاده باشد. از جایی به بعد می‌توانید روی این روند نام دلخواهتان را بگذارید و گوگل نقطه‌ای را برای این کار انتخاب کرده که در آن قوی‌ترین رایانه‌ی موجود در دنیا احتمالاً باید پس از نابودی جهان نیز به انجام محاسبات ادامه دهد.

این نکته را هم باید در نظر داشت که این نتایج وابسته به شرایط حاضر ابررایانه‌ها و روش‌های شبیه‌سازی موجود است که می‌تواند به خوبی بهتر شود. در واقع IBM مقداری قبل از اعلامیه‌ی گوگل، مقاله‌ای را منتشر که بیان می‌نمود مدت زمان انجام کار اعلام شده می‌تواند از نظر تئوری به شدت کمتر شود. اما به نظر نمی‌رسد امکان تهدید مجدد برتری کوانتومی وجود داشته باشد. در نهایت اگر گوگل و ناسا چند کیوبیت دیگر یا چند دور هم به مسئله اضافه کنند، مسئله چندین برابر سخت‌تر خواهد شد. هرچند پیشرفت در حوزه‌ی رایانه‌های کلاسیک همچنان خوشایند است و برای توسعه‌ی بیشتر حوزه‌ی کوانتوم نیز ضروری خواهد بود.

«اسپوتنیک هم کار چندانی انجام نداد»
پس رایانه‌ی کوانتومی توانسته رایانه‌ی کلاسیک را در یک کار که کاملاً یک‌طرفه طراحی شده بود شکست دهد. مثل اینکه یک سیب را در مقابل یک پرتقال قرار دهیم و مسابقه‌ی «بهترین مرکبات» بین آن‌ها برگزار کنیم! نتیجه؟

خب، مؤسس آزمایشگاه Quantum AI گوگل یعنی هارتموت نِوِن اشاره می‌کند که «اسپوتنیک هم کار چندانی انجام نداد. فقط دور زمین چرخید و بوق زد» و ما هنوز در مورد اینکه یک صنعت باید «لحظه‌ی اسپوتنیک» خود را داشته باشد صحبت می‌کنیم؛ زیرا این لحظه‌ای است که یک چیز از حالت نظریه، به واقعیت تبدیل شده و حرکت خود را از واقعیت بودن، به همه‌گیر شدن آغاز می‌کند.

quantum-core.jpg

تشریفات تحویل هسته‌ی محاسبات کوانتومی

به نظر می‌رسد تمامی اعظای تیم که در طبقه‌ی همکف آزمایشگاه رایانش کوانتومی گوگل در نزدیکی سانتا باربارا کار می‌کنند همین نظر را دارند. نمایش برتری کوانتومی زیباست اما چیزی که بیش از آن ارزش دارد این است که تأیید می‌کند تلاش‌های آن‌ها بیهوده نبوده است.

به نظر می‌رسد رسیدن به نتیجه‌ای مثل چیزی که در مورد آن صحبت می‌کنیم می‌تواند ثابت کند که رایانش کوانتومی واقعاً آینده‌ای دارد یا خیر. تمام نمودارها و نظریات قدیمی دانشمندانی مثل جان مارتینز به یک نتیجه‌ی قطعی اشاره می‌کنند: رایانه‌ی کوانتومی قرار نیست هیچ کار عجیب یا غیرمنتظره‌ای را انجام دهد.

انجام کاری که به کلی جدید است بسیار اهمیت دارد. کاملاً ممکن بود که فرایند اتصال ده‌ها کیوبیت به یکدیگر و واداشتن آن‌ها به حرکاتی برای کنترل سیستم، چرخش، در هم تنیدن و فعالیت‌هایی مثل این، اتفاقی دیگر رقم بزند. ممکن بود به این نتیجه برسیم که سیستمی با بیش از 14 کیوبیت به هم پیچیده در مدار مقدار زیادی تداخل ایجاد کرده و عملیات را با شکست مواجه می‌کند.

cat.jpg

عدم قطعیت گربه شرودینگر مثال از ناهمدوسی کوانتومی

امکان داشت یک نیروی ناشناخته‌ی بیرونی باعث شود زنجیره‌ی فوتون‌های کیوبیت‌ها روی یکدیگر اثر بگذارند. شاید گیت‌های ترتیبی از نوعی خاص باعث می‌شد کیوبیت‌ها دچار ناهمدوسی شده و مدار از کار بیفتد. همین ناشناخته‌های فراوان بودند که باعث می‌شد تردیدهای زیادی وجود داشته باشد و سؤال ابتدای مقاله پیش آید که آیا رایانش کوانتومی واقعاً وجود دارد و چیزی بیش از یک تردستی نمایشی است یا خیر.

فرض کنید اگر در رایانه‌های دیجیتال به این نتیجه می‌رسیدیم که اتصال تعداد زیادی ترانزیستور به یکدیگر، ناگهان باعث می‌شود شارژشان از دست رفته و به صفر برسند. چنین نتیجه‌ای باعث می‌شد یک محدودیت عظیم روی رایانه‌های دیجیتال مبتنی بر ترانزیستور داشته باشیم. تا امروز، کسی نتوانسته چنین محدودیتی را روی رایانه‌های کوانتومی پیدا کند. فاکتورهای ناشناخته‌ی زیادی در این آزمایش وجود داشت که تیم پروژه منتظر رویارویی با آن‌ها بودند، اما همه چیز به درستی کار کرد.

مارتینز می‌گوید:

هیچ اصل فیزیکی جدیدی وجود ندارد که باعث شود این روند با شکست مواجه شود. این یک مزیت بزرگ است. ما همان خطاهایی را که در یک مدار ساده می‌دیدیم، در مدار پیچیده هم مشاهده کرده‌ایم، به این معنی که خطاها هیچ وابستگی خاصی به پیچیدگی یا درهم‌تنیدگی این مدارها ندارند. در نتیجه می‌شود گفت رایانش کوانتومی پیچیده ضعفی به خاطر انجام محاسبات پیچیده‌تر نخواهد داشت.

آن‌ها یک رایانه‌ی کوانتومی را با پیچیدگی بیش از پیش راه‌اندازی کرده‌اند و هیچ اتفاق عجیبی رخ نداد و بر اساس مشاهدات و آزمون‌ها، به این نتیجه رسیده‌اند که دلیلی وجود ندارد که امکان رسیدن به سطوح بالاتر، مثلاً هزار کیوبیت یا حتی بیش از آن وجود نداشته باشد.

سلام دنیا
این همان دستاورد حقیقی است که تیم تحقیقاتی به آن رسیده‌اند. آن‌ها در فرایند رسیدن به نقطه‌ی مهم برتری کوانتومی دریافته‌اند که رایانه‌های کوانتومی می‌توانند به بهتر شدن ادامه دهند و به نتایجی بهتر از بهبود نمایی کارایی دست یابند.

این موضوع درست مثل هر چیز دیگری در دنیا – چه کوانتومی و چه کلاسیک - به هیچ وجه مسلّم نبود. این موضوع کاملاً یک مسئله‌ی نظری بود، تا زمانی که واقعاً مورد آزمایش قرار گرفت.

این به آن معنی است که به زودی – هر چند کسی نمی‌تواند زمان دقیق آن را حدس بزند – رایانه‌های کوانتومی چیزی خواهند بود که مردم می‌توانند امور خود را با آن انجام دهند. از اینجا به بعد، موضوع دیگر اثبات امکان رایانه‌های کوانتومی نیست، موضوع بهتر کردن آن‌هاست.




منبع : شهر سخت افزار

ارسال نظر
نام:
ایمیل:
* نظر:
فیلم
جدیدترین اخبار