Sprawdź relację:
Dzieje się!
Świat Technologia

Willow. Komputer kwantowy i przereklamowana rewolucja

Oszałamiające liczby dotyczące możliwości nowego komputera kwantowego Willow od Google to świetny, choć w dużej mierze PR-owy zabieg – twierdzą eksperci. Choć kwantowa rewolucja zdaje się coraz bliżej, to nadal pozostaje perspektywą najbliższych lat, a nie dni.

Willow, komputer od Googlea
Willow, czyli nowy procesor kwantowy od Google`a pobił rekordy. Do rewolucji jednak wiele mu brakuje, fot. Google, Youtube

Z tego artykułu dowiesz się…

  1. Na czym polega innowacyjność procesora Willow, jakie wyniki osiągnął w testach oraz dlaczego jego zdolność do redukcji błędów w czasie rzeczywistym jest istotna dla rozwoju komputerów kwantowych.
  2. Dlaczego osiągnięcia Willow należy traktować z dystansem.
  3. Jakie problemy muszą zostać rozwiązane, aby komputery kwantowe mogły mieć realne zastosowania komercyjne.

„Skok w nadprzestrzeń”, „Rewolucja dla komputerów”, „Dostęp do równoległych światów” – tak brzmiały nagłówki licznych międzynarodowych portali po ogłoszeniu powstania Willowa. Euforia związana z nowym osiągnięciem Google przełożyła się również na notowania spółki Alphabet, której akcje wzrosły o około 10 proc.

Problem w tym, że rewelacja wcale nie jest rewolucją. Zdaniem wielu ekspertów, medialny szum wokół Willowa jest nieco przesadzony.

– Osiągnięcie Google`a jest ważnym krokiem w stronę rozwoju komputerów kwantowych i nie można go zignorować, ale jednocześnie przedstawienie go jako przełomu technologicznego jest w mojej ocenie przesadzone i bardziej należy traktować to jako zabieg marketingowo-wizerunkowy – tłumaczy dr Emil Żak, ekspert teoretycznej fizyki molekularnej, były pracownik kanadyjskiego Queen’s University a obecnie Head of Quantum Algorithms w polskiej firmie technologicznej BEIT.

Dlaczego Willow nie jest przełomem?

Willow to nie rewolucja

– Z przyjemnością ogłaszam Willow, nasz najnowszy układ kwantowy. Willow charakteryzuje się zaawansowaną wydajnością w wielu kluczowych aspektach, co pozwala na osiągnięcie dwóch przełomowych rezultatów. Pierwszym z nich jest zdolność Willow do redukcji błędów w sposób wykładniczy, gdy zwiększamy skalę, używając większej liczby kubitów. Rozwiązanie to przełamuje kluczowe wyzwanie związane z korekcją błędów kwantowych, nad którym społeczność naukowa pracowała przez niemal 30 lat. Po drugie, Willow wykonał standardowe obliczenie testowe w mniej niż pięć minut. Jednemu z najszybszych superkomputerów dostępnych dziś zajęłoby to 10 kwadrylionów lat (czyli 10 do potęgi 25 – w języku angielskim odpowiada to liczbie „septylion”). Liczba ta znacznie przekracza wiek Wszechświata – ogłosił triumfalnie Hartmut Neven, twórca i szef Google Quantum AI. To jednostka naukowa założona przez Google’a, której celem jest rozwój technologii kwantowych.

Film prezentujący procesor Willow

Brzmi imponująco, prawda?

– Wynik eksperymentu Google ma ograniczony bezpośredni wpływ na świat technologii. Nie można go traktować jako przełomu technologicznego, zmieniającego znacząco poziom użyteczności komputerów kwantowych. Do tego jeszcze długa droga – ocenia na chłodno Emil Żak.

Zdaniem eksperta

Inwestorzy docenili Willow, mimo uwag

Prezentacja chipa Willow wywołała zauważalny wzrost notowań Alphabetu. Mimo że technologia wciąż wymaga dopracowania, a komputery kwantowe pozostają w fazie eksperymentalnej, osiągnięcia Willowa traktowane są jako znaczący krok w rozwoju tej dziedziny. Jednak obecne możliwości chipa można na razie traktować bardziej jako ciekawostkę. Przykład Nvidii pokazuje, że wcześniejsze inwestycje w przełomowe technologie mogą przynieść ogromne korzyści. Przed wybuchem popularności sztucznej inteligencji Nvidia była postrzegana głównie jako producent kart graficznych dla graczy i górników kryptowalut. Dopiero szybkie zareagowanie na rozwój AI pozwoliło jej zdominować rynek akcji w 2023 r. Alphabet, będąc teraz krok przed konkurencją w dziedzinie komputerów kwantowych, ma szansę zbudować dominującą pozycję na rynku, co może przynieść jeszcze bardziej imponujące perspektywy w przyszłości.

Komputery kwantowe i ich wyzwania

Zacznijmy od początku tej drogi. Komputery kwantowe (w dużym uproszczeniu) to zaawansowane urządzenia obliczeniowe, które wykorzystują prawa mechaniki kwantowej – dziedziny fizyki opisującej zachowanie materii na poziomie subatomowym – do przetwarzania informacji. W przeciwieństwie do klasycznych komputerów, które operują na bitach przyjmujących wartość 0 lub 1, komputery kwantowe używają kubitów (kwantowych bitów), które mogą jednocześnie przyjmować wiele stanów dzięki zjawiskom takim jak superpozycja i splątanie. Klasyczne bity mogą przyjmować wartość 0 lub 1. Kubity mogą znajdować się w stanie 0, 1 lub w superpozycji obu tych stanów jednocześnie. Dzięki temu komputer kwantowy może przetwarzać wiele kombinacji danych równocześnie.

Dla uproszczenia wyobraźmy sobie, że „zwykły” komputer to moneta, która ma dwie strony – orła i reszkę. Komputer kwantowy to taka moneta wirująca w powietrzu. Może przyjąć wiele stanów naraz. Dzięki splątaniu kwantowemu jeden stan może zdeterminować stan drugi. Skąd wiemy, jaki jest ostateczny „układ” tych stanów? Dowiadujemy się tego w momencie pomiaru, gdy stany się „ustalają” na jednej z możliwych wartości.

Z tym bardzo uproszczonym modelem działania komputera kwantowego wiążą się podstawowe problemy, z którymi próbują sobie radzić najtęższe głowy tego świata. Po pierwsze, kubity są bardzo podatne na zakłócenia ze świata zewnętrznego. Po drugie, przez swoje skomplikowanie współczesne komputery kwantowe mają ograniczoną liczbę kubitów. Ograniczeniem jest chociażby architektura tego sprzętu. Po trzecie, funkcjonowanie komputerów kwantowych wymaga temperatury w okolicach zera absolutnego (–273 stopnie Celsjusza). Aby to osiągnąć, trzeba na to poświęcić gigantyczne ilości energii. Po czwarte, popełniają bardzo dużo błędów.

Mimo to możliwości związane z ich wykorzystaniem są ogromne. Mają one gigantyczną, potencjalną moc obliczeniową, nieporównywalną z najmocniejszymi współczesnymi superkomputerami. Mogą być używane do bardzo skomplikowanych obliczeń matematycznych (w praktycznych aspektach np. w kryptografii) czy do uczenia maszynowego.

Ten nieco dłuższy fragment jest kluczowy do zrozumienia tego, dlaczego Willow nie jest taką rewolucją, jaką sugerują PR-owcy Google’a.

Co potrafi Willow

Po pierwsze, naukowcy Google’a udowodnili, że większa liczba kubitów oznacza większą pewność wyników. To bardzo ważna teoria, która udowadnia założenia przyjęte kilka lat temu przez wiele zespołów badawczych.

Podczas eksperymentu naukowcy wykazali po raz pierwszy w historii, że szybkość poprawiania błędów występujących podczas pracy Willowa jest równa „czasowi rzeczywistemu”. W praktyce oznacza to, że błędy, o których wspominano wcześniej, mogą przestać być problemem w rozwoju i skalowaniu komputerów kwantowych.

Drugi istotny wniosek to szybkość działania Willowa. Zdaniem naukowców Google’a, obliczenia, które wykonał w pięć minut w ramach testu benchmarkowego RCS, najmocniejsze tradycyjne superkomputery na świecie musiałyby wykonywać przez 10 kwadrylionów lat (10 do potęgi 25).

Brzmi imponująco, ale naukowcy podkreślają, że taka informacja ma niewielkie praktyczne znaczenie. Testy RCS, w uproszczeniu, zupełnie nie nadają się do porównywania możliwości tradycyjnych komputerów. Polegają one na uruchamianiu losowo wygenerowanych obwodów kwantowych (tzw. random quantum circuits) i analizie wyników w celu oceny poprawności obliczeń oraz zdolności komputera kwantowego do realizacji takich zadań. W 2019 r. komputer Sycamore od Google’a wykonał w kilka minut testy RCS, które klasycznemu superkomputerowi zajęłyby tysiące lat.

To trochę tak, jakby chwalić się, że kolarz jadący samochodem wyścigowym przejedzie w godzinę więcej kilometrów niż kolarz na rowerze szosowym – nie wspominając już o „składaku”.

– Dokładne „standardowe obliczenie porównawcze”, które zastosował Google, to losowe próbkowanie obwodów. Rzeczywiście prawdą jest, że dzisiejsze komputery nie potrafią go powtórzyć w sensownym czasie. Wynik ten jest imponujący, jednak nagłówek „10 kwadrylionów lat” wymaga kontekstu – dotyczy problemu naukowego, który nie ma obecnie żadnego znaczenia komercyjno-biznesowego. Jest raczej nadzieją, że komputery kwantowe w przyszłości będą mogły zastąpić klasyczne rozwiązania – zauważa dr Witold Jarnicki, Główny Specjalista ds. Matematyki w BEIT.

Na drodze do rozwoju technologii kwantowej

Dowodzi tego analiza wyników badań opublikowanych w Nature.

– Celem uzyskania jednej próbki w swoim obliczeniu, Google wykorzystał 105 kubitów do wykonania 40 następujących po sobie operacji, co reprezentuje zasoby zbyt ograniczone, aby wykonywać komercyjnie znaczące obliczenia. Do takich zastosowań potrzeba milionów kubitów i miliardów operacji. Na chwilę obecną wiodącym pomysłem na osiągnięcie tego celu jest pełna korekcja błędów kwantowych, co może zająć jeszcze kilka lat – wyjaśnia Witold Jarnicki.

Naukowiec podkreśla, że choć samo osiągnięcie jest imponujące, nie ma ono skali przedstawianej przez media.

– Wynik ten jest niezbędny, aby uwierzyć, że komputery kwantowe będą w stanie korygować błędy wewnętrzne. Z tego powodu jego znaczenie jest bardziej wizerunkowe – przybliża powstanie funkcjonalnych komputerów kwantowych i daje nadzieję, że inwestycje w ten rynek są kluczowe dla przyszłości – tłumaczy przedstawiciel BEIT.

Zdaniem eksperta

Co najmniej dekada do komercyjnego zastosowania komputerów kwantowych

Kubity nadprzewodzące, produkowane i wykorzystywane przez Google, nie są jedyną obiecującą platformą dla obliczeń kwantowych z korekcją błędów. Alternatywne rozwiązania, takie jak bramki dwukubitowe w architekturach neutralnych atomów i jonów uwięzionych, zazwyczaj cechują się wyższą niezawodnością. Niemniej jednak postęp osiągnięty przez Google zasługuje na uwagę: w najnowszym procesorze średni poziom błędów dla bramek dwukubitowych wynosi 1-2 błędy na 1000 operacji, co jest już wystarczająco niskim poziomem, o ile uda się skonstruować wystarczająco duży procesor.
Porównując liczbę kubitów w procesorach Google na przestrzeni czasu (12 w 2020 r., 49 w 2023 r., 105 w 2024 r.) narzuca się naiwna ekstrapolacja przypominająca prawo Moore’a: co około 18 miesięcy liczba kubitów się podwaja. To oczywiście uproszczenie i bardziej „wróżenie z fusów” niż nauka, ale takie spojrzenie pozwala być umiarkowanym optymistą. Za 10-20 lat mogą powstać procesory oparte na kubitach nadprzewodzących, zdolne do rozwiązywania komercyjnie znaczących problemów. To osiągnięcie zasługuje na podkreślenie i wyznacza postęp.

Willow nie uratuje świata, ale…

Wnioski są na razie dość smutne. Willow nie jest rewolucją, która w krótkim czasie doprowadzi do „wyrzucenia” superkomputerów przez okno. Pytanie o przyszłość technologii, na której bazuje procesor Google’a, pozostaje otwarte. To nie jedyna możliwa droga – istnieją alternatywy. Zdaniem ekspertów taka architektura może okazać się mało efektywna w większej skali. Dlaczego? Ze względu na wymóg zwiększania liczby kubitów w celu poprawy korekcji błędów.

– Z tego powodu równie istotne są badania nad bardziej efektywnymi kodami korekcyjnymi, które pozwolą zmniejszyć zapotrzebowanie na zasoby i skrócić ścieżkę do stworzenia użytecznego urządzenia kwantowego – komentuje Witold Jarnicki.

Mimo zastrzeżeń, osiągnięcie Google’a ma duże znaczenie dla rozwoju technologii.

– Procesor Willow firmy Google pokazuje, że korekcja błędów jest możliwa na drodze do rozwoju użytecznych komputerów kwantowych. Jest to kluczowy kamień milowy. Jak podaje sam Google, aby uzyskać poziom błędu umożliwiający wykonanie rzędu miliona operacji, potrzeba ponad 1000 fizycznych kubitów na każdy logiczny kubit z niskim poziomem błędów. Obecny eksperyment używa około 100 fizycznych kubitów na jeden logiczny (więcej nie ma!). Zademonstrowano poziom korekcji błędu pozwalający wykonać nie więcej niż tysiąc operacji – zauważa Emil Żak.

Drugim kluczowym aspektem jest usprawnienie algorytmów odczytywania i przetwarzania informacji kwantowej przez współpracujący komputer klasyczny. Choć ten element nie jest mocno akcentowany w oficjalnych komunikatach Google’a, eksperci podkreślają jego ogromne znaczenie.

– Proces odczytywania i odkodowywania danych z komputera kwantowego jest niezbędny do implementacji korekcji błędów. W obecnym eksperymencie został on znacząco usprawniony, co stanowi wielkie osiągnięcie – dodaje Emil Żak.

Zdaniem eksperta

To dopiero początek

Technologie kwantowe to niezwykle skomplikowane zagadnienie, a rozstrzygnięcie, czy ogłoszenie nowego kamienia milowego jest faktycznym przełomem, bywa nieoczywiste nawet dla wybitnych inżynierów.Podczas ostatnich spotkań w Dolinie Krzemowej zauważyłem, że inwestorzy i inżynierowie zaczynali niemal każdą rozmowę od pytania: „Czy słyszałeś o przełomie Google?”. Na moje pytanie, jaki konkretnie przełom mają na myśli, słyszałem jednak wymijające odpowiedzi. Część rozmówców była przekonana, że podwojenie wyników z wcześniejszych eksperymentów na komputerach kwantowych oznacza zbliżanie się do finału wyścigu. W rzeczywistości to dopiero początek drogi.Cały czas inwestujemy w przyszłość, i do tego właśnie mocno zachęcam.

Wyścig o komputer kwantowy

Pierwszy komputer kwantowy wykorzystujący zaledwie dwa kubity powstał w 1998 r. Przełomem było jednak stworzenie przez IBM komputera 7-kubitowego, który umożliwił wykonanie pierwszych poważniejszych obliczeń matematycznych i udowodnił, że komputery kwantowe mogą mieć praktyczne zastosowanie.

W 2019 r. Google opublikowało wyniki eksperymentu przy użyciu komputera Sycamore, który wykonał test RCS w rekordowe 200 sekund. W 2021 r. IBM wprowadziło procesor kwantowy „Eagle”, przekraczając symboliczny próg 100 kubitów. Był to istotny krok w kierunku budowy skalowalnych komputerów kwantowych zdolnych do rozwiązywania rzeczywistych problemów.

W 2024 r. IBM, Google i startupy, takie jak Quantinuum, rozpoczęły eksperymentalne testy nowych procesorów. Przykładowo, 4 lipca Quantinuum opublikowało wyniki eksperymentu, w którym ich komputer H2-1, mimo zaledwie 56 kubitów, przewyższył wyniki komputera Sycamore.

Główne wnioski

  1. Willow jako osiągnięcie technologiczne, ale nie rewolucja. Procesor kwantowy Willow firmy Google stanowi ważny krok w rozwoju komputerów kwantowych. Szczególnie w zakresie korekcji błędów i zwiększania liczby kubitów. Jednak jego rzeczywisty wpływ na technologię pozostaje ograniczony, a potencjał komercyjny jest jeszcze odległy.
  2. Eksperymenty Google to bardziej sukces wizerunkowy niż przełom praktyczny. Osiągnięcia Willow, choć imponujące w testach, nie przekładają się na zastosowania praktyczne. Wyniki, takie jak redukcja błędów i szybkość obliczeń, dotyczą specyficznych zadań naukowych, które nie mają obecnie znaczenia komercyjnego.
  3. Komputery kwantowe potrzebują dekad, by osiągnąć pełen potencjał. Rozwój komputerów kwantowych, mimo dużych postępów, wymaga dalszych badań i inwestycji, aby przezwyciężyć obecne ograniczenia technologiczne. Eksperci szacują, że pełnoprawne zastosowania w biznesie czy nauce mogą być realne dopiero za 10-20 lat.