Naukowcy pokazują, że klasyczne komputery mogą dotrzymać kroku swoim kwantowym odpowiednikom, a nawet je przewyższyć

Naukowcy pokazują, że klasyczne komputery mogą dotrzymać kroku swoim kwantowym odpowiednikom, a nawet je przewyższyć

Obliczenia kwantowe zostały okrzyknięte technologią, która może przewyższyć obliczenia klasyczne zarówno pod względem szybkości, jak i wykorzystania pamięci, potencjalnie otwierając drogę do przewidywania zjawisk fizycznych, które wcześniej nie były możliwe.

Wielu postrzega pojawienie się komputerów kwantowych jako oznakę zmiany paradygmatu w stosunku do obliczeń klasycznych lub konwencjonalnych. Konwencjonalne komputery przetwarzają informacje w postaci bitów cyfrowych (0 i 1), podczas gdy komputery kwantowe wykorzystują bity kwantowe (kubity) do przechowywania informacji kwantowej o wartościach od 0 do 1. Pod pewnymi warunkami zdolność do przetwarzania i przechowywania informacji w kubitach może zostać wykorzystana wykorzystywane do projektowania algorytmów kwantowych, które drastycznie przewyższają swoje klasyczne odpowiedniki. Warto zauważyć, że zdolność kwantów do przechowywania informacji w wartościach od 0 do 1 utrudnia klasycznym komputerom doskonałą emulację komputerów kwantowych.

Jednak komputery kwantowe są wybredne i mają tendencję do utraty informacji. Co więcej, nawet jeśli można uniknąć utraty informacji, trudno jest ją przełożyć na informację klasyczną – niezbędną do uzyskania użytecznych obliczeń.

W komputerach klasycznych nie występuje żaden z tych dwóch problemów. Co więcej, sprytnie opracowane klasyczne algorytmy mogą w większym stopniu wykorzystać podwójne wyzwania związane z utratą informacji i translacją, aby naśladować komputer kwantowy dysponujący znacznie mniejszymi zasobami, niż wcześniej sądzono, jak niedawno podano w artykule badawczym opublikowanym w czasopiśmie PRX Quantum.

Wyniki naukowców pokazują, że klasyczne obliczenia można zrekonfigurować, aby wykonywać szybsze i dokładniejsze obliczenia niż najnowocześniejsze komputery kwantowe.

Tego przełomu dokonano dzięki algorytmowi, który przechowuje tylko część informacji przechowywanych w stanie kwantowym – i to w ilości wystarczającej do dokładnego obliczenia końcowego wyniku.

„Ta praca pokazuje, że istnieje wiele potencjalnych dróg ulepszenia obliczeń, obejmujących zarówno podejście klasyczne, jak i kwantowe” – wyjaśnia Dries Sels, adiunkt na Wydziale Fizyki Uniwersytetu Nowojorskiego i jeden z autorów artykułu. „Co więcej, nasza praca pokazuje, jak trudno jest osiągnąć przewagę kwantową za pomocą podatnego na błędy komputera kwantowego”.

Poszukując sposobów optymalizacji klasycznych obliczeń, Sels i jego współpracownicy z Fundacji Simonsa skupili się na typie sieci tensorowej, która wiernie reprezentuje interakcje między kubitami. Obsługa tego typu sieci była niezwykle trudna, ale najnowsze postępy w tej dziedzinie umożliwiają obecnie optymalizację tych sieci za pomocą narzędzi zapożyczonych z wnioskowania statystycznego.

Autorzy porównują działanie algorytmu do kompresji obrazu do pliku JPEG, która pozwala na przechowywanie dużych obrazów na mniejszej przestrzeni poprzez eliminację informacji z ledwo zauważalną utratą jakości obrazu.

„Wybór różnych struktur sieci tensorowej odpowiada wyborowi różnych form kompresji, na przykład różnych formatów obrazu” – mówi Joseph Tindall z Flatiron Institute, który kierował projektem. „Z powodzeniem opracowujemy narzędzia do pracy z szeroką gamą różnych sieci tensorowych. Ta praca to odzwierciedla i mamy pewność, że wkrótce jeszcze bardziej podniesiemy poprzeczkę w zakresie obliczeń kwantowych”.

Prace wykonano dzięki wsparciu Instytutu Flatiron oraz grantowi Biura Badań Naukowych Sił Powietrznych (FA9550-21-1-0236).

Click to rate this post!
[Total: 0 Average: 0]
science