Google Pixel 8 i Samsung Galaxy S24 udowadniają, że specyfikacje nadal mają znaczenie

Google Pixel 8 i Samsung Galaxy S24 udowadniają, że specyfikacje nadal mają znaczenie

Ryan Haines / Android Authority Obiegowa mądrość głosi, że specyfikacje smartfonów nie mają już tak wielkiego znaczenia. Niezależnie od tego, czy patrzysz na najlepsze statki flagowe, czy na odważnego średniaka, wszystkie one są więcej niż zdolne do codziennych zadań, grania w najnowsze gry mobilne, a nawet robienia niesamowicie dobrych zdjęć. Znalezienie całkowicie złego sprzętu mobilnego jest dość trudne, jeśli nie rezygnować z absolutnie budżetowej części rynku. Przykładem jest to, że zarówno konsumenci, jak i eksperci są zachwyceni serią Pixel 8, mimo że wypada ona daleko w tyle za iPhonem 15 i innym Androidem rywale. Podobnie najnowsze flagowce Apple i Samsunga ledwo poruszają się po sprzęcie z aparatem, a mimo to nadal cieszą się dużym uznaniem w fotografii. Specyfikacje po prostu nie są już automatycznie równoznaczne z najlepszym smartfonem. A jednak seria Pixel 8 firmy Google i nadchodząca seria Samsung Galaxy S24 wepchnęły nogę w te zamykające się drzwi. Tak naprawdę moglibyśmy wkrótce rozpocząć wyścig zbrojeń w zakresie nowych specyfikacji. Mówię oczywiście o sztucznej inteligencji i coraz bardziej gorącej debacie na temat zalet i wad przetwarzania na urządzeniu w porównaniu z przetwarzaniem w chmurze. Funkcje sztucznej inteligencji szybko czynią nasze telefony jeszcze lepszymi, ale wiele z nich wymaga przetwarzania w chmurze. W skrócie, uruchamianie żądań AI znacznie różni się od tradycyjnych obciążeń procesora i grafiki ogólnego przeznaczenia, z którymi kojarzymy i porównujemy dla urządzeń mobilnych, laptopów i innych gadżetów konsumenckich. Na początek modele uczenia maszynowego (ML) to duże, wymagające załadowania dużych pul pamięci, zanim jeszcze zaczniemy je uruchamiać. Nawet skompresowane modele zajmują kilka gigabajtów pamięci RAM, co zapewnia im większy obszar pamięci niż wiele gier mobilnych. Po drugie, wydajne działanie modelu ML wymaga większej liczby unikalnych bloków arytmetycznych niż typowy procesor CPU lub GPU, a także obsługi małych formatów liczb całkowitych, takich jak INT8 i INT4. Innymi słowy, w idealnym przypadku potrzebny będzie wyspecjalizowany procesor, aby uruchamiać te modele w czasie rzeczywistym. Spróbuj na przykład uruchomić generowanie obrazu ze stabilną dyfuzją na wydajnym, nowoczesnym procesorze klasy desktop; uzyskanie wyniku zajmuje kilka minut. OK, ale nie jest to przydatne, jeśli chcesz szybko uzyskać obraz. Starsze i słabsze procesory, takie jak te stosowane w telefonach, po prostu nie nadają się do tego rodzaju pracy w czasie rzeczywistym. Nie bez powodu firma NVIDIA zajmuje się sprzedażą kart akceleratorów AI i dlatego flagowe procesory do smartfonów coraz częściej zachwalają swoje możliwości w zakresie sztucznej inteligencji. Jednak smartfony nadal ograniczają swój mały budżet mocy i ograniczony zapas ciepła, co oznacza, że ​​istnieją ograniczenia w zakresie tego, co można obecnie zrobić na urządzeniu.Wdrożenie funkcji Video Boost 2Damien Wilde / Android Authority Nigdzie nie jest to bardziej widoczne niż w najnowszym Pixelu i nadchodzących smartfonach Galaxy. Obydwa opierają się na nowych funkcjach sztucznej inteligencji, które odróżniają nowe modele od swoich poprzedników, oraz na sportowych procesorach z akceleracją sztucznej inteligencji, które umożliwiają uruchamianie przydatnych narzędzi, takich jak sprawdzanie połączeń i Magic Eraser, bez chmury. Jednak spójrz na drobny druk, a przekonasz się, że do przetwarzania w chmurze w przypadku kilku bardziej wymagających funkcji AI wymagane jest połączenie internetowe. Najlepszym przykładem jest Google Video Boost, a Samsung już wyjaśnił, że niektóre nadchodzące funkcje Galaxy AI będą również działać w chmurze. Wykorzystanie mocy serwera do wykonywania zadań, których nie można wykonać na naszych telefonach, jest oczywiście użytecznym narzędziem, ale istnieje jest kilka ograniczeń. Po pierwsze, narzędzia te wymagają (oczywiście) połączenia z Internetem i zużywają dane, co może nie być odpowiednie w przypadku wolnych połączeń, ograniczonych planów transmisji danych lub roamingu. Na przykład tłumaczenie językowe w czasie rzeczywistym nie jest dobre w przypadku połączenia o bardzo dużym opóźnieniu. Lokalne przetwarzanie AI jest bardziej niezawodne i bezpieczne, ale wymaga bardziej zaawansowanego sprzętu. Po drugie, przesyłanie danych, w szczególności danych osobowych, takich jak rozmowy czy zdjęcia, stanowi ryzyko dla bezpieczeństwa. Wielkie nazwiska twierdzą, że chronią Twoje dane przed osobami trzecimi, ale to nigdy nie jest gwarancją. Ponadto musisz przeczytać drobnym drukiem, aby dowiedzieć się, czy wykorzystują przesłane przez Ciebie treści do dalszego szkolenia swoich algorytmów. Po trzecie, funkcje te mogą zostać wycofane w dowolnym momencie. Jeśli Google uzna, że ​​funkcja Video Boost jest zbyt droga, aby działać długoterminowo lub nie jest wystarczająco popularna, aby ją obsługiwać, może wyciągnąć wtyczkę i funkcja, dla której kupiłeś telefon, przestanie działać. Oczywiście sytuacja jest odwrotna: firmy mogą łatwiej dodawać nowe możliwości sztucznej inteligencji w chmurze do urządzeń, nawet tych, które nie posiadają silnego sprzętu AI. Nie jest więc tak źle. Jednak w idealnym przypadku szybsze, tańsze i bezpieczniejsze jest uruchamianie zadań AI lokalnie, jeśli to możliwe. Co więcej, możesz zachować te funkcje tak długo, jak telefon będzie działał. Na urządzeniu jest lepiej, dlatego możliwość kompresowania i uruchamiania dużych modeli językowych, generowania obrazów i innych modeli uczenia maszynowego na telefonie to nagroda, o którą tak zabiegają dostawcy chipów. Najnowszy flagowy procesor Qualcomm Snapdragon 8 Gen 3, Dimensity 9300 firmy MediaTek, Tensor G3 firmy Google i A17 Pro firmy Apple oferują lepszą grę AI niż poprzednie modele. Przetwarzanie w chmurze jest dobrodziejstwem dla niedrogich telefonów, ale mogą zostać pozostawione w tyle w wyścigu zbrojeń na urządzeniach. To wszystko jednak drogie, flagowe chipy. Chociaż sztuczna inteligencja jest już dostępna w przypadku najnowszych flagowców, brakuje telefonów ze średniej półki. Głównie dlatego, że brakuje im wysokiej klasy krzemu AI do obsługi wielu funkcji na urządzeniach, a minie wiele lat, zanim najlepsze możliwości sztucznej inteligencji pojawią się w chipach średniej klasy. Na szczęście urządzenia średniej klasy mogą wykorzystać przetwarzanie w chmurze, aby ominąć ten deficyt , ale nie zaobserwowaliśmy jeszcze sygnałów wskazujących, że markom spieszy się z obniżeniem ceny tych funkcji. Na przykład Google włączył cenę swoich funkcji chmurowych w cenę Pixela 8 Pro, ale tańszy Pixel 8 pozostaje bez wielu z tych narzędzi (na razie). Chociaż w ostatnich latach różnica między telefonami ze średniej półki a telefonami flagowymi do codziennych zadań naprawdę się zmniejszyła, w obszarze możliwości sztucznej inteligencji pogłębiają się podziały. Konkluzja jest taka, że ​​jeśli chcesz, aby najnowsze i najlepsze narzędzia AI uruchamiać na urządzeniu (a powinieneś!), potrzebujemy jeszcze mocniejszego krzemu do smartfona. Na szczęście najnowsze flagowe chipy i smartfony, takie jak nadchodząca seria Samsung Galaxy S24, pozwalają nam uruchamiać na urządzeniu szereg potężnych narzędzi AI. Stanie się to jeszcze bardziej powszechne w miarę nasilania się wyścigu zbrojeń w zakresie procesorów AI. Uwagi

Click to rate this post!
[Total: 0 Average: 0]
Android