Przyszłe telefony Pixel powinny mieć te funkcje obsługujące sztuczną inteligencję

Przyszłe telefony Pixel powinny mieć te funkcje obsługujące sztuczną inteligencję

Robert Triggs / Android Authority Telefony Pixel firmy Google nie były pierwszymi, w których wdrożono inteligentną sztuczną inteligencję, aby przesunąć granicę możliwości smartfonów, ale konsekwentnie prezentowały jedne z najlepszych przykładów codziennych ulepszeń, które przynoszą korzyści w codziennym użytkowaniu. Od lepszego przechwytywania wideo za pomocą HDRNet po funkcje takie jak Photo Unblur, a nawet transkrypcja wiadomości dźwiękowych, seria Pixel wypchnęła NPU i rdzenie ML w procesorach, takich jak Tensor G2, aby zapewnić subtelne, ale transformujące wrażenia użytkownika.
Czytaj więcej: Przewodnik kupującego Google Pixel 7 Podczas gdy seria Google Pixel nadal przesuwa zakres fotografii obliczeniowej i doświadczeń z komputerami otoczenia, jest jeszcze kilka innych funkcji, które naszym zdaniem mogłyby skorzystać z magicznego dotyku Google. Oto kilka funkcji obsługujących sztuczną inteligencję, które chcemy zobaczyć w przyszłych smartfonach Pixel.

Lepsza magiczna gumka

Google Pixel 6 Pro z magiczną gumkąRita El Khoury / Android AuthorityW zeszłym roku Google wprowadził narzędzie Magic Eraser wraz z serią Pixel 6, aby usuwać niechciane obiekty i obiekty ze zdjęć. Następnie pojawiły się funkcje Face and Photo Unblur, które, no cóż, usuwają rozmycie trzęsących się zdjęć, wykorzystując moc uczenia maszynowego procesora Tensor. Google powinien podążać za alternatywnymi edytorami zdjęć, takimi jak Samsung Enhance-X, aby wprowadzić efekt mory lub usuwanie cieni. Chciałbym jednak, aby Google rozszerzył tę funkcję jeszcze bardziej. Podążając śladami narzędzia Object Eraser firmy Samsung, chciałbym, aby Google dodało możliwość usuwania lub dostosowywania cieni i odbić. Podczas gdy implementacja Samsunga jest bliższa Content-Aware Fill w Photoshopie – to znaczy mniej niż doskonała – widzę umiejętności AI Google i ogromne zestawy zdjęć wypełniające lukę dla lepszej świadomości przestrzennej i czystszego wyglądu.Co więcej, robienie zdjęć ekranów i wyświetlaczy to dość powszechny przypadek użycia smartfonów. Jednak zbyt często na ekranie pojawia się wzór mory spowodowany interferencją między ekranem a filtrem Bayera w czujniku aparatu smartfona. Ten wzór może sprawić, że tekst będzie nieczytelny lub sprawić, że ciasno tkane tkaniny będą wyglądać dziwnie. Podobnie jak w przypadku aplikacji Enhance-X firmy Samsung, która pozwala usuwać wzory mory, byłoby wspaniale zobaczyć, jak Google piecze narzędzie do edycji w Zdjęciach Google lub, jeszcze lepiej, w samej aplikacji aparatu.

Przywracanie obrazu

Pixel 7 Pro Photo Unblur główny obrazDhruv Bhutani / Android Authority Google nie boi się wprowadzać zaawansowanych narzędzi do edycji zdjęć do Pixela. Tradycjonaliści mogą twierdzić, że opcjonalne narzędzia, takie jak Photo Unblur i Magic Eraser, ingerują w oryginalną fotografię, ale efektem końcowym jest doskonały, estetyczny obraz pozbawiony jakichkolwiek elementów rozpraszających uwagę. Wbudowanie pełnowymiarowego przywracania obrazu w Zdjęciach Google nie wymaga myślenia. Wprowadzenie tego samego podejścia obliczeniowego do przywracania obrazu jest oczywiste. W rzeczywistości Google mówił o naprawianiu niewyraźnych zdjęć filmowych podczas premiery Pixela 7. Prostym rozszerzeniem tej funkcji byłaby możliwość korygowania balansu bieli na starych skanach. Idąc o krok dalej, narzędzia sztucznej inteligencji Google można rozszerzyć, aby naprawić defekty, takie jak ziarno i zadrapania, lub dodać kolor do czarno-białego obrazu. Możliwości są nieograniczone. Niedawno porównaliśmy wbudowaną funkcję Photo Unblur Pixela i ręczną korekcję za pomocą programu Photoshop — i wyniki nie były zbyt odległe od siebie. Wystarczy kilka prostych dodatków, aby telefon Google Pixel stał się najlepszym studiem fotograficznym w Twojej kieszeni.

Zobacz syntezę

Czy kiedykolwiek żałowałeś, że nie zmieniłeś nieco perspektywy przed zrobieniem zdjęcia? Chociaż istnieją narzędzia do korekcji perspektywy, mają one tendencję do zniekształcania obrazu. Synteza widoku może jednak to naprawić bez żadnych aberracji. Futurystyczna technika wykorzystuje algorytmy uczenia maszynowego do generowania alternatywnych widoków sceny na podstawie danych wejściowych z wielu obrazów. Synteza widoków może pobierać punkty danych z wielu obrazów i umożliwiać manipulowanie zdjęciem w poście. Inżynierowie Google eksperymentowali z syntezą widoków już od jakiegoś czasu (i zaimplementowali coś podobnego w automatycznych sugestiach zdjęć kinowych Google Photo). W rzeczywistości był brany pod uwagę w niefortunnej kamerze Google Clips, ale został odrzucony ze względu na wysokie wymagania obliczeniowe. Przyszły chipset Tensor może jednak mieć wystarczające chrząknięcie, aby włączyć tę funkcję na urządzeniu. Technika obliczeniowa może wykorzystać wiele klatek przechwyconych podczas robienia zdjęć HDR Plus i pozwolić subtelnie zmieniać dziwnie przekrzywione obrazy bez rozdzierania lub zniekształceń.

Wbudowana stabilna dyfuzja

Edytor obrazu DALL-E 2 pokazujący zdjęcie z wymazaną częścią.Zak Khan / Android Authority Przycięte trochę za blisko tematu? Być może potrzebujesz więcej tła dla idealnej kreatywnej estetyki. Fotografowie od dawna używają narzędzia Wypełnianie kontekstowe programu Photoshop do rozszerzania granic zdjęcia. Jednak algorytmy generowania obrazu, takie jak Stable Diffusion i DALL-E 2, ułatwiają i dokładniej zmniejszają i uzyskują więcej kadru. Algorytmy generowania obrazu na urządzeniu pozwalają na bardziej kreatywne edytowanie lub lepsze rozszerzanie obrazu.Tworzenie na urządzeniu Algorytmy sztucznej inteligencji, które umożliwiłyby rozszerzenie obrazu, byłyby fantastycznym narzędziem, biorąc pod uwagę ambicje Pixela związane z fotografią. W rzeczywistości Snapseed, należący do Google edytor zdjęć, ma już wbudowane narzędzie rozszerzające. Jednak to narzędzie wykorzystuje wskazówki kontekstowe, aby pomniejszyć ujęcie. Stabilna dyfuzja na urządzeniu zasilana przez rdzenie ML w telefonach Pixel i połączona z ogromnymi zestawami danych Google może radykalnie ulepszyć to narzędzie, umożliwiając dodanie większej ilości tła z powrotem do obrazu za pomocą sztucznej inteligencji.

Zdjęcia HDR w pełnej rozdzielczości

Tryb kinowy Pixela 7 ProDhruv Bhutani / Android Authority Dzięki nowym czujnikom o wysokiej rozdzielczości w nowoczesnych telefonach Pixel nie jest nierozsądne oczekiwanie, że użytkownicy będą chcieli obrazów w pełnej rozdzielczości z tą samą magią HDR Plus, jaką otrzymujemy na próbkowanych w dół ujęciach 12 MP. Słuchaj, łączenie pikseli przynosi ogromne korzyści fotografii i szczegółów w słabym świetle, ale czasami chcesz po prostu uzyskać obraz o najwyższej możliwej rozdzielczości. Marki takie jak Realme już mówiły o wykorzystaniu danych wyjściowych w pełnej rozdzielczości z czujnika aparatu do renderowania ostatecznych wyników. Ujęcie w pełnej rozdzielczości 50 MP z tymi samymi zaletami, co standardowe zdjęcia 12 MP Pixela, pozwoliłoby użytkownikom przycinać lub dmuchać obraz tak duży, jak chcą. Dla użytkowników, którzy chcą maksymalnej elastyczności podczas edycji swoich zdjęć, byłby to świetny dodatek bez żadnego zamieszania związanego z przetwarzaniem obrazów RAW. Oczywiście renderowanie ujęcia może zająć trochę więcej czasu, ale posiadanie go jako opcjonalnego ustawienia powinno być oczywiste i chciałbym zobaczyć to na sprzęcie Pixel nowej generacji.

Dodatki poprawiające jakość życia

Zrzut ekranu automatycznego pikselowania OnePlusDhruv Bhutani / Android Authority Pomimo tego, że Google koncentruje się na oryginalnych i przyszłościowych funkcjach, może znieść kilka funkcji innych producentów OEM Androida i iPhone’ów. Na początek chciałbym zobaczyć, jak Google kopiuje doskonałą funkcję pikselizacji zrzutów ekranu z telefonów Oppo i OnePlus, która może automatycznie zamazywać kluczowe informacje, takie jak zdjęcia kontaktów lub numery telefonów. Możliwość wyciągania obiektów ze zdjęcia może wydawać się sztuczką ale jest sprytnym sposobem tworzenia naklejek lub dodawania do dokumentów. Podobnie, zdolność iOS 16 do wyciągania obiektów ze zdjęcia może wydawać się sztuczką, ale może być fajnym dodatkiem dla użytkowników, którzy chcą tworzyć niestandardowe naklejki lub inne kreatywne zastosowania.
Związane z: 10 rzeczy, które iOS robi lepiej niż Android Od filtrowania spamu po lepsze usługi audio, rozpoznawanie muzyki i ulepszenia związane z fotografią, seria Pixel zadebiutowała wieloma funkcjami, które skorzystały ze sztucznej inteligencji i uczenia maszynowego. Jakie inne funkcje chciałbyś zobaczyć w nadchodzących telefonach Pixel? Daj nam znać poniżej. Uwagi

Click to rate this post!
[Total: 0 Average: 0]
Android