Prawdziwym niebezpieczeństwem sztucznej inteligencji nie jest hiperinteligencja, tylko ludzka głupota

Prawdziwym niebezpieczeństwem sztucznej inteligencji nie jest hiperinteligencja, tylko ludzka głupota

Rita El Khoury / Android Authority AI nadal jest popularnym hasłem technologicznym 2023 r., a ChatGPT, Bard i tym podobne generują nagłówki i, tylko od czasu do czasu, zasilają nowy, błyszczący przypadek użycia, który może również trochę poprawić niektóre aspekty naszego życia. Na szczęście , AI nie przejęła władzy nad światem. W rzeczywistości zbliżające się zagrożenie szybkim przejęciem sztucznej inteligencji prawdopodobnie nieco zmalało, przynajmniej na razie. Zamiast tego coraz bardziej martwię się, że większe zagrożenie wynika z faktu, że ludzie wcale nie rozumieją dobrze sztucznej inteligencji. Niezależnie od tego, czy zadajemy głupie pytania, czy znajdujemy sposób na odciążenie naszej pracy, istnieje ryzyko, że zastąpimy nasze własne krytyczne myślenie alternatywą, która nie jest jeszcze do tego przygotowana.

Czym naprawdę jest sztuczna inteligencja (a czym nie jest)

Problem polega na tym, że sztuczna inteligencja nie jest naprawdę inteligentna, w każdym razie jeszcze nie, po prostu bardzo dobrze oszukuje nas, abyśmy uwierzyli, że są. Wskazówka tkwi w nazwie CzatGPT (bit GPT też jest ważny). Niezależnie od tego, czy jest to Bard, Bing czy podobne, są to duże modele językowe (LLM), które zasadniczo specjalizują się w generowaniu tekstu podobnego do ludzkiego. Na bardzo surowym poziomie oznacza to, że są niezwykle dobrzy w statystycznym modelowaniu następnego prawdopodobnego słowa (lub symbolu), które pojawia się w zdaniu. Dzięki ogromowi danych treningowych to samo modelowanie statystyczne jest nie tylko dobre w pisaniu zdań; staje się znacznie bardziej kreatywny i użyteczny. Te modele z pewnością nie są, pomimo ich często imponujących odpowiedzi, inteligencją ogólnego przeznaczenia (chociaż celem jest AGI). W rzeczywistości nie ma analizy ani krytycznego myślenia, gdy sztuczna inteligencja wypluwa sonet lub generuje działający kod. Fakt, że LLM są pozornie bardzo dobrzy w szerokim zakresie rzeczy, był szczęśliwym przypadkiem odkrytym w czasach GPT-2. Przy dzisiejszych znacznie większych zbiorach danych modele jeszcze lepiej radzą sobie z uzyskiwaniem dokładnych odpowiedzi z szerszego zakresu danych wejściowych. Duży model języka specjalizuje się w generowaniu tekstu podobnego do ludzkiego. Poprawne odpowiedzi to bonus. Aby wyjaśnić, dlaczego tak jest, zastanów się, co robi LLM, gdy poprosisz go o nazwanie planet w Układzie Słonecznym. Nie przeszukuje swojej pamięci w poszukiwaniu odpowiedzi; nie ma wpisu przypominającego bazę danych do wyszukania. Zamiast tego bierze tokeny wejściowe i tworzy statystycznie prawdopodobny ciąg tekstu na podstawie swoich danych treningowych. Innymi słowy, im częściej model podczas treningu widział Marsa, Ziemię i Saturna w zdaniach o planetach, tym bardziej prawdopodobne jest, że wygeneruje te słowa, gdy spotka się z podobną dyskusją w przyszłości. To symulacja prawdziwej wiedzy, ale nie jest to ten sam sposób, w jaki ty lub ja się uczymy. Podobnie, jeśli dane szkoleniowe składały się głównie z artykułów sprzed 2006 r., Twój LLM może błędnie twierdzić, że Pluton też jest planetą (przepraszam, Pluton). Sytuację nieco komplikują Bard i Bing, które mogą uzyskiwać dostęp do danych z Internetu. Ale główna zasada pozostaje ta sama, LLM są zaprojektowane przede wszystkim do generowania czytelnych wyników tekstowych, na które ludzie zgodziliby się. Udzielenie poprawnej odpowiedzi jest premią, która może i była motywowana poprzez szkolenie wzmacniające, ale żaden etap nie „myśli” o prawidłowej odpowiedzi na twoje pytanie. Stąd ich zbyt częste błędy i niezdolność do udzielenia odpowiedzi na podstawowe pytania, takie jak „Która jest godzina?” Matematyka to kolejny bardzo dobry przykład, który pomaga zrozumieć ten punkt. LLM nie obliczają jak tradycyjny komputer; żaden procesor przetwarzający liczby nie gwarantuje poprawnej odpowiedzi. Nie działa też tak jak nasz mózg. Zamiast tego LLM wykonują matematykę w zasadzie w taki sam sposób, w jaki generują tekst, generując najbardziej prawdopodobny statystycznie następny token, ale to nie to samo, co faktyczne obliczenie odpowiedzi. Jednak fascynującym odkryciem jest to, że im więcej danych dostarczysz LLM, tym lepiej będzie symulować matematykę (między innymi). To dlatego GPT-3 i 4 są o wielkość lepsze niż GPT-2 w prostej dwu- i trzycyfrowej arytmetyce i osiągają znacznie wyższe wyniki w wielu różnych testach. Nie ma to nic wspólnego z byciem bardziej zdolnym z tradycyjnej perspektywy przetwarzania danych, a raczej z tym, że zostali przeszkoleni na znacznie większej ilości danych. AI będzie rosło w siłę, ale w tej chwili daleko im do rozwiązywania problemów ogólnego przeznaczenia. To samo dotyczy pisania esejów, generowania kodu i wszystkich innych pozornie cudownych możliwości LLM. Istnieje symulacja wysiłku i myśli, ale wyniki to nadal prawdopodobieństwa oparte na tekście. Dlatego często zobaczysz powtarzające się style i przykłady, a także błędy rzeczowe. Mimo to ta zdolność uczenia się „w kontekście” sprawia, że ​​LLM są niezwykle wydajne i można je dostosować do szerokiego zakresu przypadków użycia. Jeśli jednak chcesz mieć niezwykle wydajną i niezawodną sztuczną inteligencję do eksperymentów matematycznych, fizycznych lub innych naukowych, musisz trenować model bardzo różni się od dużego modelu językowego. Osoby zaznajomione z szerszym krajobrazem wiedzą już, że OpenAI oferuje różne modele, takie jak DALL.E do generowania obrazu i Whisper do tłumaczenia audio na tekst. Tak więc, chociaż ChatGPT4 i ostatecznie 5 bez wątpienia będą nadal poprawiać dokładność i zakres rzeczy, które mogą robić, nadal są modelami językowymi w sercu.

Przestańmy zadawać AI takie głupie pytania

Siri kontra ChatGPTRobert Triggs / Android Authority A więc wracamy do nagłówka; naprawdę potrzebujemy lepszego zrozumienia tych mocnych stron i pułapek, zanim postawimy sztuczną inteligencję przed zadaniem. Miejmy nadzieję, że jasne jest, że proszenie sztucznej inteligencji o napisanie zajęć z przedmiotów ścisłych byłoby głupotą. Jest mało prawdopodobne, aby poprawnie zrozumieć równania, a nawet wtedy uzyskasz formułę odpowiedzi. Byłoby wręcz nieodpowiedzialne, gdyby ktoś skorzystał z porady finansowej. Ale nawet pozornie bardziej banalne pytania mogą być problematyczne. Chociaż zabawne może być drażnienie się z kontrowersyjnymi tematami lub oszukanie ich w celu uzyskania błędnej odpowiedzi, dzielenie się czymś, co jest równoznaczne z probabilistycznym ciągiem tekstowym, ponieważ cokolwiek bliskie prawdziwej opinii jest więcej niż ignorancją. Nie poddawajmy naszego krytycznego myślenia wysokiej klasy narzędziom do przewidywania tekstu. Jeśli poprosisz chatbota o preferencje lub porównanie, nie czerpie on z własnych przemyśleń, ogromnego skarbca ludzkiej wiedzy ani nawet kolektywistycznej opinii ukrytej w swoim zbiorze danych. Zamiast tego modeluje statystycznie to, co uzna za optymalną odpowiedź tekstową, jaką może wygenerować dla twojego zapytania, ale to bardzo różni się od myślenia o prawdziwej odpowiedzi. Dlatego te modele są wspólnie pilotowane w celu odfiltrowania zapytań i odpowiedzi, dla których model tak naprawdę nie jest zbudowany. Nawet jeśli potrafisz wywołać taką reakcję, prawie na pewno należy ją zignorować. Krótko mówiąc, nie powinniśmy mylić ludzkiej reakcji z ludzką myślą. Nie ma to na celu umniejszenia wrażenia symulacji sztucznej inteligencji i szeregu pojawiających się przypadków użycia, w których są one naprawdę przydatne. Ale ostatecznie jest o wiele więcej ekscytujących i egzystencjalnych tematów związanych z AI niż ich preferencje w sieciach fast foodów i markach projektantów. Nie poddawajmy naszego krytycznego myślenia wysokiej klasy narzędziom do przewidywania tekstu. Uwagi

Click to rate this post!
[Total: 0 Average: 0]
Android