Apokalipsa AI: dlaczego i jak Dolina Krzemowa przestraszyła się własnego stworzenia

Apokalipsa AI: dlaczego i jak Dolina Krzemowa przestraszyła się własnego stworzenia

Kaitlyn Cimino / Android Authority Dzięki ChatGPT i jego licznym rywalom sztuczna inteligencja przestała być frazą, która kiedyś budziła bezgraniczny entuzjazm, a teraz budzi strach. Nietrudno zrozumieć dlaczego — błyskawiczny rozwój tej technologii jest bezprecedensowy. W przeciwieństwie do metaverse i poprzednich cykli szumu, produkty AI są już dostępne, a ich możliwości rozwijają się w szokującym tempie. Jednak właśnie ten potencjał wzbudził poważne obawy wśród ikon technologii i ekspertów AI. Ale czy Dolina Krzemowa ma rację i czy pozornie pomocny zestaw chatbotów naprawdę może doprowadzić do upadku, a nawet wyginięcia ludzkości?

Współczesna sztuczna inteligencja: nadchodząca burza

kula plazmowa obok zainfekowanego komputeraNawet jeśli na chwilę zignorujemy możliwość apokalipsy, nie można przeoczyć wpływu sztucznej inteligencji na źródła utrzymania tysięcy, jeśli nie milionów współczesnych ludzi. Chociaż generatory obrazów i chatboty mogą wydawać się nieszkodliwe, wyparły już wszystkich, od agentów obsługi klienta po grafików. I w przeciwieństwie do industrializacji w XVIII wieku, nie można jednoznacznie argumentować, że sztuczna inteligencja utworzy w jej następstwie nowe miejsca pracy. Nowoczesne systemy sztucznej inteligencji potrafią rozumować i samokorygować, zmniejszając potrzebę nadzoru ze strony człowieka – w przeciwieństwie do tradycyjnych maszyn. Zaledwie kilka tygodni temu startup Cognition Labs zajmujący się sztuczną inteligencją zaprezentował Devina — czyli tego, co nazywa „pierwszym na świecie w pełni autonomicznym inżynierem oprogramowania”. Oprócz generowania kodu Devin może identyfikować i naprawiać błędy, trenować i wdrażać własne nowe modele sztucznej inteligencji, brać udział w projektach open source, a nawet uczestniczyć w dyskusjach społeczności. Niestety, ta autonomia ma poważne konsekwencje, które wykraczają daleko poza zwykłą utratę pracy. Największym zagrożeniem nie jest sztuczna inteligencja, która nas przechyla, ale taka, która może nas oszukać. Weźmy na przykład złośliwego backdoora wykrytego w zeszłym miesiącu w narzędziu do kompresji open source XZ Utils. Chociaż XZ jest mało znany poza społecznościami programistów, opierają się na nim miliony serwerów opartych na systemie Linux, a backdoor mógł zapewnić atakującym zdalną kontrolę nad wieloma krytycznymi systemami. Nie był to jednak tradycyjny hack ani exploit. Zamiast tego osoba atakująca przez kilka lat zdobywała reputację pomocnego współpracownika, zanim zdobyła zaufanie społeczności i wkradła się do kodu backdoora. Zaawansowany system sztucznej inteligencji mógłby zautomatyzować takie ataki na dużą skalę, obsługując każdy aspekt, od generowania złośliwego kodu po naśladowanie ludzkiej dyskusji . Oczywiście autonomiczni agenci językowi nie są dziś zbyt zdolni ani przydatni. Jednak sztuczna inteligencja, która może płynnie wtopić się w społeczności programistów i manipulować kluczową infrastrukturą, wydaje się nieunikniona. OpenAI i Cognitive Labs budują bariery ochronne wokół swoich produktów AI, ale rzeczywistość jest taka, że ​​nie brakuje nieocenzurowanych modeli językowych, które atakujący mogą wykorzystać. Niepokojące jest jednak to, że eksperci obawiają się, że takie oszustwa i potyczki wykorzystujące sztuczną inteligencję mogą stanowić dopiero wierzchołek góry lodowej . Prawdziwe ryzyko polega na tym, że pewnego dnia sztuczna inteligencja wymknie się spod kontroli człowieka.

Prawdopodobieństwo zagłady

labirynt wokselowySztuczna inteligencja zdolna do wymknięcia się ludzkiej kontroli brzmi dziś jak fabuła science-fiction, ale dla wielu osób w branży technologicznej jest to nieuniknione. Jak donosi „The New York Times”, nowa statystyka nazwana p(doom) zyskała popularność w Dolinie Krzemowej. Miara ta, będąca skrótem od „prawdopodobieństwo zagłady”, zaczęła się od żartobliwego sposobu ilościowego określenia stopnia zaniepokojenia kogoś apokalipsą napędzaną przez sztuczną inteligencję. Jednak z każdym dniem zamienia się to w poważną dyskusję. Szacunki są różne, ale godną uwagi częścią jest to, że praktycznie nikt w branży nie ocenia prawdopodobieństwa zagłady na poziomie zerowym. Nawet ci, którzy głęboko zainwestowali w tę technologię, jak współzałożyciel Anthropic AI Dario Amodei, oceniają swoje p(zagładę) na niepokojące 10–25 procent. A to nie uwzględnia nawet wielu badaczy bezpieczeństwa sztucznej inteligencji, którzy podają liczby wyższe niż 50 procent. Ten strach przed zagładą wynika z tego, że firmy technologiczne biorą udział w wyścigu o opracowanie najpotężniejszej możliwej sztucznej inteligencji. A to oznacza ostateczne wykorzystanie sztucznej inteligencji do stworzenia lepszej sztucznej inteligencji, dopóki nie stworzymy superinteligentnego systemu o możliwościach wykraczających poza ludzkie zrozumienie. Choć brzmi to naciąganie, warto zauważyć, że duże modele językowe, takie jak Google Gemini, już wykazują pojawiające się możliwości, takie jak tłumaczenie językowe, które wykraczają poza zamierzone programowanie. W Dolinie Krzemowej nawet ci, którzy tworzą sztuczną inteligencję, pesymistycznie oceniają szanse ludzkości. Najważniejsze pytanie brzmi, czy superinteligentna sztuczna inteligencja będzie zgodna z ludzkimi wartościami, czy też zaszkodzi nam w dążeniu do bezwzględnej wydajności. Sytuację tę najlepiej chyba wyjaśni eksperyment myślowy znany jako maksymalizator spinacza. Zakłada, że ​​pozornie nieszkodliwa sztuczna inteligencja, której powierzono zadanie wyprodukowania jak największej liczby spinaczy, może pochłonąć zasoby całego świata bez względu na ludzi i nasze tradycje. Szwedzki filozof Nick Bostrom wysunął teorię:

Załóżmy, że mamy sztuczną inteligencję, której jedynym celem jest zrobienie jak największej liczby spinaczy do papieru. Sztuczna inteligencja szybko zorientuje się, że byłoby znacznie lepiej, gdyby nie było ludzi, ponieważ ludzie mogliby zdecydować się ją wyłączyć. Ponieważ gdyby ludzie tak robili, byłoby mniej spinaczy do papieru. Ponadto ciała ludzkie zawierają wiele atomów, z których można zrobić spinacze do papieru.

Poręcze bezpieczeństwa, które obecnie istnieją wokół platform takich jak Midjourney i ChatGPT, nie wystarczą, zwłaszcza że ich twórcy często nie potrafią wyjaśnić błędnego zachowania. Jakie jest więc rozwiązanie? Dolina Krzemowa nie ma odpowiedzi, a mimo to Big Tech kontynuuje innowacje tak lekkomyślnie jak zawsze. Tylko w zeszłym miesiącu Google i Microsoft zwolniły stanowiska w swoich zespołach ds. zaufania i bezpieczeństwa. Ten ostatni podobno zwolnił cały zespół zajmujący się kierowaniem etycznymi innowacjami w zakresie sztucznej inteligencji. Powiedzcie, co chcecie o Elonie Musku i jego licznych kontrowersjach, ale trudno nie zgodzić się z jego stanowiskiem, że sektor sztucznej inteligencji desperacko potrzebuje reform i regulacji. W odpowiedzi na powszechne obawy Muska, współzałożyciela Apple Steve'a Wozniaka i innych, OpenAI zgodziło się w zeszłym roku na tymczasową przerwę w szkoleniu nowych modeli. Jednakże GPT-5 znajduje się obecnie w fazie aktywnego rozwoju, a wyścig w kierunku superinteligencji trwa, pozostawiając pod znakiem zapytania kwestię bezpieczeństwa i przyszłości ludzkości. Uwagi

Click to rate this post!
[Total: 0 Average: 0]
Android