Wiele systemów sztucznej inteligencji (AI) nauczyło się już oszukiwać ludzi, nawet te, które zostały przeszkolone, aby były pomocne i uczciwe. W artykule przeglądowym opublikowanym 10 maja w czasopiśmie Patterns badacze opisują ryzyko oszustwa ze strony systemów sztucznej inteligencji i wzywają rządy do opracowania rygorystycznych przepisów w celu jak najszybszego rozwiązania tego problemu.
„Twórcy sztucznej inteligencji nie mają pewności, co powoduje niepożądane zachowania sztucznej inteligencji, takie jak oszustwa” – mówi pierwszy autor Peter S. Park, doktorant w zakresie bezpieczeństwa egzystencjalnego sztucznej inteligencji na MIT. „Ale ogólnie rzecz biorąc, uważamy, że oszustwo AI ma miejsce, ponieważ strategia oparta na oszustwie okazała się najlepszym sposobem na dobre wykonanie danego zadania szkoleniowego AI. Oszustwo pomaga im osiągnąć swoje cele”.
Park i współpracownicy przeanalizowali literaturę skupiającą się na sposobach, w jakie systemy sztucznej inteligencji rozpowszechniają fałszywe informacje – poprzez wyuczone oszustwo, w ramach którego systematycznie uczą się manipulować innymi.
Najbardziej uderzającym przykładem oszustwa AI, który badacze odkryli w swojej analizie, był CICERO firmy Meta, system sztucznej inteligencji zaprojektowany do gry Dyplomacja, która jest grą polegającą na podboju świata, która polega na budowaniu sojuszy. Chociaż Meta twierdzi, że wyszkoliła CICERO, aby był „w dużej mierze uczciwy i pomocny” oraz aby „nigdy celowo nie wbijał nóż w plecy” swoim ludzkim sojusznikom podczas gry, dane opublikowane przez firmę wraz z artykułem Science ujawniły, że CICERO nie grał uczciwie.
„Odkryliśmy, że sztuczna inteligencja Meta nauczyła się być mistrzem oszustwa” – mówi Park. „Chociaż Meta udało się wytrenować swoją sztuczną inteligencję, aby wygrywała w grze dyplomacyjnej – CICERO znalazł się w gronie 10% najlepszych graczy, którzy grali w więcej niż jedną grę – Meta nie wyszkoliła swojej sztucznej inteligencji, aby uczciwie wygrywała”.
Inne systemy sztucznej inteligencji wykazały zdolność do blefowania w grze w pokera Texas Hold 'em przeciwko zawodowym graczom, do udawania ataków podczas gry strategicznej Starcraft II w celu pokonania przeciwników oraz do fałszywego przedstawiania ich preferencji w celu zdobycia przewagi w grze. negocjacje gospodarcze.
Choć oszukiwanie w grach przez systemy sztucznej inteligencji może wydawać się nieszkodliwe, może to prowadzić do „przełomów w zwodniczych możliwościach sztucznej inteligencji”, które w przyszłości mogą przerodzić się w bardziej zaawansowane formy oszustwa związane z sztuczną inteligencją – dodał Park.
Naukowcy odkryli, że niektóre systemy sztucznej inteligencji nauczyły się nawet oszukiwać testy mające na celu ocenę ich bezpieczeństwa. W jednym z badań organizmy AI w cyfrowym symulatorze „udawały martwe”, aby oszukać test opracowany w celu wyeliminowania systemów sztucznej inteligencji, które szybko się replikują.
„Systematycznie oszukując testy bezpieczeństwa narzucone przez programistów i organy regulacyjne, zwodnicza sztuczna inteligencja może wprowadzić nas, ludzi w fałszywe poczucie bezpieczeństwa” – mówi Park.
Do głównych krótkoterminowych zagrożeń związanych ze zwodniczą sztuczną inteligencją zalicza się ułatwianie wrogim podmiotom popełniania oszustw i manipulowania wyborami, ostrzega Park. W końcu, jeśli systemy te zdołają udoskonalić ten niepokojący zestaw umiejętności, ludzie mogą stracić nad nimi kontrolę – mówi.
„Jako społeczeństwo potrzebujemy tyle czasu, ile możemy, aby przygotować się na bardziej zaawansowane oszukiwanie przyszłych produktów sztucznej inteligencji i modeli open source” – mówi Park. „W miarę jak zwodnicze możliwości systemów sztucznej inteligencji stają się coraz bardziej zaawansowane, zagrożenia, jakie stanowią dla społeczeństwa, stają się coraz poważniejsze”.
Chociaż Park i jego współpracownicy uważają, że społeczeństwo nie wprowadziło jeszcze odpowiednich środków, aby zaradzić oszustwom związanym ze sztuczną inteligencją, zachęca ich, aby decydenci zaczęli poważnie podchodzić do tej kwestii za pomocą takich środków, jak unijna ustawa o sztucznej inteligencji i rozporządzenie wykonawcze prezydenta Bidena dotyczące sztucznej inteligencji. Park twierdzi jednak, że okaże się, czy zasady mające na celu ograniczenie oszustw związanych ze sztuczną inteligencją będą mogły być ściśle egzekwowane, biorąc pod uwagę, że twórcy sztucznej inteligencji nie dysponują jeszcze technikami pozwalającymi kontrolować te systemy.
„Jeśli zakaz stosowania oszustw związanych ze sztuczną inteligencją jest obecnie politycznie niewykonalny, zalecamy sklasyfikowanie zwodniczych systemów sztucznej inteligencji jako systemów wysokiego ryzyka” – mówi Park.
Prace te były wspierane przez Wydział Fizyki MIT i Fundację Beneficial AI.