Wykonanie nowego zadania wyłącznie na podstawie ustnych lub pisemnych instrukcji, a następnie opisanie go innym, aby mogli je odtworzyć, to kamień węgielny ludzkiej komunikacji, która wciąż opiera się sztucznej inteligencji (AI). Zespołowi z Uniwersytetu Genewskiego (UNIGE) udało się zamodelować sztuczną sieć neuronową zdolną do osiągnięcia takich zdolności poznawczych. Po nauczeniu się i wykonaniu szeregu podstawowych zadań sztuczna inteligencja była w stanie dostarczyć ich opis językowy „siostrzanej” sztucznej inteligencji, która z kolei je wykonała. Te obiecujące wyniki, szczególnie w przypadku robotyki, opublikowano w czasopiśmie Nature Neuroscience.
Wykonywanie nowego zadania bez wcześniejszego przeszkolenia, wyłącznie na podstawie ustnych lub pisemnych instrukcji, jest wyjątkową zdolnością człowieka. Co więcej, gdy już poznamy zadanie, jesteśmy w stanie je opisać, aby inna osoba mogła je odtworzyć. Ta podwójna zdolność odróżnia nas od innych gatunków, które, aby nauczyć się nowego zadania, potrzebują licznych prób, którym towarzyszą pozytywne lub negatywne sygnały wzmacniające, nie będąc w stanie przekazać tego swoim kongenerom.
Poddziedzina sztucznej inteligencji (AI) – przetwarzanie języka naturalnego – stara się odtworzyć tę ludzką zdolność za pomocą maszyn, które rozumieją i reagują na dane głosowe lub tekstowe. Technika ta opiera się na sztucznych sieciach neuronowych, inspirowanych naszymi neuronami biologicznymi i sposobem, w jaki przekazują one sobie sygnały elektryczne w mózgu. Jednak obliczenia neuronowe, które umożliwiłyby osiągnięcie opisanego powyżej wyczynu poznawczego, są nadal słabo poznane.
„Obecnie agenci konwersacyjni korzystający ze sztucznej inteligencji są w stanie integrować informacje językowe w celu utworzenia tekstu lub obrazu. Jednak o ile nam wiadomo, nie są jeszcze w stanie przełożyć ustnej lub pisemnej instrukcji na działanie sensomotoryczne, a tym bardziej wyjaśnić jej innej sztucznej inteligencji, aby mogła ją odtworzyć” – wyjaśnia Alexandre Pouget, profesor zwyczajny w Katedra Neurologii Podstawowej na Wydziale Lekarskim UNIGE.
Modelowy mózg
Naukowcowi i jego zespołowi udało się opracować sztuczny model neuronowy o tej podwójnej zdolności, aczkolwiek po wcześniejszym przeszkoleniu. „Zaczęliśmy od istniejącego modelu sztucznych neuronów, S-Bert, który ma 300 milionów neuronów i jest wstępnie przeszkolony do rozumienia języka. „Połączyliśmy” go z inną, prostszą siecią składającą się z kilku tysięcy neuronów” – wyjaśnia Reidar Riveland, doktorant w Zakładzie Podstawowych Neuronauk na Wydziale Lekarskim UNIGE i pierwszy autor badania.
Na pierwszym etapie eksperymentu neurolodzy przeszkolili tę sieć tak, aby symulowała obszar Wernickego – część naszego mózgu, która umożliwia nam postrzeganie i interpretację języka. W drugim etapie sieć została przeszkolona do odtwarzania obszaru Broki, który pod wpływem obszaru Wernickego odpowiada za tworzenie i artykułowanie słów. Cały proces odbywał się na konwencjonalnych laptopach. Następnie AI przekazała pisemne instrukcje w języku angielskim.
Na przykład: wskazywanie miejsca – po lewej lub prawej stronie – gdzie odbierany jest bodziec; reagowanie w kierunku przeciwnym do bodźca; lub, bardziej złożone, między dwoma bodźcami wzrokowymi z niewielką różnicą w kontraście, pokazując jaśniejszy. Następnie naukowcy ocenili wyniki modelu, który symulował zamiar poruszenia się, czyli w tym przypadku wskazania. „Po nauczeniu się tych zadań sieć była w stanie opisać je drugiej sieci – kopii pierwszej – aby mogła je odtworzyć. Według naszej wiedzy jest to pierwszy przypadek, kiedy dwie sztuczne inteligencji mogły ze sobą rozmawiać w sposób czysto językowy” – mówi Alexandre Pouget, który kierował badaniami.
Dla przyszłych humanoidów
Model ten otwiera nowe horyzonty w zrozumieniu interakcji między językiem a zachowaniem. Jest to szczególnie obiecujące dla sektora robotyki, gdzie kluczową kwestią jest rozwój technologii umożliwiających komunikację maszyn ze sobą. „Sieć, którą stworzyliśmy, jest bardzo mała. Nic nie stoi obecnie na przeszkodzie, aby na tej podstawie opracować znacznie bardziej złożone sieci, które można by zintegrować z humanoidalnymi robotami, które będą w stanie nas zrozumieć, ale także zrozumieć siebie nawzajem” – podsumowują obaj badacze.