Sztuczna inteligencja może być przydatnym narzędziem dla pracowników służby zdrowia i badaczy, jeśli chodzi o interpretację obrazów diagnostycznych. Tam, gdzie radiolog może zidentyfikować złamania i inne nieprawidłowości na podstawie zdjęcia rentgenowskiego, modele AI mogą dostrzec wzorce, których ludzie nie są w stanie dostrzec, co daje możliwość zwiększenia efektywności obrazowania medycznego.
Jednak badanie opublikowane w Scientific Reports podkreśla ukryte wyzwanie, jakim jest wykorzystanie sztucznej inteligencji w badaniach obrazowania medycznego – zjawisko uzyskiwania bardzo dokładnych, ale potencjalnie mylących wyników, zwane „uczeniem się na skróty”.
Naukowcy przeanalizowali ponad 25 000 zdjęć rentgenowskich kolan wykonanych w ramach inicjatywy na rzecz choroby zwyrodnieniowej stawów finansowanej przez Narodowy Instytut Zdrowia i odkryli, że modele sztucznej inteligencji mogą „przewidywać” niepowiązane i nieprawdopodobne cechy, takie jak to, czy pacjenci powstrzymywali się od spożywania smażonej fasoli lub piwa. Chociaż przewidywania te nie mają podstaw medycznych, modele osiągnęły zaskakujący poziom dokładności dzięki wykorzystaniu subtelnych i niezamierzonych wzorców w danych.
„Chociaż sztuczna inteligencja może zmienić obrazowanie medyczne, musimy zachować ostrożność” – mówi główny autor badania, dr Peter Schilling, chirurg ortopeda w Dartmouth Hitchcock Medical Center w Dartmouth Health i adiunkt ortopedii w Geisel School of Medicine w Dartmouth .
„Te modele potrafią dostrzec wzorce, których człowiek nie jest w stanie dostrzec, ale nie wszystkie zidentyfikowane przez nie wzorce są znaczące i wiarygodne” – mówi Schilling. „Ważne jest rozpoznanie tych zagrożeń, aby zapobiec wprowadzającym w błąd wnioskom i zapewnić rzetelność naukową”.
Naukowcy sprawdzili, w jaki sposób algorytmy sztucznej inteligencji często opierają się na zmiennych zakłócających – takich jak różnice w sprzęcie rentgenowskim lub markerach miejsca klinicznego – w celu przewidywania, a nie cech istotnych z medycznego punktu widzenia. Próby wyeliminowania tych błędów zakończyły się jedynie marginalnym sukcesem – modele sztucznej inteligencji po prostu „uczyły się” innych ukrytych wzorców danych.
„To wykracza poza uprzedzenia wynikające ze wskazówek dotyczących rasy lub płci” – mówi Brandon Hill, współautor badania i naukowiec zajmujący się uczeniem maszynowym w Dartmouth Hitchcock. „Odkryliśmy, że algorytm może nawet nauczyć się przewidywać rok wykonania zdjęcia rentgenowskiego. Jest to szkodliwe — jeśli uniemożliwisz mu nauczenie się jednego z tych elementów, zamiast tego nauczy się innego, wcześniej ignorowanego. To niebezpieczeństwo może prowadzić do naprawdę poważnych problemów. podejrzane twierdzenia, a badacze muszą zdawać sobie sprawę, jak łatwo do tego dochodzi podczas stosowania tej techniki”.
Odkrycia podkreślają potrzebę rygorystycznych standardów oceny w badaniach medycznych opartych na sztucznej inteligencji. Nadmierne poleganie na standardowych algorytmach bez głębszej analizy może prowadzić do błędnych wniosków klinicznych i ścieżek leczenia.
„Ciężar dowodu znacznie wzrasta, jeśli chodzi o wykorzystanie modeli do odkrywania nowych wzorców w medycynie” – mówi Hill. „Częścią problemu jest nasze uprzedzenie. Niewiarygodnie łatwo wpaść w pułapkę zakładania, że model „widzi” tak samo jak my. W ostatecznym rozrachunku tak nie jest”.
„Sztuczna inteligencja przypomina prawie walkę z obcą inteligencją” – kontynuuje Hill. „Chce się powiedzieć, że model „oszukuje”, ale to antropomorfizuje technologię. Nauczył się sposobu rozwiązywania powierzonego mu zadania, ale niekoniecznie w sposób, w jaki zrobiłby to dana osoba. Nie ma w nim logiki ani rozumowania, jak zwykle rozumiemy To.”
Schilling, Hill i współautorka badania Frances Koback, studentka trzeciego roku medycyny w szkole Geisel w Dartmouth, przeprowadzili badanie we współpracy z Veterans Affairs Medical Center w White River Junction, Vt.