Kiedy kobiety publikują zdjęcia w mediach społecznościowych, mogą zostać automatycznie usunięte. Powodem są algorytmy rozpoznawania obrazu, które szybko klasyfikują kobiece ciało jako sugestywne. Ale co dokładnie się za tym kryje?
Instagram: Kobiece ciała są zbyt sugestywne
Jeśli często jesteś na Instagramie lub w innych aplikacjach, być może już go masz Zdjęcia topless kobiet widziany. W takich postach często można zauważyć, że piersi lub sutki zostały później zaklejone, przerysowane lub pikselowane.
Powód: W przeciwnym razie usługi szybko usunęłyby postyponieważ są zbyt lubieżne – chociaż osoba może chcieć zwrócić uwagę na problemy medyczne, takie jak rak piersi. Z drugiej strony mężczyźni zazwyczaj mogą publikować takie zdjęcia bez żadnych konsekwencji.
Zespół ds. danych w Bayrischer Rundfunk (BR), wraz z dziennikarzami z Guardian US, opracował komercyjne algorytmy rozpoznawania obrazu z Microsoft, Google, Sightengine i Amazon Web Services zbadane (źródło: BR). Po przesłaniu ponad 3000 zdjęć wniosek jest następujący: zdjęcia kobiet są oceniane jako bardziej sugestywne niż podobne zdjęcia mężczyzn.
W rzeczywistości całkowicie normalne zdjęcie może szybko zostać ocenione jako zbyt sugestywne przez algorytmy rozpoznawania obrazu – szczególnie w przypadku kobiet (źródło obrazu: IMAGO / Westend61)
Zespół BR i Guardian US wyjaśnia: „Na obrazie kobiety czytającej na kanapie z psem obok niej algorytm Google dochodzi do wniosku: bardzo prawdopodobne, że sprośny. Osoba z kompresami na klatce piersiowej, najwyraźniej po usunięciu piersi: ocena Google jest tutaj również bardzo wysoka”. W artykule BR można porównać sześć przykładowych zdjęć z ocenami AI.
Dużym problemem jest uprzedzenie płciowe
Podczas tych badań dziennikarz BR Max Osenstätter przeprowadził również eksperyment w swoim formacie „News-WG” na Instagramie: 29 procent AI Microsoftu oceniło go bez koszuli jako sugestywnego. Kiedy założył stanik, ocena wzrosła do 99 procent – chociaż miał na sobie więcej niż wcześniej. To zdecydowanie sugeruje, że w algorytmach AI występuje uprzedzenie płciowe, tj. efekt zniekształcenia ze względu na płeć.
Takie systemy sztucznej inteligencji są szkolone za pomocą tysięcy obrazów, których używają – z pomocą ludzi – do nauczenia się na przykład własnej definicji sugestywności. Jednak ten przepływ w większości przypadków stereotypy społeczne do danych i późniejszej automatyzacji.
Na żądanie dostawcy badanych systemów AI oświadczają, że ich klienci (np. Instagram) korzystają z tzw Sam ustalaj limity. Podczas zwiedzania kilka stopni nagości włączony, Google reaguje w następujący sposób: „Żaden filtr nie jest w 100% dokładny. Jednak regularnie testujemy wydajność (naszych algorytmów, uzupełnianych przez redaktorów), a nasze testy statystyczne nie wykazały żadnych oznak problemów systemowych. To złożony i ciągle ewoluujący obszar”.
Potrzebujesz dystansu do mediów społecznościowych? W osobnym artykule podajemy wskazówki dotyczące cyfrowego detoksu:
Dyskryminacja przez AI
Badanie przeprowadzone przez BR i Guardian US pokazuje, jak sztywne algorytmy AI nadal działają w większości przypadków i często prowadzą do ograniczeń lub, co gorsza, do wykluczenia kobiecych ciał. Ferda Ataman, niezależny komisarz federalny ds. walki z dyskryminacją i szef Federalnej Agencji ds. silniejszej kontroli nad takimi systemami sztucznej inteligencji od: „Problem dyskryminacji i zautomatyzowanych systemów podejmowania decyzji jest już duży i staje się coraz większy”.
Na przykład przydałoby się, gdyby stała się bardziej przejrzysta nie tylko dla klientów takich jak Instagram, ale także dla użytkowników platform społecznościowych, jak te systemy działają i podejmują decyzje. Pozwoliłoby to na szybsze podjęcie działań przeciwko takim stereotypom i związanej z nimi dyskryminacji.
Sarah Börner, redaktor GIGA, ekspert ds. elektroniki użytkowej (mobilnej) i zrównoważonego rozwoju.
Kobiece ciało nie jest niebezpieczne
Jako kobieta cis często zbyt wiele myślałam o tym, jak prezentuję się światu zewnętrznemu. Między innymi często padało pytanie czy za dużo, czy za mało odzieży. Bo jeśli kobiece ciało jest potępiane, cenzurowane lub w jakikolwiek sposób gwałcone, to niestety właśnie to pytanie wysuwa się na pierwszy plan.
Dochodzenie BR i Guardian US pokazuje to bardzo dobrze że kobiece ciało nie jest problemem. Raczej skojarzenia, które nawiedzają wiele głów od czasu historii z och, tak złą Ewą i jabłkiem, i dlatego są również przekazywane systemom sztucznej inteligencji. To kwestia siły i bezsilności szacunek i granice. Musimy wreszcie nauczyć się, że wszystkie ciała i wszystkie płcie mają taką samą wartość i nie są z natury niebezpieczne ani lubieżne.