Zasilanie sztucznej inteligencji mogłoby zużywać tyle samo energii elektrycznej, co mały kraj

Zasilanie sztucznej inteligencji mogłoby zużywać tyle samo energii elektrycznej, co mały kraj

Sztuczna inteligencja (AI) obiecuje pomóc programistom szybciej kodować, kierowcom bezpieczniej jeździć i sprawić, że codzienne zadania będą mniej czasochłonne. Jednak w komentarzu opublikowanym 10 października w czasopiśmie Joule założyciel Digiconomist pokazuje, że szerokie zastosowanie tego narzędzia może wiązać się z dużym śladem energetycznym, który w przyszłości może przekroczyć zapotrzebowanie niektórych krajów na energię.

„Biorąc pod uwagę rosnące zapotrzebowanie na usługi AI, jest bardzo prawdopodobne, że zużycie energii związane z AI znacznie wzrośnie w nadchodzących latach” – mówi autor Alex de Vries, doktorant. kandydat na Vrije Universiteit Amsterdam.

Od 2022 r. generatywna sztuczna inteligencja, która może generować tekst, obrazy i inne dane, uległa szybkiemu rozwojowi, co obejmuje ChatGPT OpenAI. Szkolenie tych narzędzi AI wymaga dostarczenia modelom dużej ilości danych, co jest procesem energochłonnym. Hugging Face, firma rozwijająca sztuczną inteligencję z siedzibą w Nowym Jorku, podała, że ​​jej wielojęzyczne narzędzie AI do generowania tekstu zużyło podczas szkolenia około 433 megawatogodzin (MWH), co wystarczy do zasilenia 40 przeciętnych amerykańskich domów przez rok.

Ślad energetyczny sztucznej inteligencji nie kończy się na szkoleniu. Analiza De Vriesa pokazuje, że gdy narzędzie jest uruchamiane – generując dane na podstawie podpowiedzi – za każdym razem, gdy narzędzie generuje tekst lub obraz, zużywa ono również znaczną ilość mocy obliczeniowej, a co za tym idzie – energii. Na przykład uruchomienie ChatGPT może kosztować 564 MWh energii elektrycznej dziennie.

Podczas gdy firmy na całym świecie pracują nad poprawą wydajności sprzętu i oprogramowania AI, aby uczynić to narzędzie mniej energochłonnym, de Vries twierdzi, że wzrost wydajności maszyn często zwiększa popyt. Ostatecznie postęp technologiczny doprowadzi do wzrostu wykorzystania zasobów netto, co jest zjawiskiem znanym jako paradoks Jevonsa.

„Uczynienie tych narzędzi bardziej wydajnymi i dostępnymi może sprawić, że po prostu udostępnimy ich większej liczbie zastosowań i będzie mogło z nich korzystać więcej osób” – mówi de Vries.

Na przykład Google włącza generatywną sztuczną inteligencję do swojej usługi e-mail i testuje możliwości wykorzystania sztucznej inteligencji w swojej wyszukiwarce. Obecnie firma przetwarza do 9 miliardów wyszukiwań dziennie. Na podstawie tych danych de Vries szacuje, że gdyby każda wyszukiwarka Google korzystała ze sztucznej inteligencji, potrzebowałaby około 29,2 TWh energii rocznie, co odpowiada rocznemu zużyciu energii elektrycznej w Irlandii.

Jest mało prawdopodobne, aby ten skrajny scenariusz miał miejsce w krótkim okresie ze względu na wysokie koszty związane z dodatkowymi serwerami AI i wąskimi gardłami w łańcuchu dostaw serwerów AI, mówi de Vries. Przewiduje się jednak, że w najbliższej przyszłości produkcja serwerów AI szybko wzrośnie. Na podstawie prognoz dotyczących produkcji serwerów AI do 2027 r. światowe zużycie energii elektrycznej związanej ze sztuczną inteligencją może wzrosnąć o 85 do 134 TWh rocznie.

Kwota ta jest porównywalna z rocznym zużyciem energii elektrycznej w takich krajach jak Holandia, Argentyna czy Szwecja. Co więcej, poprawa wydajności sztucznej inteligencji mogłaby również umożliwić programistom ponowne przeznaczenie niektórych chipów przetwarzających komputer na potrzeby sztucznej inteligencji, co mogłoby jeszcze bardziej zwiększyć zużycie energii elektrycznej związanej ze sztuczną inteligencją.

„Potencjalny wzrost pokazuje, że musimy bardzo uważać na to, do czego wykorzystujemy sztuczną inteligencję. Jest ona energochłonna, dlatego nie chcemy jej używać wszędzie tam, gdzie jej nie potrzebujemy” – mówi de Vries .

Click to rate this post!
[Total: 0 Average: 0]
science