Wybierz język

Polish

Down Icon

Wybierz kraj

Poland

Down Icon

Ile energii zużywa AI? Ludzie, którzy wiedzą, nie mówią

Ile energii zużywa AI? Ludzie, którzy wiedzą, nie mówią
Coraz więcej badań próbuje określić wskaźniki zużycia energii i sztucznej inteligencji, chociaż firmy stojące za najpopularniejszymi modelami ukrywają emisję dwutlenku węgla.
Zdjęcie: Bloomberg/Getty Images

„Ludzie często są ciekawi, ile energii zużywa zapytanie ChatGPT” – napisał Sam Altman , CEO OpenAI , w komentarzu do długiego wpisu na blogu w zeszłym tygodniu. Średnie zapytanie, napisał Altman, zużywa 0,34 watogodzin energii: „Mniej więcej tyle, ile piekarnik zużyłby w nieco ponad sekundę, a żarówka o wysokiej wydajności w kilka minut”.

Dla firmy z 800 milionami aktywnych użytkowników tygodniowo (i rosnącą liczbą ) pytanie o to, ile energii zużywają wszystkie te wyszukiwania, staje się coraz bardziej palące. Jednak eksperci twierdzą, że liczba Altmana nie znaczy wiele bez większego kontekstu publicznego ze strony OpenAI na temat tego, w jaki sposób doszła do tego obliczenia — w tym definicji „przeciętnego” zapytania, czy obejmuje ono generowanie obrazu, czy nie, i czy Altman uwzględnia dodatkowe zużycie energii, np. z trenowania modeli AI i chłodzenia serwerów OpenAI.

W rezultacie Sasha Luccioni, szefowa działu klimatu w firmie AI Hugging Face, nie przywiązuje zbyt dużej wagi do liczby Altmana. „Mógł to sobie sam wymyślić” – mówi. (OpenAI nie odpowiedział na prośbę o więcej informacji na temat tego, jak doszedł do tej liczby).

Ponieważ AI przejmuje nasze życie, obiecuje również przekształcić nasze systemy energetyczne, zwiększając emisję dwutlenku węgla dokładnie w momencie, gdy próbujemy walczyć ze zmianą klimatu. Teraz nowe i rosnące grono badaczy próbuje ustalić konkretne liczby dotyczące tego, ile dwutlenku węgla faktycznie emitujemy przy całym naszym wykorzystaniu AI.

To działanie jest skomplikowane przez fakt, że główni gracze, tacy jak OpenAi, ujawniają niewiele informacji o środowisku. Analiza przesłana do recenzji w tym tygodniu przez Luccioni i trzech innych autorów dotyczy potrzeby większej przejrzystości środowiskowej w modelach AI. W nowej analizie Luccioni i jej współpracownicy wykorzystują dane z OpenRouter , tabeli liderów ruchu dużych modeli językowych (LLM), aby odkryć, że 84 procent wykorzystania LLM w maju 2025 r. dotyczyło modeli z zerowym ujawnieniem informacji o środowisku. Oznacza to, że konsumenci w zdecydowanej większości wybierają modele o całkowicie nieznanym wpływie na środowisko.

„To dla mnie niesamowite, że możesz kupić samochód i wiedzieć, ile mil na galon zużywa, a mimo to codziennie korzystamy ze wszystkich tych narzędzi AI i nie mamy absolutnie żadnych wskaźników efektywności, współczynników emisji, niczego” — mówi Luccioni. „To nie jest obowiązkowe, to nie jest regulacyjne. Biorąc pod uwagę, gdzie jesteśmy z kryzysem klimatycznym, powinno to być priorytetem dla regulatorów na całym świecie”.

W rezultacie tego braku przejrzystości, mówi Luccioni, społeczeństwo jest narażone na szacunki, które nie mają sensu, ale są traktowane jako prawda objawiona. Być może słyszałeś na przykład, że przeciętne żądanie ChatGPT wymaga 10 razy więcej energii niż przeciętne wyszukiwanie w Google. Luccioni i jej współpracownicy odnajdują to twierdzenie w publicznej wypowiedzi, którą John Hennessy, prezes Alphabet, spółki macierzystej Google, wygłosił w 2023 r.

Twierdzenie członka zarządu jednej firmy (Google) dotyczące produktu innej firmy, z którą nie ma on żadnych powiązań (OpenAI), jest w najlepszym razie wątpliwe — jednak analiza Luccioniego wykazała, że ​​liczba ta była powtarzana wielokrotnie w prasie i raportach politycznych. (Kiedy pisałem ten artykuł, dostałem ofertę z dokładnie tą statystyką).

„Ludzie wzięli spontaniczną uwagę i przekształcili ją w faktyczną statystykę, która informuje o polityce i sposobie, w jaki ludzie patrzą na te rzeczy” — mówi Luccioni. „Prawdziwym sednem problemu jest to, że nie mamy żadnych liczb. Więc nawet obliczenia na serwetce, które ludzie mogą znaleźć, mają tendencję do traktowania ich jako złotego standardu, ale tak nie jest”.

Jednym ze sposobów, aby spróbować zajrzeć za kulisy, aby uzyskać dokładniejsze informacje, jest praca z modelami open source. Niektórzy giganci technologiczni, w tym OpenAI i Anthropic, zachowują swoje modele jako zastrzeżone — co oznacza, że ​​zewnętrzni badacze nie mogą niezależnie zweryfikować swojego zużycia energii. Jednak inne firmy udostępniają publicznie niektóre części swoich modeli, co pozwala badaczom dokładniej mierzyć swoje emisje.

Badanie opublikowane w czwartek w czasopiśmie Frontiers of Communication oceniło 14 dużych modeli językowych typu open source, w tym dwa modele Meta Llama i trzy modele DeepSeek, i wykazało, że niektóre z nich zużywały nawet o 50 procent więcej energii niż inne modele w zestawie danych, odpowiadając na pytania od badaczy. 1000 pytań testowych przesłanych do LLM obejmowało pytania z takich tematów, jak historia szkoły średniej i filozofia; połowa pytań była sformatowana jako wielokrotnego wyboru, z dostępnymi odpowiedziami składającymi się tylko z jednego słowa, podczas gdy połowa została przesłana jako otwarte pytania, co pozwalało na swobodniejszy format i dłuższe odpowiedzi. Modele rozumowania, jak odkryli badacze, generowały znacznie więcej tokenów myślenia — miar wewnętrznego rozumowania generowanych w modelu podczas generowania odpowiedzi, które są cechą charakterystyczną większego zużycia energii — niż bardziej zwięzłe modele. Te modele, być może nie zaskakujące, były również dokładniejsze w przypadku złożonych tematów. (Mieli też problemy ze zwięzłością: na przykład w fazie wyboru wielokrotnego bardziej złożone modele często zwracały odpowiedzi z wieloma tokenami, pomimo wyraźnych instrukcji, aby odpowiadać wyłącznie spośród podanych opcji).

Maximilian Dauner, doktorant na Uniwersytecie Nauk Stosowanych w Monachium i główny autor badania, mówi, że ma nadzieję, że wykorzystanie sztucznej inteligencji ewoluuje w kierunku myślenia o tym, jak wydajniej używać mniej energochłonnych modeli do różnych zapytań. Wyobraża sobie proces, w którym mniejsze, prostsze pytania są automatycznie kierowane do mniej energochłonnych modeli, które nadal będą dostarczać dokładnych odpowiedzi. „Nawet mniejsze modele mogą osiągać naprawdę dobre wyniki w przypadku prostszych zadań i nie emitują tak dużej ilości CO 2 w trakcie procesu”, mówi.

Niektóre firmy technologiczne już to robią. Google i Microsoft wcześniej poinformowały WIRED, że ich funkcje wyszukiwania wykorzystują mniejsze modele, gdy jest to możliwe, co może również oznaczać szybsze odpowiedzi dla użytkowników. Jednak generalnie dostawcy modeli niewiele zrobili, aby zachęcić użytkowników do mniejszego zużycia energii. Na przykład szybkość, z jaką model odpowiada na pytanie, ma duży wpływ na zużycie energii — ale nie jest to wyjaśnione, gdy produkty AI są prezentowane użytkownikom, mówi Noman Bashir, Computing & Climate Impact Fellow w Climate and Sustainability Consortium w MIT.

„Celem jest dostarczenie wszystkich tych wniosków w najszybszy możliwy sposób, abyś nie opuścił ich platformy” — mówi. „Jeśli ChatGPT nagle zacznie udzielać odpowiedzi po pięciu minutach, przejdziesz do innego narzędzia, które udziela Ci natychmiastowej odpowiedzi”.

Jednak istnieje niezliczona ilość innych kwestii do rozważenia przy obliczaniu zużycia energii przez złożone zapytania AI, ponieważ nie jest to tylko teoria — warunki, w których zapytania są faktycznie uruchamiane w świecie rzeczywistym, mają znaczenie. Bashir wskazuje, że fizyczny sprzęt ma znaczenie przy obliczaniu emisji. Dauner przeprowadził swoje eksperymenty na procesorze graficznym Nvidia A100, ale procesor graficzny Nvidia H100 — który został specjalnie zaprojektowany do obciążeń AI i który, według firmy , staje się coraz bardziej popularny — jest znacznie bardziej energochłonny.

Infrastruktura fizyczna również ma znaczenie, gdy mówimy o emisjach. Duże centra danych potrzebują systemów chłodzenia, oświetlenia i sprzętu sieciowego, które dodają więcej energii; często działają w cyklach dobowych, robiąc sobie przerwę w nocy, gdy zapytania są mniejsze. Są również podłączone do różnych typów sieci — tych zasilanych głównie paliwami kopalnymi, w przeciwieństwie do tych zasilanych odnawialnymi źródłami energii — w zależności od ich lokalizacji.

Bashir porównuje badania, które analizują emisje z zapytań AI bez uwzględniania potrzeb centrów danych, do podnoszenia samochodu, wciskania gazu i liczenia obrotów koła jako sposobu przeprowadzania testu efektywności paliwowej. „Nie bierzesz pod uwagę faktu, że to koło musi unieść samochód i pasażera” – mówi.

Być może najważniejsze dla naszego zrozumienia emisji AI, modele open source, takie jak te, których Dauner użył w swoim badaniu, stanowią ułamek modeli AI używanych obecnie przez konsumentów. Szkolenie modelu i aktualizowanie wdrożonych modeli wymaga ogromnej ilości energii — liczby, które wiele dużych firm utrzymuje w tajemnicy. Nie jest jasne na przykład, czy statystyka żarówki dotycząca ChatGPT z Altmana OpenAI uwzględnia całą energię zużytą na szkolenie modeli zasilających chatbota. Bez większego ujawnienia, opinia publiczna po prostu traci wiele informacji potrzebnych do rozpoczęcia rozumienia, jak bardzo ta technologia wpływa na planetę.

„Gdybym miał czarodziejską różdżkę, nałożyłbym na każdą firmę wprowadzającą do produkcji system AI, gdziekolwiek, na całym świecie, w dowolnym zastosowaniu, obowiązek ujawniania liczby węglowej” – mówi Luccioni.

W przygotowaniu reportażu pomógł Paresh Dave.

wired

wired

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow