Seleziona la lingua

Italian

Down Icon

Seleziona Paese

France

Down Icon

Quanta energia consuma l'intelligenza artificiale? Chi lo sa non lo dice

Quanta energia consuma l'intelligenza artificiale? Chi lo sa non lo dice
Un numero crescente di ricerche tenta di quantificare il consumo di energia e l'intelligenza artificiale, anche se le aziende dietro i modelli più popolari tengono segrete le proprie emissioni di carbonio.
Fotografia: Bloomberg/Getty Images

"Le persone sono spesso curiose di sapere quanta energia consuma una query ChatGPT", ha scritto Sam Altman , CEO di OpenAI , in un lungo post sul blog la scorsa settimana. La query media, ha scritto Altman, consuma 0,34 wattora di energia: "Circa quanto un forno consumerebbe in poco più di un secondo, o una lampadina ad alta efficienza in un paio di minuti".

Per un'azienda con 800 milioni di utenti attivi settimanali (in crescita ), la questione di quanta energia consumino tutte queste ricerche sta diventando sempre più pressante. Ma gli esperti affermano che il dato di Altman non significa molto senza un contesto pubblico più ampio da parte di OpenAI su come è arrivato a questo calcolo, inclusa la definizione di cosa sia una query "media", se includa o meno la generazione di immagini e se Altman includa o meno un consumo energetico aggiuntivo, ad esempio derivante dall'addestramento dei modelli di intelligenza artificiale e dal raffreddamento dei server di OpenAI.

Di conseguenza, Sasha Luccioni, responsabile del clima presso l'azienda di intelligenza artificiale Hugging Face, non dà troppo peso alla cifra di Altman. "Avrebbe potuto tirarla fuori dal nulla", afferma. (OpenAI non ha risposto alla richiesta di ulteriori informazioni su come sia arrivata a questa cifra.)

Mentre l'intelligenza artificiale prende il sopravvento sulle nostre vite, promette anche di trasformare i nostri sistemi energetici, incrementando le emissioni di carbonio proprio mentre stiamo cercando di combattere il cambiamento climatico. Ora, un nuovo e crescente corpus di ricerche sta cercando di quantificare concretamente quanta anidride carbonica stiamo effettivamente emettendo con tutto il nostro utilizzo dell'intelligenza artificiale.

Questo sforzo è complicato dal fatto che attori importanti come OpenAi divulgano poche informazioni ambientali. Un'analisi sottoposta a revisione paritaria questa settimana da Luccioni e altri tre autori esamina la necessità di una maggiore trasparenza ambientale nei modelli di intelligenza artificiale. Nella nuova analisi di Luccioni, lei e i suoi colleghi utilizzano i dati di OpenRouter , una classifica del traffico di modelli linguistici di grandi dimensioni (LLM), per scoprire che l'84% dell'utilizzo di LLM a maggio 2025 riguardava modelli con zero divulgazione ambientale. Ciò significa che i consumatori stanno scegliendo in modo schiacciante modelli con impatti ambientali completamente sconosciuti.

"Mi lascia senza parole il fatto che si possa comprare un'auto e sapere quanti chilometri consuma con un gallone di benzina, eppure usiamo tutti questi strumenti di intelligenza artificiale ogni giorno e non abbiamo assolutamente parametri di efficienza, fattori di emissione, niente", afferma Luccioni. "Non è obbligatorio, non è normativo. Considerata la situazione attuale con la crisi climatica, dovrebbe essere in cima all'agenda delle autorità di regolamentazione di tutto il mondo".

Come risultato di questa mancanza di trasparenza, afferma Luccioni, il pubblico è esposto a stime prive di senso, ma che vengono prese per oro colato. Potreste aver sentito dire, ad esempio, che una richiesta media su ChatGPT richiede 10 volte più energia di una ricerca media su Google. Luccioni e i suoi colleghi riconducono questa affermazione a un'affermazione pubblica rilasciata da John Hennessy, presidente di Alphabet, la società madre di Google, nel 2023.

Un'affermazione fatta da un membro del consiglio di amministrazione di un'azienda (Google) sul prodotto di un'altra azienda con cui non ha alcun rapporto (OpenAI) è quantomeno inconsistente; tuttavia, l'analisi di Luccioni rileva che questo dato è stato ripetuto più volte nella stampa e nei resoconti politici. (Mentre scrivevo questo articolo, ho ricevuto una proposta con questa stessa statistica.)

"La gente ha preso un'osservazione improvvisata e l'ha trasformata in una vera e propria statistica che sta influenzando la politica e il modo in cui le persone guardano a queste cose", afferma Luccioni. "Il vero problema fondamentale è che non abbiamo numeri. Quindi, anche i calcoli approssimativi che le persone riescono a trovare, tendono a considerarli il gold standard, ma non è così."

Un modo per cercare di dare un'occhiata dietro le quinte e ottenere informazioni più accurate è lavorare con modelli open source. Alcuni giganti della tecnologia, tra cui OpenAI e Anthropic, mantengono proprietari i loro modelli, il che significa che i ricercatori esterni non possono verificarne in modo indipendente il consumo energetico. Altre aziende, invece, rendono pubbliche alcune parti dei loro modelli, consentendo ai ricercatori di misurare con maggiore precisione le proprie emissioni.

Uno studio pubblicato giovedì sulla rivista Frontiers of Communication ha valutato 14 modelli linguistici open source di grandi dimensioni, tra cui due modelli Meta Llama e tre modelli DeepSeek, e ha scoperto che alcuni consumavano fino al 50% di energia in più rispetto ad altri modelli nel dataset, rispondendo ai prompt dei ricercatori. I 1.000 prompt di riferimento inviati agli LLM includevano domande su argomenti come storia e filosofia delle scuole superiori; metà delle domande era formattata come risposta multipla, con risposte composte da una sola parola, mentre l'altra metà era presentata come prompt aperti, consentendo un formato più libero e risposte più lunghe. I ricercatori hanno scoperto che i modelli di ragionamento generavano molti più token di pensiero – misure del ragionamento interno generate nel modello durante la produzione della risposta, che sono un segno distintivo di un maggiore consumo di energia – rispetto ai modelli più concisi. Questi modelli, forse prevedibilmente, si sono rivelati anche più accurati con argomenti complessi. (Avevano anche problemi di brevità: durante la fase di scelta multipla, ad esempio, i modelli più complessi spesso restituivano risposte con più token, nonostante le istruzioni esplicite di rispondere solo tra le opzioni fornite.)

Maximilian Dauner, dottorando presso l'Università di Scienze Applicate di Monaco e autore principale dello studio, afferma di sperare che l'uso dell'intelligenza artificiale si evolva per riflettere su come utilizzare in modo più efficiente modelli a basso consumo energetico per diverse query. Immagina un processo in cui domande più piccole e semplici vengano automaticamente indirizzate a modelli a basso consumo energetico che forniscano comunque risposte accurate. "Anche i modelli più piccoli possono ottenere risultati davvero buoni con compiti più semplici e non emettono così tante emissioni di CO2 durante il processo", afferma.

Alcune aziende tecnologiche lo fanno già. Google e Microsoft hanno precedentemente dichiarato a WIRED che le loro funzionalità di ricerca utilizzano modelli più piccoli quando possibile, il che può anche significare risposte più rapide per gli utenti. Ma in generale, i fornitori di modelli hanno fatto poco per spingere gli utenti a consumare meno energia. La velocità con cui un modello risponde a una domanda, ad esempio, ha un impatto significativo sul suo consumo energetico, ma questo non viene spiegato quando i prodotti di intelligenza artificiale vengono presentati agli utenti, afferma Noman Bashir, Computing & Climate Impact Fellow presso il Climate and Sustainability Consortium del MIT.

"L'obiettivo è fornire tutte queste inferenze nel modo più rapido possibile, in modo che non abbandoniate la piattaforma", afferma. "Se ChatGPT inizia improvvisamente a darvi una risposta dopo cinque minuti, passerete a un altro strumento che vi fornisce una risposta immediata."

Tuttavia, ci sono una miriade di altre considerazioni da tenere in considerazione quando si calcola il consumo energetico di query di intelligenza artificiale complesse, perché non si tratta solo di teoria: le condizioni in cui le query vengono effettivamente eseguite nel mondo reale sono importanti. Bashir sottolinea che l'hardware fisico fa la differenza nel calcolo delle emissioni. Dauner ha condotto i suoi esperimenti su una GPU Nvidia A100, ma la GPU H100 di Nvidia, progettata appositamente per i carichi di lavoro di intelligenza artificiale e che, secondo l'azienda , sta diventando sempre più popolare, consuma molto di più.

Anche l'infrastruttura fisica fa la differenza quando si parla di emissioni. I grandi data center necessitano di sistemi di raffreddamento, illuminazione e apparecchiature di rete, che contribuiscono a un maggiore consumo energetico; spesso funzionano a cicli diurni, con una pausa notturna quando le richieste sono minori. Sono inoltre collegati a diversi tipi di reti, alcune alimentate prevalentemente da combustibili fossili, altre da fonti rinnovabili, a seconda della loro ubicazione.

Bashir paragona gli studi che analizzano le emissioni derivanti da query di intelligenza artificiale senza considerare le esigenze del data center al sollevamento di un'auto, alla pressione dell'acceleratore e al conteggio dei giri di una ruota per eseguire un test di efficienza del carburante. "Non si considera il fatto che questa ruota deve sostenere l'auto e il passeggero", afferma.

Forse l'aspetto più cruciale per la nostra comprensione delle emissioni dell'IA è che modelli open source come quelli utilizzati da Dauner nel suo studio rappresentano solo una frazione dei modelli di IA utilizzati oggi dai consumatori. Addestrare un modello e aggiornare i modelli implementati richiede un'enorme quantità di energia, cifre che molte grandi aziende tengono segrete. Non è chiaro, ad esempio, se la statistica "lampadina" su ChatGPT di Altman di OpenAI tenga conto di tutta l'energia utilizzata per addestrare i modelli che alimentano il chatbot. Senza una maggiore trasparenza, il pubblico sta semplicemente perdendo molte delle informazioni necessarie per iniziare a comprendere l'impatto di questa tecnologia sul pianeta.

"Se avessi una bacchetta magica, renderei obbligatorio per qualsiasi azienda che metta in produzione un sistema di intelligenza artificiale, ovunque nel mondo e in qualsiasi applicazione, divulgare i numeri relativi al carbonio", afferma Luccioni.

Paresh Dave ha contribuito al reportage.

wired

wired

Notizie simili

Tutte le notizie
Animated ArrowAnimated ArrowAnimated Arrow