Consumatore

Intelligenza artificiale: quanto consuma ChatGPT?

Alla domanda quale è la rivoluzione tecnologica più importante della nostra epoca non si può che non rispondere l’intelligenza artificiale. L’innovazione avanza, i campi di applicazione si moltiplicano e ogni giorno cresce anche il numero di utenti che fanno uso di strumenti, quali ChatGPT, per migliorare la propria vita quotidiana e professionale. 

Ma vi siete mai chiesti qual è il costo energetico di una ricerca su ChatGPT? 

La risposta è 2,9 wattora. Se il dato nulla comunica a chi non è esperto, è sufficiente considerare che una ricerca su ChatGPT assorbe 10 volte l’energia necessaria per una ricerca su Google. È facile comprenderne le ragioni: maggiore è la complessità della richiesta, maggiore sarà anche l’energia necessaria per generare la risposta. Modelli come ChatGPT funzionano in modo che ad ogni parola se ne generino altre successive e, pertanto, si creano delle complesse catene di valutazione dei dati, ciascuna delle quali richiede lo svolgimento di miliardi di operazioni matematiche.

Detto ciò, si comprende come l’ascesa dell’intelligenza artificiale abbia determinato un aumento dell’impatto ecologico, già di per sé ingente, dei data center che la utilizzano: negli ultimi 10 anni la domanda di elettricità è cresciuta del 14% e si prevede che nel 2026 i consumi elettrici dei Data Center saranno il doppio di quelli del 2022. Questi sono i dati forniti dall’ultimo report dell’International Energy Agency, che a dicembre ospiterà la Global Conference on Energy and AI, un’iniziativa che promuove il dialogo sul tema del nesso tra l’evoluzione dell’intelligenza artificiale e il suo impatto ecologico, oltre che delle prospettive di applicazione della stessa nel campo dell’energia.
A questo punto, sorge spontaneo domandarsi il motivo per il quale i data center richiedano così tanta energia. Il fulcro della questione è legato al fatto chei server assorbono molta energia, emettono calore e si surriscaldano, a causa dell’uso intensivo. Circa la metà dell’energia richiesta è necessaria per il raffreddamento dei locali e degli stessi processori. In aggiunta, ogni anno vengono impiegati circa 4.300 miliardi di litri di acqua per questo scopo. Non è un caso se molte sono le startup estere, ma anche italiane, alla ricerca di soluzioni per il raffreddamento dei processori, che mirano al risparmio di acqua ed energia. D’altra parte, non si può tacere che, proprio per fronteggiare l’ingente richiesta di energia, sembra essersi rinnovato l’interesse che, oggi, le grandi aziende Big Teach rivolgono verso l’energia nucleare.

Per quanto non si debba sottovalutare che gli ingenti costi ambientali, ora illustrati, rappresentino una grande minaccia, tuttavia la speranza è che, nel prossimo futuro, l’intelligenza artificiale sarà impiegate nella giusta direzione al fine di renderla alleata cruciale nella lotta contro il cambiamento climatico. Cosa ne pensi? L’intelligenza artificiale rappresenterà un’importante opportunità per un futuro più sostenibile o, piuttosto, una grave minaccia?

Articolo realizzato nell’ambito dell’iniziativa LE.S.S
MLPS –Iniziative e progetti di rilevanza nazionale ai sensi dell’art. 72 del D Lgs 3 luglio 2017, n. 117 – ANNO 2023 – Avviso N. 2/2023

Exit mobile version