AI divoratore di elettricità: come ChatGPT inquina il nostro clima!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

OpenAI riporta il consumo energetico delle query AI e le sfide future dovute alla crescente domanda di elettricità.

OpenAI berichtet über den Energieverbrauch von KI-Anfragen und zukünftige Herausforderungen durch steigenden Strombedarf.
OpenAI riporta il consumo energetico delle query AI e le sfide future dovute alla crescente domanda di elettricità.

AI divoratore di elettricità: come ChatGPT inquina il nostro clima!

L’uso dell’intelligenza artificiale (AI) pone sfide ecologiche sempre più grandi. Secondo OpenAI, una richiesta a ChatGPT, una delle piattaforme di intelligenza artificiale più conosciute, consuma tanta elettricità quanto un secondo di funzionamento di un forno. Il capo di OpenAI Sam Altman vede questo sia come un problema che come un’opportunità per il futuro della tecnologia. Esprime ottimismo sul ruolo dell’intelligenza artificiale in un futuro più prospero, nonostante le preoccupazioni per la possibile perdita di posti di lavoro.

Alcune cifre illustrano l’elevato consumo di risorse dei sistemi di intelligenza artificiale. Il consumo di acqua per una singola richiesta è solo di un quinto di cucchiaino. Tuttavia, questo consumo aumenta enormemente se si considera il gran numero di richieste giornaliere. Forte notizie quotidiane La formazione ChatGPT-3 richiede circa 5,4 milioni di litri d'acqua, di cui 700.000 litri vengono utilizzati per raffreddare i data center.

La crescente domanda di energia

Le società tecnologiche Microsoft, Google e Amazon hanno già piani strategici per soddisfare il loro crescente fabbisogno energetico. Tra le altre cose, fanno affidamento sull’energia nucleare per non aumentare le emissioni di anidride carbonica. Il fabbisogno energetico dei data center che supportano le applicazioni di intelligenza artificiale è un grosso problema. Una tendenza preoccupante mostra che il consumo di elettricità nei data center in Germania è aumentato del 70% dal 2010 al 2021. Questo è più lento dell’aumento della domanda di queste strutture poiché i server diventano più efficienti.

Un'altra considerazione è il consumo di acqua, essenziale per il raffreddamento dei server. Si prevede che entro il 2030 il consumo di acqua per il raffreddamento dei server raggiungerà i 664 miliardi di litri, quasi quattro volte di più rispetto al 2023. La chiave in questo caso è il funzionamento dei sistemi di raffreddamento ad aria e ad acqua, che richiedono quantità significative di acqua.

Politica ambientale e sostenibilità

L’aumento dell’uso dell’intelligenza artificiale sta portando a un preoccupante aumento delle emissioni di gas serra. Le previsioni mostrano che le emissioni aumenteranno da 212 milioni di tonnellate a 355 milioni di tonnellate entro il 2030. Per contrastare questo sviluppo negativo, le aziende e i decisori politici sono chiamati ad agire. L'Öko-Institut raccomanda, a nome di Greenpeace Germania, requisiti vincolanti di trasparenza e un'etichetta di efficienza per i data center.

Un approccio orientato al futuro potrebbe essere l’integrazione dei data center nelle reti di energia rinnovabile e di riscaldamento. L’obiettivo è garantire che gli sviluppi dell’intelligenza artificiale non ostacolino la protezione del clima, ma piuttosto contribuiscano attivamente alla transizione energetica. Tuttavia, avverte, il dibattito sulla sostenibilità dell’intelligenza artificiale è solo all’inizio Ingenieur.de.
È necessario creare un quadro politico e sociale consapevole per sfruttare in modo ottimale le opportunità offerte dall’intelligenza artificiale per la protezione del clima e per ridurre al minimo i rischi.

Date le sfide poste dal crescente consumo di energia e acqua dei data center AI, c’è urgente bisogno di ulteriori studi per misurare gli impatti ambientali in modo più preciso e per sviluppare misure per ridurli. La discussione sull’intelligenza artificiale e le sue conseguenze ambientali continuerà ad acquisire importanza.