ChatGpt consuma una bottiglia d'acqua a conversazione
Studio calcola liquidi per raffreddare data center e training
I popolari software di Intelligenza artificiale come ChatGpt di OpenAi e Bard di Google consumano molta energia e richiedono grandi data center, il raffreddamento di queste strutture comporta un enorme dispendio di acqua. Uno studio dell'Università del Colorado Riverside e dell'Università del Texas di Arlington, ha calcolato ad esempio che l'addestramento di ChatGpt-3 ha consumato 700.000 litri di acqua dolce per il raffreddamento del data center. Un quantitativo sufficiente a realizzare 370 auto Bmw o 320 Tesla. Mentre lo scambio di conversazioni di un utente medio con ChatGpt equivale al consumo di una bottiglia di acqua. Data la popolarità senza precedenti di questi chatbot, i ricercatori temono che tutto questo consumo d'acqua possa avere un impatto preoccupante sulle forniture idriche, in rapporto alla crescente siccità e ai problemi ambientali.
I ricercatori si aspettano, inoltre, che questi consumi idrici aumenteranno ulteriormente con i modelli più recenti, come Gpt-4, che si basano su un insieme e una elaborazione più ampia di dati rispetto ai software predecessori. I problemi relativi al consumo di acqua non si limitano ai modelli di OpenAI. Gli studiosi hanno fatto dei calcoli anche sui consumi d'acqua di Google. I suoi data center negli Stati Uniti hanno bevuto complessivamente 12,7 miliardi di litri di acqua dolce nel 2021, di cui circa il 90% potabile. "L'impronta idrica dei modelli di intelligenza artificiale non può più rimanere sotto i radar - spiegano gli autori dello studio - deve essere affrontata come una priorità e come parte degli sforzi collettivi per combattere le sfide idriche globali".
[Banner_Google_ADS]