- cross-posted to:
- aitech@feddit.it
- cross-posted to:
- aitech@feddit.it
cross-posted from: https://feddit.it/post/9527193
È un problema di cui purtroppo non si parla molto. Google, per esempio, potrebbe non riuscire a raggiungere la neutralità climatica entro il 2030 proprio per via di questi strumenti.
Gli strumenti di intelligenza artificiale generativa sono ormai parte della nostra vita quotidiana online, ma il prezzo in termini di stress sulle reti elettriche e impatto idrico è sempre più salato
In questo momento è impossibile non imbattersi nell’intelligenza artificiale online. Negli Stati Uniti, un riassunto generato dall’AI può apparire casualmente in cima ai risultati di una ricerca su Google. Ma può anche capitare che Meta vi inviti a provare la sua AI mentre siete su Facebook, per non parlare di quell’onnipresente emoji delle stelline che continua a perseguitarci.
Questa corsa ad aggiungere l’intelligenza artificiale al maggior numero possibile di interazioni online può essere fatta risalire al lancio di ChatGPT da parte di OpenAI alla fine del 2022. Per la Silicon Valley l’intelligenza artificiale generativa è presto diventata un’ossessione e, quasi due anni dopo, gli strumenti di AI alimentati da modelli linguistici di grandi dimensioni permeano l’esperienza di qualsiasi utente online.
L’epoca dell’iperconsumo
Uno sfortunato effetto collaterale di questa proliferazione è rappresentato dal fatto che i processi informatici necessari per sostenere i sistemi di AI generativa richiedono molte più risorse. Su internet siamo entrati nell’era dell’iperconsumo, un periodo definito dalla diffusione di un nuovo tipo di sistemi informatici che richiedono quantità eccessive di elettricità e acqua per essere costruiti e poter funzionare.
“Gli algoritmi che sostengono qualsiasi modello di intelligenza artificiale generativa sono fondamentalmente molto, molto diversi da quelli tradizionali che si usano per la ricerca su Google o per le email – afferma Sajjad Moazeni, ricercatore dell’Università di Washington –. I servizi di base erano molto leggeri dal punto di vista della quantità di dati che dovevano fare avanti e indietro tra i processori”. Per fare un raffronto, Moazeni stima che dal punto di vista computazionale le applicazioni di AI generativa siano da 100 a 1000 volte più esigenti.
L’enorme fabbisogno energetico per l’addestramento e l’implementazione della tecnologia è ormai di dominio pubblico, da quando l’anno scorso un esperto dopo l’altro ha previsto un aumento della domanda di energia da parte dei data center in cui le aziende lavorano alle applicazioni di AI. Nemmeno a farlo apposta, Google ha recentemente smesso di considerarsi neutrale dal punto di vista delle emissioni di anidride carbonica e Microsoft potrebbe accantonare i suoi obiettivi di sostenibilità a favore della corsa alla costruzione di tool più grandi e performanti.
“L’impronta di CO2 e il consumo di energia andranno di pari passo con la potenza di calcolo, perché fondamentalmente questi data center vengono alimentati in modo proporzionale alla quantità di calcoli effettuati”, afferma Junchen Jiang, ricercatore dell’Università di Chicago. In sostanza, più un modello di intelligenza artificiale è grande, più avrà bisogno di potenza di calcolo. E i nuovi modelli di frontiera stanno diventando giganteschi.
Anche se il consumo totale di energia di Google è raddoppiato dal 2019 al 2023, Corina Standiford, portavoce dell’azienda, ha dichiarato che non sarebbe corretto affermare che le esigenze energetiche di Big G hanno avuto un’impennata durante la corsa all’AI: “È estremamente impegnativo ridurre le emissioni dei nostri fornitori, che costituiscono il 75% della nostra impronta di CO2”, ha dichiarato in un’email a Wired US. Tra i fornitori a cui fa riferimento l’azienda ci sono i produttori di server, apparecchiature di rete e altre infrastrutture tecniche per i data center: un processo ad alta intensità energetica necessario per creare le parti fisiche necessarie allo sviluppo dei nuovi modelli di AI.
Nonostante il trend sia in aumento, il fabbisogno energetico dei data center rappresenta ancora una piccola percentuale della quantità di energia utilizzata complessivamente dagli esseri umani. Fengqi You, ricercatore dell’università Cornell, sottolinea per esempio che raffinerie di petrolio, edifici e trasporti continuano ad avere un impatto maggiore: “Questi settori consumano molta più energia rispetto ai centri dati per l’AI”, afferma. Ciò detto, l’impronta energetica del settore potrebbe continuare a crescere nel prossimo futuro, man mano che gli strumenti di genAI verranno integrati in più angoli di internet e adottati da un numero maggiore di utenti online.