Ciència

Cada dia ChatGPT consumeix almenys 100 milions de litres d'aigua dolça

Una cerca a ChatGPT necessita deu vegades més energia que la mateixa cerca a Google

GinebraFa només uns quants dies, Amazon va anunciar els plans de construir un centre de dades gegantesc a l’estat d’Indiana, als Estats Units. Aquest centre de càlcul estarà dedicat a l’entrenament de sistemes d’intel·ligència artificial amb l’objectiu de simular el cervell humà. La factura de la llum els sortirà cara, ja que aquest complex consumirà uns 2,2 gigawatts d’electricitat; prou energia per alimentar tota una ciutat.

El fet és que, en la darrera dècada, la gestió i l’anàlisi de dades s’han convertit en un dels principals devoradors d’energia i d'altres recursos del planeta. El gran volum d’informació que es processa i la seva complexitat s’han vist intensificats per la irrupció de la intel·ligència artificial i, en gran manera, per culpa dels grans models de llenguatge que hi ha al darrere de sistemes com ChatGPT o Llama.

"L'impacte global és desmesurat. El problema és que nosaltres només coneixem una desena de models, però potser n'hi ha milers que s’estan entrenant amb les mateixes dades", afirma Ulises Cortés, director de recerca en intel·ligència artificial al Barcelona Supercomputing Center (BSC).

El creixement exponencial de les tecnologies basades en IA i el seu conseqüent increment en la despesa energètica són els principals reptes als quals s’enfronten no tan sols les empreses que produeixen aquests models sinó també els respectius governs que han de gestionar la demanda. Companyies com Facebook, Google o Amazon busquen estratègies per reduir aquest impacte, algunes de les quals impliquen la instal·lació de grans extensions de plaques fotovoltaiques o la construcció de petits reactors nuclears propers als centres de dades. Cap d’aquestes sembla, però, una solució sostenible en un planeta fortament afectat per l’augment de les temperatures i una crisi energètica sempre incipient.

Cargando
No hay anuncios

Però, quant gasta la IA?

El cervell humà, amb tota la seva complexitat i potència de càlcul, consumeix al voltant d’uns 0,3 quilowatts hora, aproximadament un 20% de l’energia total que necessita el nostre cos per realitzar les funcions bàsiques. Aquesta xifra contrasta amb el que gasten les eines de computació artificials més potents que existeixen i que han irromput a les nostres vides de forma ubiqua.

No obstant això, mesurar l’energia que consumeix un model d’IA no és com calcular la benzina que consumeix un cotxe o l’electricitat que gasta el frigorífic. No existeix una metodologia establerta ni una base de dades que contingui la informació necessària. Tampoc existeixen encara entitats reguladores que estableixin uns estàndards a seguir. D’aquesta manera, i malgrat la gran despesa econòmica per adaptar la infraestructura i cobrir així les necessitats energètiques de la IA, ningú ha aconseguit quantificar-la en detall. D’altra banda, la manca de transparència de les empreses desenvolupadores tampoc ajuda a extreure’n una xifra clara.

Cargando
No hay anuncios

Alguns càlculs realitzats des de l’Institut de Tecnologia de Massachussets, el conegut MIT, estimen que l’entrenament de GPT-4, de l’empresa OpenAI, va costar més de 100 milions de dòlars i va consumir al voltant de 50 gigawatts hora d’electricitat, prou per abastir tota la població de Barcelona durant un dia i mig. No obstant això, aquest càlcul és aproximat, ja que els models com GPT-4 o ChatGPT són de "codi tancat", és a dir, ningú més enllà dels desenvolupadors tenen accés als detalls del model ni al seu procés de creació i entrenament. Així doncs, sense més informació provinent de les companyies, filar prim és impossible. La manera més fiable de fer estimacions és a partir de models de "codi obert", com el xinès DeepSeek, i extrapolar-ne els resultats.

El problema de les dades

Un dels factors que sembla tenir un major impacte en el consum és el processament inicial de les dades. La majoria dels models com ChatGPT s’entrenen amb un volum molt gran d’informació que apareix a internet. Molta d’aquesta informació és redundant o inservible, però el filtratge és complex i requereix una supervisió humana intensa, fet que fa que sigui un procés econòmicament costós i del qual les empreses acostumen a prescindir.

Cargando
No hay anuncios

"Es pensa que fins a un 30% de la despesa energètica es gasta en un mal disseny del sistema d’entrenament", apunta Cortés. L’únic model que fins ara sembla haver curat les dades abans de realitzar l’entrenament és DeepSeek, el gran model d’IA desenvolupat per la Xina.

Mirant al futur i tenint en compte l’evolució de la IA, segons algunes projeccions publicades pel Laboratori Nacional Lawrence Berkeley, l’any 2028 més de la meitat de l’electricitat consumida pels centres de càlcul anirà a parar a la intel·ligència artificial. Arribats a aquest punt, aquestes eines consumiran tant com el 22% de les llars americanes.

I no tan sols electricitat, sinó que també consumeix molta aigua. Un estudi de la Universitat de Cornell quantificava cada interacció amb ChatGPT, d'entre 10 i 40 prompts, en mig litre d'aigua i alertava que, tot i que podria semblar poca cosa a escala individual, aquesta IA pot atendre entre 100 i 200 milions de peticions al dia, de visites, la qual cosa suposa 100 milions de litres d’aigua dolça diaris, un recurs escàs a què una quarta part de la població del món no té accés.

Cargando
No hay anuncios

El cost de la generació de text, imatges i vídeos

La generació de text és, possiblement, una de les aplicacions més freqüents dels grans models de llenguatge. En cada "conversa", els usuaris acostumen a encadenar diverses preguntes i respostes. Segons les estimacions fetes pel MIT Technology Review, el model Llama 3.1, de l’empresa Meta, matriu de Facebook, amb 600.000 milions de paràmetres, necessita al voltant de 6700 joules per a cada resposta, l’energia necessària per fer funcionar un microones durant vuit segons. No obstant això, models com ChatGPT contenen tres vegades més paràmetres i triplicarien el consum del model de Meta.

El consum energètic de la IA
Equivalent de consum en un microones segons el tipus de contingut generat

Contràriament al que es pugui pensar, generar imatges és molt més econòmic. Gràcies al fet que l’arquitectura dels models per crear imatges difereix notablement dels que serveixen per crear text, aquests consumeixen al voltant de 4400 joules d’energia per una imatge de qualitat estàndard, l’equivalent a connectar el microones durant cinc segons i mig.

Cargando
No hay anuncios

Finalment, pel que fa a la generació de vídeo, el consum es dispara. La generació d’un vídeo de només cinc segons amb 16 fotogrames per segon requereix uns 3,4 milions de joules, l’equivalent a fer funcionar el microones durant més d’una hora.

Algunes estimacions xifren el nombre global d’interaccions diàries realitzades amb ChatGPT al voltant dels mil milions, xifra que, segons ChatGPT (trobi's la ironia), coincideix amb el nombre de microones que hi ha al món.

La IA al rescat de la IA

Tot i que alguns dels models d’IA, com són els grans models de llenguatge que hi ha al darrere de ChatGPT, per exemple, consumeixen grans quantitats de recursos, altres models estan enfocats, precisament, a fer que molts processos siguin més eficients i gastin molta menys energia. Aquest és el cas, per exemple, de la gestió de la temperatura d’un edifici o la predicció del consum energètic d’una regió determinada. "Quan la gestió energètica es fa més complexa, el fet d'utilitzar aquestes eines ens pot ajudar a trobar una solució òptima", comenta Joaquim Melendez Frigola, professor de la Universitat de Girona i expert en enginyeria de sistemes. "Aquests models d’IA ens poden ajudar en problemes complexos de gestió augmentant la rapidesa i en la complexitat de definir l'entorn", afegeix. I és que es basen en models molt més simples que els grans models de llenguatge i són, en conseqüència, molt més econòmics.

La set de la IA

La IA no només té gana d'electricitat, també té set i beu una gran quantitat d’aigua. Gran part d’aquesta aigua es fa servir per refrigerar tota l’electrònica dels centres de càlcul. Sam Altman, el fundador d’OpenAI, l’empresa responsable de ChatGPT, declara que cada pregunta que fem a ChatGPT consumeix només una quinzena part d’una cullerada d’aigua. Aquesta xifra contrasta, però, amb la que obtenen alguns estudis publicats a revistes com Nature, que estimen que el consum es troba més aviat al voltant de trenta vegades la quantitat que afirma Altman; també hi ha estimacions que van més enllà i la xifren en centenars de litres.

Cargando
No hay anuncios

Per compensar el gran consum energètic dels centres de càlcul, algunes grans empreses tecnològiques estan apostant pel desenvolupament de centrals energètiques properes a les seves instal·lacions. Entre les alternatives es troba la instal·lació de grans extensions de plaques fotovoltaiques o, fins i tot, el desenvolupament de noves centrals nuclears. Fa només uns dies, Google va signar un acord amb Commonwealth Fusion Systems, una empresa que desenvolupa tecnologia de fusió nuclear. Fundada l’any 2018 com una spin-off del MIT, aquesta empresa té entre els seus inversos el mateix Bill Gates, fundador de l’empresa Microsoft.

"Bill Gates ho va veure venir i ja fa anys que inverteix en el desenvolupament de microcentrals nuclears", assenyala Cortés. En aquesta línia, Gates va fundar TerraPower, una empresa que desenvolupa una nova generació de reactors de fusió compactes. Precisament, a principis d’aquest any, aquesta empresa va signar un acord amb Sabey Data Centers, un dels principals constructors de centres de dades dels Estats Units.

Cap a un model sostenible i responsable

La intel·ligència artificial avança a un ritme desmesurat i el seu desenvolupament i adopció està, en gran part, lliure de regulacions. Les grans empreses tecnològiques semblen gaudir d’una llibertat absoluta a l’hora de poder fer-ne un ús tan intensiu de recursos fonamentals per a la societat com són l’electricitat i l’aigua.

Cargando
No hay anuncios

"És sorprenent que els governs s’hagin deixat entabanar amb una tecnologia que és potencialment tan perniciosa, no només pel medi, sinó també per l’educació i el pensament crític", comenta Cortés, que proposa incloure impostos mediambientals de forma similar a com es fa amb els vehicles de combustió. "Per què tothom disposa d’aquest tipus d’eines i es cobra un impost ecològic pel seu ús? Caldria que l’usuari fos conscient de l’impacte que té l’ús d’aquesta tecnologia", planteja.

El director de recerca en IA del BSC es mostra crític, però optimista amb el futur del sector, "el canvi climàtic s’està accelerant precisament per un ús despreocupat de la tecnologia. Esperem poder ser capaços d’educar les noves generacions perquè entenguin que el seu futur depèn de fer-ne un ús responsable", conclou.