Svaki upit koji korisnici diljem svijeta upute ChatGPT-u košta. Ne u obliku eura i centi, već u obliku potrošene vode i struje.
Šef OpenAI-a Sam Altman u objavi na blogu pokušao je pojasniti koliko ChatGPT zapravo troši resursa i na taj način otkloniti zabrinutost jednog dijela korisnika da je taj alat zapravo "gutač energije".
Kako se proizvodnja u podatkovnim centrima automatizira, trošak inteligencije trebao bi se na kraju približiti cijeni električne energije, napisao je Altman. Ljudi su često znatiželjni koliko energije potroši ChatGPT upit; prosječni upit potroši oko 0,34 vat-sata, što je otprilike onoliko koliko bi pećnica potrošila za nešto više od jedne sekunde ili visokoučinkovita žarulja za nekoliko minuta. Također potroši oko 0,000085 galona vode; otprilike jedna petnaestina čajne žličice.
Iako ovo njegovo objašnjenje zvuči kao izuzetno malo, treba uzeti u obzir da ChatGPT dnevno obrađuje više milijardi upita dnevno. I on nije jedini koji se bori s velikom navalom korisnika.
Osim toga, to ne znači da ChatGPT pije vodu ili mu treba električna energija za žarulju kako bi vidio što radi.
Sustavi umjetne inteligencije, kakav je ChatGPT, "postoje" u velikim podatkovnim centrima, koji troše veliku količinu električne energije za rad i veliku količinu vode za hlađenje tih uređaja. Koliko zapravo potroši energije ovisi prije svega o energetskoj učinkovitosti samog podatkovnog centra u kojem se podaci obrađuju, ali i o regiji u kojoj se taj centar nalazi i klimi koja trenutno vlada.
Tako primjerice, tijekom zime nije potrebno toliko energije za hlađenje podatkovnog centra, jer je jednostavno zrak hladniji. No, u toplijim klimam potrebno je dodatno rashlađivati podatkovne centre kako bi serveri koji se nalaze u njima mogli optimalno raditi.
No, s obzriom na to da sve više tvrtki razvija "superinteligenciju", a na tržištu se pojavljuje i sve više alata pogonjenih umjetnom inteligencijom, jasno je da će utjecaj koji ta tehnologija ima na okoliš biti sve više u fokusu.