Yapay Zeka Ne Kadar Enerji Kullanıyor? Bilenler Söylemiyor

OpenAI CEO'su Sam Altman geçen hafta uzun bir blog yazısında "İnsanlar genellikle bir ChatGPT sorgusunun ne kadar enerji kullandığını merak ediyor," diye yazdı. Altman, ortalama bir sorgunun 0,34 watt-saat enerji kullandığını yazdı: "Bir fırının bir saniyeden biraz fazla bir sürede veya yüksek verimli bir ampulün birkaç dakikada kullanacağı enerjiye yakın."
Haftalık 800 milyon aktif kullanıcısı olan (ve büyüyen ) bir şirket için, tüm bu aramaların ne kadar enerji kullandığı sorusu giderek daha acil bir hale geliyor. Ancak uzmanlar, Altman'ın rakamının, OpenAI'dan bu hesaplamaya nasıl ulaştığına dair daha fazla kamu bağlamı olmadan pek bir şey ifade etmediğini söylüyor; buna "ortalama" sorgunun ne olduğu tanımı, görüntü oluşturmayı içerip içermediği ve Altman'ın AI modellerini eğitmek ve OpenAI sunucularını soğutmak gibi ek enerji kullanımını dahil edip etmediği dahildir.
Sonuç olarak, AI şirketi Hugging Face'in iklim lideri Sasha Luccioni, Altman'ın sayısına fazla güvenmiyor. "Bunu kıçından uydurmuş olabilir," diyor. (OpenAI, bu sayıya nasıl ulaştığına dair daha fazla bilgi talebine yanıt vermedi.)
Yapay zeka hayatlarımızı ele geçirirken, aynı zamanda enerji sistemlerimizi dönüştürmeyi, iklim değişikliğiyle mücadele etmeye çalıştığımız sırada karbon emisyonlarını artırmayı da vaat ediyor. Şimdi, yeni ve büyüyen bir araştırma grubu, tüm yapay zeka kullanımımızla aslında ne kadar karbon yaydığımıza dair kesin rakamlar koymaya çalışıyor.
Bu çaba, OpenAi gibi büyük oyuncuların çok az çevresel bilgi ifşa etmesi gerçeğiyle karmaşıklaşıyor. Luccioni ve diğer üç yazar tarafından bu hafta akran incelemesi için sunulan bir analiz, AI modellerinde daha fazla çevresel şeffaflığa olan ihtiyacı ele alıyor. Luccioni'nin yeni analizinde, kendisi ve meslektaşları, büyük dil modeli (LLM) trafiğinin bir liderlik tablosu olan OpenRouter'dan gelen verileri kullanarak, Mayıs 2025'te LLM kullanımının %84'ünün sıfır çevresel ifşaya sahip modeller için olduğunu buldu. Bu, tüketicilerin ezici bir çoğunlukla tamamen bilinmeyen çevresel etkilere sahip modelleri seçtiği anlamına geliyor.
"Bir araba satın alıp galon başına kaç mil tükettiğini bilmeniz aklımı başımdan alıyor, ancak her gün tüm bu yapay zeka araçlarını kullanıyoruz ve kesinlikle hiçbir verimlilik ölçütümüz, emisyon faktörümüz, hiçbir şeyimiz yok," diyor Luccioni. "Bu zorunlu değil, düzenleyici değil. İklim kriziyle ilgili bulunduğumuz nokta göz önüne alındığında, her yerdeki düzenleyicilerin gündeminin başında olmalı."
Luccioni, bu şeffaflık eksikliğinin bir sonucu olarak, kamuoyunun hiçbir anlam ifade etmeyen ancak kutsal kitap gibi kabul edilen tahminlere maruz kaldığını söylüyor. Örneğin, ortalama bir ChatGPT isteğinin ortalama bir Google aramasından 10 kat daha fazla enerji harcadığını duymuş olabilirsiniz. Luccioni ve meslektaşları, bu iddiayı Google'ın ana şirketi olan Alphabet'in başkanı John Hennessy'nin 2023'te yaptığı bir kamu açıklamasına dayandırıyor.
Bir şirketin (Google) yönetim kurulu üyesinin, hiçbir ilişkisi olmayan başka bir şirketin (OpenAI) ürünü hakkında yaptığı iddia en iyi ihtimalle zayıftır; ancak Luccioni'nin analizi, bu rakamın basında ve politika raporlarında tekrar tekrar tekrarlandığını ortaya koyuyor. (Bu yazıyı yazarken, tam olarak bu istatistiği içeren bir teklif aldım.)
Luccioni, "İnsanlar doğaçlama bir yorumu alıp bunu politikayı ve insanların bu şeylere bakış açısını bilgilendiren gerçek bir istatistiğe dönüştürdüler," diyor. "Asıl temel sorun, elimizde sayı olmaması. Yani insanlar peçetenin arkasına yazdıkları hesaplamaları bile altın standart olarak kabul etme eğilimindeler, ancak durum böyle değil."
Perdenin arkasına daha doğru bilgiler için bir göz atmanın bir yolu, açık kaynaklı modellerle çalışmaktır. OpenAI ve Anthropic dahil olmak üzere bazı teknoloji devleri, modellerini tescilli tutar; bu da dış araştırmacıların enerji kullanımlarını bağımsız olarak doğrulayamayacağı anlamına gelir. Ancak diğer şirketler, modellerinin bazı bölümlerini kamuya açık hale getirerek araştırmacıların emisyonlarını daha doğru bir şekilde ölçmelerine olanak tanır.
Perşembe günü Frontiers of Communication dergisinde yayınlanan bir çalışma , iki Meta Llama modeli ve üç DeepSeek modeli de dahil olmak üzere 14 açık kaynaklı büyük dil modelini değerlendirdi ve bazılarının araştırmacıların istemlerine yanıt verirken veri setindeki diğer modellerden yüzde 50'ye kadar daha fazla enerji kullandığını buldu. LLM'lere sunulan 1.000 kıyaslama istemi, lise tarihi ve felsefesi gibi konulardaki soruları içeriyordu; soruların yarısı yalnızca bir kelimelik yanıtların mevcut olduğu çoktan seçmeli olarak biçimlendirilirken, yarısı daha özgür bir formata ve daha uzun yanıtlara izin veren açık istemler olarak gönderildi. Araştırmacılar, muhakeme modellerinin, daha özlü modellere kıyasla çok daha fazla düşünme belirteci (modelin cevabını üretirken ürettiği içsel muhakemenin ölçüleri, daha fazla enerji kullanımının bir işareti) ürettiğini buldu. Bu modeller, belki de şaşırtıcı olmayan bir şekilde, karmaşık konularda da daha doğruydu. (Ayrıca, kısalık konusunda da sorun yaşıyorlardı: Örneğin, çoktan seçmeli aşamada, daha karmaşık modeller, yalnızca verilen seçenek aralığından cevap verilmesi yönündeki açık talimatlara rağmen, genellikle birden fazla belirteç içeren cevaplar döndürüyordu.)
Münih Uygulamalı Bilimler Üniversitesi'nde doktora öğrencisi ve çalışmanın baş yazarı olan Maximilian Dauner, yapay zeka kullanımının farklı sorgular için daha az enerji yoğun modellerin nasıl daha verimli kullanılacağını düşünmek için evrimleşeceğini umduğunu söylüyor. Daha küçük, daha basit soruların otomatik olarak daha az enerji yoğun modellere yönlendirildiği ve yine de doğru cevaplar sağlayan bir süreç öngörüyor. "Daha küçük modeller bile daha basit görevlerde gerçekten iyi sonuçlar elde edebilir ve süreç boyunca bu kadar büyük miktarda CO2 yaymazlar" diyor.
Bazı teknoloji şirketleri bunu zaten yapıyor. Google ve Microsoft daha önce WIRED'a arama özelliklerinin mümkün olduğunda daha küçük modeller kullandığını ve bunun da kullanıcılar için daha hızlı yanıtlar anlamına gelebileceğini söylemişti. Ancak genel olarak, model sağlayıcıları kullanıcıları daha az enerji kullanmaya teşvik etmek için pek bir şey yapmadı. Örneğin, bir modelin bir soruyu ne kadar çabuk yanıtladığı enerji kullanımında büyük bir etkiye sahip; ancak bu, AI ürünleri kullanıcılara sunulduğunda açıklanmıyor, diyor MIT İklim ve Sürdürülebilirlik Konsorsiyumu'nda Hesaplama ve İklim Etkisi Üyesi Noman Bashir.
"Amaç, tüm bu çıkarımları mümkün olan en hızlı şekilde sağlamak, böylece platformlarından ayrılmamanız," diyor. "ChatGPT beş dakika sonra aniden size yanıt vermeye başlarsa, size anında yanıt veren başka bir araca gideceksiniz."
Ancak, karmaşık AI sorgularının enerji kullanımını hesaplarken hesaba katılması gereken bir sürü başka husus var, çünkü bu sadece teorik değil; sorguların gerçek dünyada gerçekten çalıştırıldığı koşullar da önemli. Bashir, emisyonları hesaplamada fiziksel donanımın fark yarattığını belirtiyor. Dauner deneylerini bir Nvidia A100 GPU'da yürüttü, ancak Nvidia'nın özellikle AI iş yükleri için tasarlanmış ve şirkete göre giderek daha popüler hale gelen H100 GPU'su çok daha fazla enerji tüketiyor.
Fiziksel altyapı da emisyonlardan bahsederken fark yaratır. Büyük veri merkezlerinin soğutma sistemlerine, ışığa ve ağ ekipmanlarına ihtiyacı vardır ve bunların hepsi daha fazla enerji ekler; genellikle günlük döngülerde çalışırlar ve sorgular daha düşük olduğunda geceleri ara verirler. Ayrıca konumlarına bağlı olarak farklı türde şebekelere bağlanırlar - fosil yakıtlarla çalışanlar ve yenilenebilir enerjiyle çalışanlar.
Bashir, veri merkezi ihtiyaçlarını hesaba katmadan AI sorgularından kaynaklanan emisyonlara bakan çalışmaları, bir yakıt verimliliği testi yapmanın bir yolu olarak bir arabayı kaldırma, gaza basma ve bir tekerleğin devir sayısını sayma ile karşılaştırıyor. "Bu tekerleğin arabayı ve yolcuyu taşıması gerektiği gerçeğini hesaba katmıyorsunuz," diyor.
Belki de AI'nın emisyonlarını anlamamız için en önemlisi, Dauner'in çalışmasında kullandığı gibi açık kaynaklı modeller, tüketicilerin bugün kullandığı AI modellerinin yalnızca bir kısmını temsil ediyor. Bir modeli eğitmek ve dağıtılan modelleri güncellemek muazzam miktarda enerji gerektirir; bu rakamlar birçok büyük şirketin gizli tuttuğu rakamlardır. Örneğin, OpenAI'den Altman'ın ChatGPT hakkındaki ampul istatistiğinin, chatbot'u çalıştıran modelleri eğitmek için kullanılan tüm enerjiyi hesaba katıp katmadığı belirsizdir. Daha fazla açıklama yapılmadan, kamuoyu bu teknolojinin gezegeni ne kadar etkilediğini anlamaya başlamak için gereken bilgilerin çoğundan mahrum kalıyor.
Luccioni, "Eğer sihirli bir değneğim olsaydı, dünyanın herhangi bir yerinde, herhangi bir uygulamada, üretime bir yapay zeka sistemi sokan herhangi bir şirketin karbon sayılarını açıklamasını zorunlu hale getirirdim" diyor.
Paresh Dave habere katkıda bulundu.
wired