OpenAI Ceo’sundan “Yapay Zeka Çok Su Tüketiyor” İddialarına Yanıt!

OpenAI Ceo'sundan "Yapay Zeka Çok Su Tüketiyor" İddialarına Yanıt!

Yapay zekâ sistemlerinin çevresel etkisi son aylarda en çok tartışılan konulardan biri haline geldi. Özellikle “ChatGPT her sorguda litrelerce su harcıyor” gibi iddialar sosyal medyada hızla yayılırken, konunun muhataplarından biri olan Sam Altman bu eleştirilere doğrudan yanıt verdi. Altman, Hindistan’da düzenlenen Express Adda (20 Şubat 2026) etkinliğinde gazeteci Anant Goenka ile yaptığı söyleşide özellikle veri merkezlerinin su tüketimi ve yapay zekânın enerji kullanımı hakkında dikkat çekici açıklamalarda bulundu.

Kısa Özet: Altman Ne Dedi?

  • “Her sorgu 17 galon su tüketiyor” iddiasını kesin dille reddetti
  • Eski veri merkezlerinde su bazlı soğutmanın kullanıldığını kabul etti
  • Ancak toplam AI enerji tüketiminin gerçekten büyüyen bir konu olduğunu söyledi
  • iPhone pil kıyaslarının çok abartılı olduğunu belirtti
  • AI–insan enerji karşılaştırmalarının çoğunun hatalı yapıldığını savundu

Yani Altman, su iddialarının abartıldığını söylerken, enerji meselesinin gerçek bir tartışma alanı olduğunu özellikle vurguluyor.

Su Tüketimi Tartışması: “Tamamen Uydurma”

Söyleşide en çok dikkat çeken bölüm veri merkezlerinin su kullanımıyla ilgiliydi.

Altman’ın temel argümanı şu şekilde:

Geçmişte bazı veri merkezlerinde buharlaşmalı soğutma kullanılıyordu
Bu nedenle su tüketimi eleştirileri eskiden kısmen doğruydu
Ancak bugün internette dolaşan “her sorgu şu kadar su içiyor” iddiası gerçeklikle bağlantısız

“Modern veri merkezlerinde sorgu başına su tüketiminin çoğu senaryoda bir çay kaşığı seviyesinde veya altında olduğu tahmin ediliyor.”

Enerji Tüketimi: “Asıl Adil Eleştiri Bu”

Altman’ın en dengeli yaklaşımı enerji konusunda ortaya çıkıyor.

Röportajda açıkça şunu kabul ediyor; Dünya artık çok fazla AI kullanıyor ve toplam enerji tüketimi gerçek bir konu.

Burada özellikle şu ayrımı yapıyor:

Sorun sorgu başına enerji değil, sorun küresel ölçekte artan toplam kullanım.

Bu nedenle çözüm olarak nükleer enerji, rüzgâr ve güneş gibi enerji kaynaklarına hızlı geçiş gerektiğini vurguluyor.

“10 iPhone Pili” İddiasına Net Ret

Röportajda Bill Gates’e atfedilen bir iddia da gündeme geliyor: “Her ChatGPT sorgusu 10 iPhone pili kadar enerji tüketiyor.”

Altman’ın cevabı oldukça net:

Bunun o kadar yüksek olması imkânsız.
Çok daha az.
Çok çok çok daha az.

İnsan mı Daha Verimli, AI mı?

Altman’ın en ilginç savunmalarından biri insan ve AI karşılaştırması üzerineydi.

Ona göre yapılan en büyük hata, insanların tek bir cevabını AI modelinin tüm eğitim maliyetiyle kıyaslamak.

Altman şu noktaya dikkat çekiyor:

Bir insanın “akıllı” hale gelmesi yaklaşık 20 yıllık yaşam, yıllarca beslenme ve insanlığın uzun evrimini gerektiriyor.

Bu nedenle adil karşılaştırmanın şöyle yapılması gerekiyor; Model eğitildikten sonra bir soruya cevap vermek için AI ne kadar enerji harcıyor?

Altman’a göre bu şekilde ölçüldüğünde AI’ın enerji verimliliği insana yaklaşmış olabilir!

Hemen aşağıdaki oynatıcıdan bahsi geçen röportajın tamamını izleyebilirsiniz.

Sonuç Olarak Yapay Zekâ Kullanırken Korkmalı mıyız?

Bugünkü veriler ışığında konuşursak, bireysel kullanıcıların yapay zekâ kullanırken “su tüketiyorum” endişesine kapılması için güçlü bir neden görünmüyor. Sosyal medyada hızla yayılan ve her sorgunun belirli miktarda su tükettiğini iddia eden paylaşımlar, çoğu zaman bağlamından koparılmış veya aşırı genellenmiş hesaplamalara dayanıyor.

Burada kritik olan ayrım şu:

Mikro ölçekte; yani tek tek kullanıcı sorgularında yapay zekâ kullanımının su etkisi oldukça sınırlı. Günlük dijital aktivitelerle kıyaslandığında bireysel kullanımın çevresel yükü dramatik seviyelerde değil.

Makro ölçekte ise tablo daha karmaşık. Yapay zekâ sistemleri dünya genelinde hızla yaygınlaştıkça veri merkezlerinin toplam enerji ihtiyacı gerçekten büyüyor. Bu da konuyu bireysel korkudan çıkarıp altyapı, enerji politikası ve mühendislik verimliliği meselesine dönüştürüyor.

Fayda = Maliyet Dengesi

Yapay zekânın bugün sağladığı kazanımlar göz önüne alındığında tablo daha net görülüyor. Modern AI araçları öğrenme hızını artırıyor, küçük ekiplerin üretkenliğini katlıyor, bilgiye erişimi demokratikleştiriyor ve ekonomik verimlilik yaratıyor.

Bu faydalar, mevcut teknoloji seviyesinde bireysel kullanımın çevresel maliyetiyle karşılaştırıldığında çoğu senaryoda kabul edilebilir bir denge ortaya koyuyor.

Elbette bu durum “hiç etkisi yok” anlamına gelmiyor. Yapay zekâ büyüdükçe enerji altyapısının daha verimli ve daha temiz kaynaklara dayalı hale gelmesi kritik önem taşıyor. Nitekim sektörün odağı da giderek bu yöne kayıyor.

Bugün için en sağlıklı bakış açısı şu görünüyor: Yapay zekâyı öğrenmek, üretmek ve kendini geliştirmek için kullanmaktan çekinmeye gerek yok. Ancak AI altyapısının toplam enerji ve kaynak etkisi şeffaf biçimde izlenmeli.

Tartışmalar korku diliyle değil, ölçülebilir verilerle yapılmalı.

Yapay zekâ çağında asıl risk, teknolojiyi kullanmak değil; onu yanlış anlamak.

Bugünün verileri, bireysel AI kullanımının su krizine yol açtığına dair güçlü bir kanıt sunmuyor. Buna karşılık yapay zekânın eğitimden üretime kadar sağladığı kaldıraç etkisi çoktan hissedilmeye başladı. Bu yüzden mesele “AI kullanalım mı, kullanmayalım mı?” sorusu değil; AI büyürken altyapıyı ne kadar akıllı, verimli ve sürdürülebilir kuracağımız sorusudur.