Bugün elimizdeki sistemlerin adı GAI — Generative AI. Yani üretken yapay zekâ. Bu tanım bile, ondan ne beklememiz gerektiğini fısıldıyor: Üretmesini. Düşünmesini değil.
GAI modellerinin temelinde, büyük dil modelleri (LLM) var. Yani internetteki devasa metin yığınlarından örüntü çıkaran, sonra da bu örüntülere dayanarak cevaplar üreten sistemler. Derin öğrenme, transformer yapıları, milyarlarca parametre… Ama bütün bu teknik ihtişamın arkasında aslında basit bir hedef yatıyor: Tahmin etmek.
Bir sonraki kelime ne gelir?
Bu cümle nasıl devam eder?
Bu örüntüye göre bir metin nasıl görünür?
İşte bu. Düşünme yok. Sorgulama yok. Sadece örüntü.
----
Apple, WWDC’den hemen önce yayınladığı The Illusion of Thinking adlı makaleyle, bu gerçeği yüzümüze çarptı. GPT, Claude, Gemini gibi modellerin “düşünmediğini” gösteren bir test ortamı kurdular.
Üç seviye zorluk içeren mantık bulmacaları:
• Kolay: Modeller coşuyor.
• Orta: Yavaşlama başlıyor.
• Zor: Hepsi çöküyor.
Ama mesele sadece zor sorular değil. Daha da çarpıcısı şu:
Apple bu modellere çözüm algoritmalarını da verdi.
Yani “şöyle çöz” dediler.
Yine çözemedi.
Tower of Hanoi’de 100 hamle yapan model, nehir geçişinde 3 hamlede tökezledi.
Çünkü biri eğitim setinde vardı, diğeri yoktu.
-----
Bu deneyin gösterdiği şey basit ama sarsıcı:
Bugünkü GAI sistemleri hâlâ ezberin içinde yaşıyor.
Ezberden çok iyi üretim yapıyorlar — ama sınırın ötesine geçemiyorlar.
Ve bu yüzden, her ne kadar onları “zeki” gibi görsek de, aslında bizim beklentimiz değişmiş durumda.
Onlardan düşünmelerini istemedik. Üretmelerini istedik.
Bu yüzden bugünkü başarıları, kendi sınırları içinde meşru.
Ama o sınırın ötesi hâlâ karanlık.
-----
İnsan gibi düşünen, sorgulayan, soyutlayan, örüntünün dışına çıkan bir sistem…
Yani AGI — Genel Yapay Zekâ — hâlâ bir araştırma hayali.
Henüz ufukta görünmüyor.
Ama bu hayal, bugünkü modellerin eksiklerini gösterdiği için daha da kıymetli.
Çünkü Apple’ın bu çalışması, sadece bugünkü yapay zekânın ne olmadığını değil, olmak için neye ihtiyaç duyduğunu da ima ediyor.
-----
İyi bir taklit, bir süreliğine gerçeğin yerini alabilir.
Ama sınır durumlarda, gerçek ile simülasyon ayrışır.
Bugün elimizde olan şey üretken.
Ama düşünmüyor.
Ve düşünmeyen bir sistem, yanılıyor gibi bile yapamaz.
Sadece örüntü bozulunca susar.
Belki de bu yüzden, asıl zeka hâlâ bizde.
Ve belki de, henüz vakit varken, düşünmeyi makinelerden önce kendimize öğretmeliyiz.
Çok Okunanlar

'ABD’de Erol Olçok’un nasıl öldürüleceği konuşuldu'

Gazeteler, İmamoğlu'nun savunmasını nasıl gördü?

Turgut Altınok'a 6 ayrı soruşturma!

BİM 17 Haziran 2025 Aktüel kataloğu yayımlandı!

Yüzde 20 hizmet bedeli normal mi? Zengin Arap turistler bile gelmez oldu

Laiklik vazgeçilmezdir

Dilan Polat, Adalet Bakanlığı'na seslendi

Asıl derdi İran'da rejim değişikliği!

Ankara’ya da bomba düşecek

Müge Anlı’da canlı yayında gözaltı: Emrah Elveren'in kayboluşunda yeni gelişme