🎤 30 Nisan - Ücretsiz Etkinlik →
← Blog'a dön
Claude Code 23 Nisan 2026

Claude Code'la konuşurken verdiğin kararlar neden uçup gidiyor

Claude Code'la verdiğim kararlar bir hafta içinde uçuyordu. İki basit hook ile bu sorunu nasıl çözdüğümü ve neden sürekli öğrenen bir AI iş birliğinin kilit taşı olduğunu anlatıyorum.

Claude Code'la konuşurken verdiğin kararlar neden uçup gidiyor

Bir gün fark ettim: aynı kararı üçüncü kez tartışıyordum.

Claude Code ile bir konu üzerine konuşmuştuk. Bir öneri gelmişti, “bu yola gitmeyelim” demiştik. Üç hafta sonra aynı öneri yeniden gündemdeydi. Claude hatırlamıyordu, ben tam olarak hatırlamıyordum. Halbuki karar alınmıştı. Ama hiçbir yere yazılmamıştı.

Bu deneyim bana Claude Code’un en gözden kaçan sorununu gösterdi: hafıza disiplinsizliği.

Sorunun adını koyalım

Claude Code’un bir memory sistemi var. MEMORY.md ve altındaki .md dosyaları her oturumda otomatik yükleniyor, Claude context’inde görüyor. Güçlü bir sistem.

Ama bir sorun var: bu sistem manuel çalışıyor.

Sen “bunu hatırla” dersen Claude yazıyor. Sen demezsen, Claude akıl ederse yazıyor. İki koşul da güvenilir değil. İnsan olarak biz unuturuz. Model, konuşmanın yoğunluğunda akıl etmeyebilir. Ve o an yazılmayan şey, ertesi gün yok gibi.

Birkaç haftalık kullanımdan sonra şu tablo ortaya çıkıyor:

  • Strateji kararları MD’lerde yok
  • Ortaklık/işe alım kararları MD’lerde yok
  • Ürün yönü değişiklikleri MD’lerde yok
  • Müşteri görüşmelerinden çıkan aksiyonlar MD’lerde yok

Kararın kendisi var. Konuşma transcript’inde duruyor. Ama işlenmemiş haliyle. Bir sonraki oturum başladığında Claude o transcript’i görmüyor. Yani karar pratik olarak silinmiş.

Niye önemli

Kısa vadede bu sadece sinir bozucu: aynı soruyu iki kere sormak zorunda kalırsın. Uzun vadede daha ağır sonuçları var.

Birinci sonuç: aynı tartışmayı tekrar açmak. Üç hafta önce reddettiğin bir öneri yeniden masada. Claude sıfırdan değerlendiriyor, çünkü önceki bağlamı yok. Sen de yorgunsun, tam hatırlamıyorsun, ya tekrar reddediyorsun (iki emek harcamış oluyorsun) ya da bu sefer kabul ediyorsun (karar tutarsız hale geliyor).

İkinci sonuç: birikimli bilginin oluşmaması. AI ile 3 ay çalışıyorsun. 3 ay sonra Claude senin iş yöntemin hakkında ne biliyor? Sana kalmış. Sen disiplinli yazdıysan çok şey. Yazmadıysan sıfır. Halbuki 3 ay boyunca yüzlerce karar, tercih, “şöyle yapalım” demiş olabilirsin. Bunların hiçbiri birikmedi.

Üçüncü sonuç: güven kaybı. “Bu yardımcı aslında çok yetenekli ama beni tanımıyor” hissi. Oysa iş birlikleri tanıma üzerine kurulur. Bir insan yardımcın seni 3 ay sonra bilmeliydi. AI neden bilmesin?

Sorunun asıl boyutu, bunu manuel çözmenin mümkün olmadığında anlaşılıyor. Her karar sonrası “şunu şuraya yaz” demek, disiplinin yüzde yüz olmasını gerektiriyor. İnsan disiplinini yüzde yüze çıkarırsan, zaten iyi bir insan yardımcın var demektir. Otomasyona ihtiyaç yok.

Otomasyona ihtiyaç var çünkü insanız.

Çözüm: iki hook, bir köprü

Claude Code’un hook sistemi var. Hook, belli bir olayda (oturum açılma/kapanma, dosya yazma, tool kullanımı) otomatik çalışan bir script. Model tetiklemez, sistem tetikler. Yani “akıl etmezse” ihtimali yok.

İki hook yazdım. Sistem şu şekilde çalışıyor:

Birinci hook: SessionEnd. Oturum kapandığında arka planda sessizce çalışıyor. Konuşmanın transcript’ini Haiku modeline veriyor ve tek bir soru soruyor: “Bu konuşmada konkret bir karar var mı?”

Haiku bakıyor. Brainstorm, soru, rutin iş varsa “NO” diyor. Gerçekten bir karar varsa (“şu projeye başlıyoruz”, “şu deadline’a kadar yaparız”, “bu yöntemden vazgeçtik” gibi) “YES” diyor ve kısa bir özet veriyor. Özet bir ara dosyaya yazılıyor, henüz MD’ye değil.

Maliyeti oturum başına yaklaşık 2 cent. Karar yoksa Haiku tek kelimeyle cevap veriyor, neredeyse sıfır maliyet. Karar varsa da çok ucuz.

İkinci hook: SessionStart. Yeni oturum açıldığında çalışıyor. Ara dosyayı kontrol ediyor. Eğer orada bekleyen karar varsa, içeriği Claude’un context’ine enjekte ediyor.

Claude oturumu senin ilk mesajınla başlatıyor ama o mesajı görmeden önce bir bilgiye sahip oluyor: “önceki oturumda şu kararlar alınmış, henüz MD’ye yazılmadı.” Ve bu bilgiyle birlikte bir talimat: “kullanıcıya sor, onayladıklarını MD’ye işle, işlemi tamamlayınca ara dosyayı sil.”

Sen oturumu açar açmaz şunu görüyorsun:

Geçen oturumda şu kararlar tespit edildi:

  1. X projesini Mayıs’a erteledik
  2. Haftalık toplantıyı ikiye indirdik

Bu kararları kaydedeyim mi? Hangi MD dosyalarını güncelleyeyim?

Sen “evet birincisini projects.md’ye işle, ikincisini workflow.md’ye ekle” diyorsun. Claude yapıyor, ara dosyayı siliyor. Sistem yeniden sıfır.

İki hook arasında bir köprü

Bu tasarım bana sonra çok şık geldi.

Birinci hook karar yakalıyor ama hiçbir şeyi bozmuyor. Yanlış bir karar tespit etse bile sadece bir ara dosyaya yazıyor, MD’lere dokunmuyor. Yani otomasyonun “karar sayma” hatası kalıcı bir zarar doğurmuyor.

İkinci hook seni aradan geçiriyor. Claude kendi kafasına göre MD’lere yazmıyor. Sana sorup onay alıyor. Yani son söz hep insanda.

Otomatik ama insan kontrolünde. İki aşırı uçtan da kaçınıyor:

  • Sadece insan hatırlar (kırılgan, disiplinsiz)
  • AI kendi kafasına yazar (kontrolsüz, hatalı karar yazabilir)

Ortası: AI öneriyor, insan onaylıyor. Bu bir iş birliği modeli aslında.

Sistem kuruldu, hayat ne değişti

Sistemi kurduğumdan beri henüz uzun zaman geçmedi. Yine de birkaç gözlemi paylaşayım.

Birincisi: Oturum kapanırken “aman unutmayım şunu yazayım” stresi kalktı. Sistem yapıyor, ben bırakıp çıkıyorum.

İkincisi: Yeni oturum açtığımda Claude’un önceki kararları hatırlaması garanti. Ben konuşmaya başlayacağım ama Claude jet lag yaşamıyor.

Üçüncüsü: Aldığım kararları dışarıdan görebiliyorum. Ara dosya bir nevi “bu hafta neye karar verdik” dökümü oluyor. Pazartesi bakınca “aa şuna karar vermişiz” diyorum.

Ve bir dördüncüsü, belki en değerlisi: daha rahat karar veriyorum. Çünkü biliyorum ki kararım bir yerde kayıt altına alınacak. Hatırlamak benim sorumluluğum değil artık, sistemin.

Büyük resim

İnsan + AI iş birliği bir süredir ilgilendiğim konu. Şu teze her geçen gün daha çok inanıyorum: iyi bir AI ortaklığı sürekli öğrenme döngüsü gerektirir.

Sürekli öğrenme ne demek? Her oturumun bir öncekinden daha iyi olması. AI’ın seni her gün biraz daha iyi tanıması. Aynı şeyleri açıklamamak. Aynı tercihi tekrar belirtmemek. Aynı kararı yeniden tartışmamak.

Bu kendiliğinden olmuyor. Sistem kurmak lazım. Hafızayı disipline etmek lazım. Unutmayı engellemek lazım.

İki hook’luk bu paket bu disiplinin küçük ama somut bir parçası. Tek başına yetmez. Daha büyük bir şey kurmanın başlangıcı gibi görüyorum.

Önümüzdeki haftalarda aynı pattern’i başka alanlara da uygulayacağım:

  • Bug fix yakalama: “şu bug’ı şöyle çözdük” kalıbını tespit eden hook
  • Haftalık digest: biriken kararları Pazar akşamı özetleyen otomasyon
  • Agent başına hafıza: topluluk agent’ımın kararları ayrı, CFO agent’ımın kararları ayrı

Her biri aynı mantık: insan zayıf hafızasına köprü kur, sistem taşısın.

Denemek istersen

Script’ler + kurulum talimatı tek bir MD dosyasına topladım. Kullanımı basit: dosyayı indir, kendi Claude Code oturumuna ver, “bu dosyadaki kurulumu projemde yap” de. Claude gerisini halleder: iki script yaratır, .claude/settings.json’ı günceller, doğrulama yapar. 5 dakikada kurulum biter.

Kurulum dosyasını indir

Aylık maliyet 5 dolar civarı (Haiku ucuz), kazancı ölçmesi zor ama hissetmesi kolay.

Aramıza katıl

Bu tür sistemleri tek başına kurmak yorucu. Türkiye’nin Claude Code ve AI agent topluluğunu İş Güç Yapay Zeka’da topluyoruz. Paylaştığımız şeyler:

  • Kendi agent’ını sıfırdan kurma, hook yazma, otomasyon senaryoları
  • Haftalık canlı yayınlar, Q&A, pratik örnekler
  • Üye deneyimleri, birbirinin sistemlerinden ders çıkarma
  • Topluluk iç kütüphanesi (scriptler, template’ler, hook paketleri)

Bu yazıdaki hook paketinin ilk versiyonu aramızda konuşularak şekillendi. Sonraki paketleri de birlikte geliştireceğiz.

Aramıza katıl

Eğer senin de iki hook’a değecek bir “unutan beyin” sorunun varsa, beraber geliştirelim.