Yapay Zeka Modellerinin Güçlü Dünyası: CNN, Transformer, Diffusion ve RNN
Halil İbrahim Sandıraz
Yazar
19 Mart 2026
Yayınlanma

Yapay zeka, günümüzde adını sıkça duyduğumuz ama bazen sihir gibi gelen bir teknoloji. Aslında arka planda yatan şey sihir değil, insan beyninin çalışma şeklinden ilham alan deha ürünü matematiksel sistemlerdir. Bu sistemlere genel olarak "Yapay Sinir Ağları" diyoruz. Tıpkı bizim dünyayı görerek, okuyarak ve dinleyerek öğrenmemiz gibi, bilgisayarlar da farklı veri türlerini anlamak için farklı "beyin mimarilerine" ihtiyaç duyarlar. Bu yazıda, teknoloji dünyasını kasıp kavuran dört temel yapay zeka modelini (CNN, Transformer, Diffusion ve RNN) hiçbir teknik altyapınız olmasa bile rahatça anlayabileceğiniz şekilde, günlük hayattan örneklerle inceleyeceğiz.
1. CNN (Evrişimli Sinir Ağları): Gören Gözümüz
CNN (Convolutional Neural Network), yapay zekanın görme duyusudur. Özellikle fotoğrafları, videoları ve tıbbi görüntüleri anlamak için tasarlanmıştır. Bir bilgisayar için fotoğraf sadece yan yana dizilmiş renkli sayılardan ibarettir. CNN, bu sayıların içinde gizli olan şekilleri, kenarları ve dokuları tıpkı bir dedektif gibi adım adım inceler. Önce küçük detayları yakalar, sonra bu detayları birleştirerek büyük resmi anlar.
Günlük Hayattan Örnek: Büyüteçli Dedektif
Elinize bir büyüteç aldığınızı ve devasa bir tabloyu santim santim incelediğinizi düşünün. Önce sadece fırça darbelerini (kenarlar ve çizgiler) görürsünüz. Sonra bu darbelerin birleşip bir göz veya kulak oluşturduğunu fark edersiniz. En sonunda ise tabloya uzaktan bakıp "Bu bir kedi!" dersiniz. CNN tam olarak böyle çalışır. Kendi kendine giden araçların yoldaki yayaları tanıması veya telefonunuzun yüzünüzü okuyarak kilidini açması bu teknoloji sayesindedir.

2. Transformer: Okuyan ve Anlayan Beynimiz
Transformer modelleri, metinleri anlamak ve üretmek konusunda tam bir devrim yaratmıştır. Bugün hepimizin bildiği ChatGPT gibi sistemlerin kalbinde yatan teknoloji budur (GPT'nin sonundaki "T" harfi Transformer'dan gelir). Eski sistemler bir cümleyi kelime kelime, sırayla okurdu. Transformer ise "Dikkat Mekanizması" (Self-Attention) adı verilen bir yöntemle tüm cümleye aynı anda bakar ve hangi kelimenin hangisiyle ilişkili olduğunu anında çözer.
Günlük Hayattan Örnek: Kitap Okuyan Zihin
Uzun bir roman okuduğunuzu varsayın. Birinci sayfada bahsedilen bir karakterin, ellinci sayfada tekrar karşınıza çıktığında kim olduğunu hemen hatırlarsınız, değil mi? Transformer da bir metindeki kelimeler arasındaki uzak ilişkileri tıpkı böyle hafızasında tutar ve bağlamı koparmaz. Bu sayede kusursuz dilden dile çeviriler yapabilir, uzun makaleleri özetleyebilir veya size sıfırdan şiirler yazabilir.
3. Diffusion (Difüzyon): Hayal Kuran Ressamımız
Son yıllarda internette gördüğünüz o inanılmaz derecede gerçekçi, yapay zeka tarafından üretilmiş fotoğrafların ve sanat eserlerinin (Midjourney, DALL-E gibi) arkasındaki sır Diffusion modelleridir. Bu modelin çalışma mantığı oldukça ilginçtir: Önce eldeki bir görüntüyü tamamen bozana kadar üzerine "gürültü" (karıncalanma) ekler. Sonra bu işlemi tersine çevirmeyi, yani o karmaşanın içinden pürüzsüz bir görüntü çıkarmayı öğrenir.
Günlük Hayattan Örnek: Çamurlu Heykeli Temizlemek
Bunu, tamamen çamurla kaplanmış ve ne olduğu belli olmayan bir heykeli temizlemeye benzetebiliriz. Model, elindeki fırçayla çamurları yavaş yavaş ve çok dikkatli bir şekilde temizler. Siz ona "Bana uzayda kahve içen bir kedi çiz" dediğinizde, o anlamsız bir karıncalanma ekranından başlayıp adım adım o pikselleri temizleyerek hayalinizdeki resmi ortaya çıkarır.

4. RNN (Tekrarlayan Sinir Ağları): Hatırlayan Hafızamız
RNN (Recurrent Neural Network), olayların sırasının ve zamanlamasının önemli olduğu durumlar için geliştirilmiştir. Bir önceki adımda ne olduğunu hatırlayarak bir sonraki adımı tahmin etmeye çalışır. Ses tanıma sistemleri, borsa tahminleri, hava durumu analizleri veya klavyenizdeki otomatik kelime tamamlama özellikleri gibi zaman içinde akan verilerde çok başarılıdır.
Günlük Hayattan Örnek: Şarkı Söylemek
Bir şarkının sözlerini düşünün. Sadece "Güzeller" kelimesini duyduğunuzda, aklınıza hemen sonrasında gelecek kelimeler tam olarak gelmeyebilir. Ama "Güzeller içinden bir seni..." duyduğunuzda beyniniz hemen "seçtim" kelimesini tamamlar. Çünkü kelimelerin sırası ve geçmişi, geleceği tahmin etmenizi sağlar. RNN de tam olarak bu mantıkla çalışır; geçmiş bilgiyi cebinde tutarak geleceği tahmin eder.