BİLİM VE TEKNOLOJİ
Yayınlanma : 18 Ocak 2026 12:03

Yapay zeka devriminde yeni dönem: DeepSeek ve Pekin Üniversitesi'nden RAM krizine dev çözüm!

Yapay zeka devriminde yeni dönem: DeepSeek ve Pekin Üniversitesi'nden RAM krizine dev çözüm!
DeepSeek ve Pekin Üniversitesi, yapay zeka eğitiminde belleği hesaplamadan ayıran Engram yöntemiyle RAM krizine çözüm sunuyor. Bu yenilik, donanım maliyetlerini düşürmeyi ve performansı artırmayı hedefliyor.

Yapay zeka alanındaki donanım darboğazları, DeepSeek ve Pekin Üniversitesi'nin geliştirdiği Engram adlı yenilikçi eğitim yöntemiyle aşılıyor.

Bellek Depolama ve Hesaplama Süreçleri Ayrılıyor

Bu çığır açan yöntem, yapay zeka sistemlerinin çalışmasındaki bellek depolama alanını hesaplama süreçlerinden ayırarak sistemlerin çok daha verimli hale gelmesini sağlıyor. Günümüzde büyük dil modellerinin bilgiye ulaşmak için yüksek maliyetli ve yüksek bant genişlikli bellek (HBM) ihtiyacı, DRAM fiyatlarının kısa sürede 5 kat artmasına neden olmuştu. Engram, bu durumu tersine çevirmeyi hedefliyor.

Yapay Zeka Donanım Maliyetlerinde Düşüş Beklentisi

Geliştirilen sistem, yapay zeka modellerinin GPU belleğini gereksiz yere meşgul etmeden ihtiyaç duyduğu bilgilere “arayıp bulma” (lookup) yeteneği kazandırıyor. Bu sayede sistemin kapasitesi, basit işlemler yerine daha karmaşık akıl yürütme görevlerine odaklanabiliyor. 27 milyar parametreli bir model üzerinde yapılan testler, Engram yönteminin endüstri standartlarında önemli performans artışları sağladığını doğruladı. Bu teknik, Phison gibi uygun maliyetli SSD çözümleri ve yeni CXL standartlarıyla entegre olarak toplam bellek kapasitesini artırabiliyor. Araştırmalar, parametre bütçesinin %20 ila %25’lik kısmını Engram modülüne ayırmanın, geleneksel modellere kıyasla daha yüksek performans elde etmeyi mümkün kıldığını gösteriyor. Bu gelişme, özellikle HBM belleklere erişimin zor ve pahalı olduğu bölgelerde donanım üzerindeki baskıyı hafifleterek DRAM fiyatlarındaki ani dalgalanmaların önüne geçilmesine yardımcı olabilir.