Google, popüler makine öğrenimi kütüphanesi TensorFlow’un 2.21 sürümünü resmen yayınladı. Bu güncellemenin en dikkat çeken yeniliği, LiteRT adlı yeni çalışma zamanının artık önizleme aşamasından çıkarak tam anlamıyla üretime hazır hale gelmesi oldu. LiteRT, bundan böyle TensorFlow Lite’ın (TFLite) yerine geçerek mobil ve uç cihazlarda makine öğrenimi modellerinin çalıştırılması görevini üstleniyor.
LiteRT’nin görevi, modellerin akıllı telefonlar, IoT aygıtları ve benzeri kısıtlı kaynaklı donanımlarda çok daha hızlı ve verimli çalışmasını sağlamak. Bu, özellikle işlemci (CPU) ve grafik işlemci (GPU) gibi donanımların hızlandırılması ve enerji tüketiminin minimize edilmesi açısından büyük önem taşıyor. Google, bu yeni sistemle GPU performansını önceki TFLite’a göre yüzde 40 daha hızlı hale getirdi. Üstelik LiteRT, Neural Processing Unit (NPU) adlı özel yapay sinir ağı işlemcilerine de tamamen uyumlu hale geldi. NPU’lar, yapay zeka işlemlerini çok daha hızlı ve enerji tasarruflu şekilde yapabilen özel donanımlar olarak, GenAI (genel yapay zeka) gibi yoğun hesap gücü isteyen uygulamalar için büyük avantaj sağlıyor.
TensorFlow 2.21 sürümü ayrıca “quantization” yani model ağırlıklarının ve aktivasyonlarının düşük hassasiyetli bit sayısına indirgenmesi tekniğine önemli destekler getiriyor. Düşük hassasiyet, modelin cihazda daha az yer kaplaması ve daha hızlı çalışması anlamına geliyor, ancak bu süreçte doğruluk kaybı yaşanmaması için dikkatli optimizasyon gerekiyor. Yeni sürümde SQRT (karekök), karşılaştırma ve bazı dönüşüm işlemleri gibi birçok matematiksel operatör artık 8 bit ve 16 bit gibi düşük hassasiyetli formatlarda da kullanılabiliyor. Hatta INT4 (4 bit) ve INT2 (2 bit) gibi oldukça agresif quantization işlemleri de desteklenmeye başladı. Bu yenilikler sayesinde geliştiriciler, özellikle sınır cihazlarda (mobil, IoT) çok daha hafif ve hızlı çalışan modeller tasarlayabilecek.
TensorFlow 2.21, farklı makine öğrenimi çerçevelerinden gelen modelleri uç cihazlara taşımayı da kolaylaştırıyor. Daha önce mobil uyumluluğa dönüştürme sürecinde sıkıntılar yaşanabiliyordu. Yeni LiteRT ile PyTorch ve JAX gibi popüler diğer eğitim ortamlarından çıkan modeller artık doğrudan dönüştürülüp, yeniden TensorFlow’daki gibi baştan yazılmaya gerek kalmadan cihazlarda çalıştırılabiliyor. Bu, araştırmadan üretime geçişi hızlandırıyor ve geliştiricilere esneklik kazandırıyor.
Google’ın TensorFlow ekibi, TensorFlow Core geliştirmesine odaklanma stratejisini güncelledi. Artık öncelik, platformun güvenlik açıklarını kapatmak, kritik hataları hızla düzeltmek ve bağımlılık güncellemelerini sağlamaya dönük olacak. Ayrıca topluluk tarafından yapılan önemli hata düzeltmeleri daha aktif şekilde kabul edilecek. Bu yaklaşım, veri işleme ve model yönetim araçları gibi TensorFlow ekosistemindeki geniş yelpazedeki bileşenler için de geçerli olacak.
Özetle, TensorFlow 2.21 sürümüyle Google, özellikle mobil ve uç cihazlarda yapay zeka modellerinin daha hızlı, verimli ve esnek çalışmasını sağlamak için önemli bir adım attı. LiteRT’nin öne çıkmasıyla birlikte, geliştiriciler GPU ve NPU hızlandırmasından tam olarak faydalanırken, ileri düzey quantization teknikleri sayesinde modellerini hafifletebilecek. Üçüncü parti eğitim çerçeveleri ile kolay entegrasyon ise proje sürecini daha sorunsuz hale getirecek. Bu güncelleme, mobil yapay zeka uygulamalarındaki performans ve kullanım deneyimini köklü şekilde iyileştirme potansiyeli taşıyor. Yapay zeka alanında sınırları zorlayan uygulamalara kapı aralayan Google TensorFlow 2.21, geliştiricilerin gözünün kulağının açık olduğu bir yenilik olarak öne çıkıyor.