Yapay zekada genellikle daha fazla parametre, daha yüksek zekâ demek olarak kabul edilir. Ancak Liquid AI, yeni geliştirdiği LFM2.5-350M modeliyle bu anlayışı kökten değiştirmeye hazırlanıyor. 350 milyon parametreye sahip bu kompakt yapay zeka modeli, devasa boyutlardaki rakiplerinden daha az kaynak kullanırken üstün performans sergiliyor. Üstelik modeli özel kılan yalnızca küçüklüğü değil, aynı zamanda daha önce görülmemiş eğitim ve mimari yeniliklerle donatılmış olması.
LFM2.5-350M, normalde parametre sayısının arttırılmasıyla elde edilen genel zekâ seviyesini artırmak yerine, parametre başına düşen eğitim verisi miktarını maksimuma çıkarmaya odaklanıyor. Model, tam 28 trilyon kelime üzerinde ön eğitimden geçti; bu da onu mevcut modeller arasında “öğrenme yoğunluğu” açısından en üst sıralara taşıyor. Liquid AI, bu sayede çok daha az parametreyle bol miktarda bilgi işleyebilen bir sistem geliştirdiğini gösteriyor.
Teknolojinin kalbinde her şeyi değiştiren hibrit bir mimari yer alıyor. LFM2.5-350M, klasik “Transformer” yapılarını terk ederek Linear Input-Varying Systems (LIVs) adı verilen yeni bir sistemle çalışıyor. Geleneksel Transformer’lar, uzun bağlamlardaki veri işleme sırasında yüksek bellek ve işlem gücü talep eden kendini dikkat mekanizmalarına dayanıyor. Liquid AI ise bu sorunu, seviyesi yükseltilmiş RNN benzeri ancak daha paralel ve kararlı çalışan LIV konvolüsyon blokları ile çözüyor. Modelde ayrıca sınırlı sayıda Grouped Query Attention (GQA) blokları da bulunuyor. Bu sayede, uzun ve karmaşık metinlerde dikkat gerektiren kısımlar başarılı ve verimli bir şekilde işlenebiliyor.
Sonuç olarak LFM2.5-350M, 32.768 kelimelik bir bağlam penceresini işleyebiliyor ve yüksek performansı düşük hafıza kullanımıyla sunuyor. Örneğin, model yalnızca 81 MB mobil GPU belleğiyle çalışabilirken, yüksek hızda çıktı üretebiliyor. NVIDIA H100 gibi gelişmiş GPU’larda saniyede 40.4 bin çıktı token’ı üretebiliyor. Bu, özellikle mobil ve düşük kapasiteli cihazlarda yapay zekanın daha rasyonel ve yaygın kullanılmasını sağlayacak önemli bir adım.
Modelin test sonuçları da oldukça dikkat çekici. Özellikle talimat takip etme ve karmaşık yapısal işlemlerdeki başarısı, onu veri çıkarımı, fonksiyon çağrıları ve programlanabilir yapay zeka araçları için ideal kılıyor. Ancak matematiksel problem çözme, karmaşık kodlama ya da yaratıcı yazım gibi alanlarda hala daha yüksek parametreli modellerin tercih edilmesi gerektiği belirtiliyor.
Bu gelişme sadece yapay zekanın performansında devrim yaratmakla kalmıyor, aynı zamanda teknolojinin “kenar” yani mobil ve gömülü sistemler alanına kaymasını hızlandırıyor. Bellek ve işlem gücünde kısıtlamalar olan cihazlarda yerel yapay zeka uygulamalarının önü açılıyor. Böylece daha güvenli, hızlı ve bağlantısız çalışan yapay zeka çözümleri mümkün hale geliyor.
Yakın gelecekte LFM2.5-350M gibi modeller, akıllı telefonlardan robotlara kadar pek çok alanda etkin rol oynayacak. Liquid AI’nin geliştirdiği hibrit mimari ve verimli eğitim stratejisi, yapay zeka teknolojilerinin daha erişilebilir ve kullanıcı dostu olmasının yolunu açıyor. Araştırma, büyük ve hantal modeller yerine “küçük ama yüksek kapasiteli” yapay zeka sistemlerinin öncelik kazanacağını net biçimde gösteriyor. Bu da daha düşük maliyetle, daha sürdürülebilir ve yaygın yapay zeka çözümlerinin gelişeceğinin müjdecisi olabilir.
📎 Kaynak: marktechpost.com



