Yapay zekâ alanında uzun süredir kabul edilen temel kural şuydu: Bir yapay zekâ ne kadar çok veri görürse, o kadar başarılı olur. Ancak USC Viterbi Mühendislik Okulu’ndan yapılan yeni bir çalışma, bu algıyı kökten değiştiriyor. Araştırmacılar, yapay zekânın eğitildiği verinin sınırlamalarının ötesine geçebileceğini ve neredeyse hiç veri bulunmayan alanlarda bile büyük başarılara imza atabileceğini gösterdi.
USC’de lisans öğrencisi Minda Li ve danışmanı Prof. Bhaskar Krishnamachari tarafından geliştirilen yöntem, yapay zekâ modeline sadece veriyi değil, aynı zamanda sürekli geri bildirimle hatalarını analiz etme ve düzeltme yeteneği kazandırıyor. Bu yaklaşım, dünyanın yaygın olarak kullanılmayan son derece nadir bir programlama dili olan Idris üzerinde test edildi.
İdris, Python gibi yaygın dillerin aksine internette çok az kaynağa sahip bir dil. Python’da milyonlarca kod deposu bulunurken, Idris’in verisi yaklaşık 2 bin dosyayla son derece sınırlı. Bu durum, yapay zekânın bu dilde kod yazma performansını ölçmek için ideal bir test ortamı sundu. Araştırmacılar bile bu dili kullanmayı bilmiyordu, yani yapay zekâyı tamamen kendi başına öğrenmeye teşvik ettiler.
Deneylerde GPT-5 modeli, Idris dilinde karşılaştığı 56 problemin ancak yaklaşık %39’unu çözebiliyordu. Standart eğitimi ve veri yetersizliği nedeniyle performans düşük kaldı. Ancak Li, yapay zekanın başarısını artırmak için bir kontröl mekanizması geliştirdi. Programa gönderilen kodun derleyici tarafından verilen hata mesajları, modelin tekrar denemesine rehberlik etti. Böylece yapay zekâ, hatalarını görüp düzelterek aynı problemi birkaç kez denedi ve başarı oranı %96’ya kadar çıktı.
Buradaki anahtar yenilik, yapay zekanın yalnızca daha fazla veri istemesi değil, aldığı geri bildirimle “öğrenmeye” başlamasıydı. Derleyicinin hata mesajları, yapay zekâya somut ve teknik bilgiler sunarak nerede yanlış yaptığını net şekilde gösterdi. Böylece model, her denemede hatalarını azaltarak ilerleyebildi.
Bu gelişme, yapay zekâ alanında bir dönüm noktası olarak görülüyor. Artık AI modelleri, sadece büyük veri kümelerine bağımlı kalmayıp, doğru geri bildirim koşulları sağlandığında kendi sınırlarını zorlayabiliyor. Bu durum, hem yazılım geliştirme dünyasında hem de çok daha karmaşık görevlerde yapay zekâ uygulamalarını genişletebilir.
Örneğin, Krishnamachari’ye göre bu yöntem, bina modellerini tasarlayan yapay zekâlarda da kullanılabilir. Yapay zekânın ürettiği modeller hakkında teknik geri bildirimler verildiğinde, modelin çıktısı daha güvenli ve maliyet etkin hale gelebilir. Ayrıca matematiksel ispatlar veya hukuki metinler gibi kurallı ve doğrulanabilir alanlarda da bu yaklaşım büyük potansiyel taşıyor.
Araştırma, az veri bulunan dillerin korunması ve geliştirilmesinde de çığır açabilir. Nadir ya da tehlikedeki dillerin dijitalleştirilmesinde yapay zekâ, minimal veriyle bile destek sağlayarak bu dillerin yaşatılmasına katkıda bulunabilir.
Gelecekte Minda Li, bu sistemin “deneme-yanılma” mantığını daha akıllı hale getirmeyi hedefliyor. Yani model, her problemi bağımsız olarak çözmek yerine önceki deneyimlerinden öğrenerek daha hızlı ilerleyebilecek. Bu sayede yapay zekanın öğrenme süreci çok daha verimli hale gelecek.
Prof. Krishnamachari ise yapay zekanın güçlendiğini ve giderek insan kapasitesinin ötesine geçtiğini vurguluyor. Onun görüşüne göre bu teknoloji, insanları sıradan ve tekrarlayan işlerden kurtarıp, daha yaratıcı ve stratejik alanlara yönlendirecek. USC’de başlayan bu basit deney, yapay zekânın gelecekte nasıl daha esnek, öğrenmeye açık ve etkili araçlara dönüşeceğinin habercisi olabilir.
📎 Kaynak: techxplore.com



