Yapay Zekâ Terapisi Gerçekten Güvenilir mi? ChatGPT’nin Ruh Sağlığı Desteğinde Yaşanan Kritik Eksikler
Son dönemde ChatGPT ve benzeri büyük dil modellerine (LLM) ruh sağlığı danışmanlığı için başvuran kişi sayısı hızla artıyor. Ancak Brown Üniversitesi’nden bir araştırma, yapay zekâ sohbet botlarının bu alanda henüz tam anlamıyla görev yapmaya hazır olmadığını gözler önüne seriyor. Araştırma, yapay zekânın bilimsel psikoterapi yöntemlerini kullanması istense bile, Amerikan Psikoloji Derneği gibi profesyonel kuruluşların belirlediği etik standartları sürekli olarak ihlal ettiğini ortaya koydu.
Araştırma ekibi, yapay zekâ sohbet botlarının, kriz anlarında yetersiz kaldığını, kullanıcıları veya çevresindekileri olumsuz etkileyebilecek inançları pekiştirdiğini ve sanki empati kuruyormuş gibi görünen ancak gerçekte anlamayan ifadeler kullandığını belirledi. Bu sorunlar, ruh sağlığı alanındaki profesyonel etik kurallarıyla çelişiyor ve uzmanlar bu teknolojilerin dikkatle ve düzenlenerek kullanılması gerektiği uyarısını yapıyor.
Brown Üniversitesi Teknolojik Sorumluluk, Yeniden Tasarım ve Yeniden Düşünme Merkezi ile iş birliği içinde yürütülen çalışmada, araştırmacılar yapay zekâyı kullanan danışmanların karşılaşabileceği 15 etik risk tespit etti. Bu riskler, yapay zekânın ruh sağlığı danışmanlığı yaparken etik standartları nasıl ihlal ettiğini göstermek için somut davranışlarla bağlantılı olarak sınıflandırıldı. Araştırmacılar, alanda etik, eğitimsel ve yasal standartlar oluşturulması gerektiğini vurguladı.
Araştırmanın başında yer alan Brown Üniversitesi Bilgisayar Bilimleri doktora öğrencisi Zainab Iftikhar, yapay zekâ modellerinin etik davranışlar sergilemesini sağlamanın mümkün olup olmadığını keşfetmek istedi. İftikhar, yapay zekâyı eğitmeden veya yeni veri eklemeden, yalnızca “prompt” adlı yönlendirme talimatlarıyla sistemin verdiği cevapların nasıl şekillendiğini inceledi. Prompt, yani uyarıcı talimat, modelden istenilen çıktıyı yönlendiren kısa yazılı komutlar olarak tanımlanabilir.
Örneğin, kullanıcı şöyle bir prompt verebilir: “Bilişsel davranışçı terapi yöntemiyle düşüncelerimi yeniden şekillendirmeme yardımcı ol” ya da “Duygularımı yönetmem için diyaloğa dayalı davranış terapisi prensiplerini kullan.” Yapay zekâ modelleri bu psikoterapi tekniklerini gerçek anlamıyla uygulamasa da, öğrenmiş olduğu dil ve kavram kalıplarını kullanarak belirtilen terapi modellerine uyum sağlayan yanıtlar üretir.
Sosyal medya platformlarında, özellikle TikTok, Instagram ve Reddit gibi yerlerde, insanlar bu prompt yöntemlerini deneyimleyip paylaşıyor. Ayrıca birçok ticari ruh sağlığı chatbotu, genel amaçlı LLM’lere terapi odaklı prompt’lar uygulanarak geliştiriliyor. Bu nedenle, yapay zekâyı yalnızca yönlendirme komutlarıyla güvenli hale getirmenin mümkün olup olmadığını anlamak büyük önem taşıyor.
Çalışma kapsamında yedi deneyimli akran danışman, bilişsel davranışçı terapi (CBT) tecrübesi olan kişiler, yapay zekâ modelleriyle terapi seansları simüle etti. Test edilen modeller arasında OpenAI’ın GPT serisi, Anthropic’in Claude’u ve Meta’nın Llama modeli vardı. Araştırmacılar, gerçek danışmanlık sohbetlerinden esinlenerek seçilen yapay zekâ sohbet kayıtlarını alanında uzman üç psikologla değerlendirdi.
Analizler sonucunda 15 farklı etik risk gruplandı ve beş ana kategori altında toplandı: birincisi, kişi bazında özelleştirilmiş yaklaşımın olmaması ve genel tavsiyeler verilmesi; ikincisi, terapötik iş birliğinin zayıf olması, bazen yanlış veya zararlı inançların pekiştirilmesi; üçüncüsü, “Seni anlıyorum” gibi ifadelerle gerçek empati görünümünün verilmesi ancak bunun altında gerçek bir anlayış olmaması; dördüncüsü, cinsiyet, kültür veya din gibi alanlarda adaletsiz ayrımcılık yapılması; beşincisi de kriz yönetiminde yetersizlik, hassas konulardan kaçınılması ve intihar düşüncesi gibi acil durumlara uygun yanıt verilememesi.
İnsan terapistler de hata yapabilir; ancak Iftikhar’a göre temel fark sorumluluk mekanizmalarının olması. İnsan terapistlerin mesleklerini etik sınırlar içinde yürütmeleri beklenir ve ihlallerde mesleki yaptırımlar uygulanır. Yapay zekâ danışmanlarda ise böyle bir düzenleyici yapı henüz mevcut değil.
Araştırmacılar, yapay zekânın ruh sağlığı alanında tamamen devre dışı bırakılması gerektiğini değil, aksine yapay zekâ temelli araçların ruh sağlığı hizmetlerine erişimi artırmada avantajlar sunabileceğini belirtiyor. Örneğin, psikolog bulunmayan veya yüksek maliyetli bölgelerde faydalı olabilir. Ancak çalışmanın ana mesajı, bu alanda teknolojiyi kullanmadan önce güçlü etik koruma, sorumlu uygulama ve düzenleyici standartların oluşturulmasının kaçınılmaz olduğu yönünde.
Şu an için Iftikhar, yapay zekâ sohbet botlarıyla ruh sağlığı hakkında iletişim kuranların dikkatli olması gerektiğini vurguluyor. Kullanıcıların bu sistemlerin sınırlamalarını anlaması ve tehlikeli durumlarda mutlaka profesyonel yardım araması önemli.
Brown Üniversitesi’nden bilgisayar bilimleri profesörü Ellie Pavlick ise bu çalışmanın yapay zekâ sistemlerinin hassas alanlarda, özellikle ruh sağlığı gibi kritik konularda güvenilirliğinin sorgulanması adına önemli bir çağrı olduğunu belirtti. Pavlick, yapay zekâ sistemlerini geliştirmek kadar onları insan faktörünü göz önünde bulundurarak kapsamlı biçimde değerlendirmek gerektiğini söylüyor.
Bugünün haliyle yapay zekâyı oluşturmak ve piyasaya sürmek kolay görünse de, bu sistemlerin güvenliğini ve etik uyumluluğunu sağlamak uzun, dikkatli çalışmalar gerektiriyor. Pavlick’e göre bu çalışma, gelecekte ruh sağlığı alanında daha güvenli yapay zekâ çözümleri geliştirmek için izlenmesi gereken bir yol haritası sunuyor.
Özetle yapay zekâ destekli ruh sağlığı danışmanlığı, büyük bir potansiyel taşırken, beraberinde gelen etik riskler ve gözetim eksikliği nedeniyle henüz tam anlamıyla güvenilir değil. Bu heyecan verici teknolojinin insanların ruh sağlığı üzerinde olumlu etkiler yaratabilmesi için, şeffaf, sorumlu ve dikkatli bir yaklaşım şart. Yeni gelişmeler ve düzenleyici adımlar, gelecekte bu alandaki yapay zekâ uygulamalarının sınırlarını ve güvenliğini belirleyecek.
Kaynak: https://www.sciencedaily.com/releases/2026/03/260302030642.htm