Teknoloji

Yapay Zeka Derin Sahte Röntgenleri Uzmanlar Bile Ayıramıyor

Gelişen yapay zeka teknolojileri, sağlık alanında yeni fırsatlar kadar endişe verici riskleri de beraberinde getiriyor. Son yapılan bir araştırma, gerçek röntgen filmleri ile yapay zeka tarafından üretilen derin sahte (deepfake) görüntülerin ayırt edilmesinin hem uzman radyologlar hem de gelişmiş dil modelleri için büyük zorluk yarattığını ortaya koydu. Bu durum, tıbbi görüntüleme süreçlerinin güvenilirliğini tehdit ederken, sağlık sektöründe dolandırıcılık ve siber saldırılar açısından da önemli bir risk oluşturuyor.

New York Mount Sinai Tıp Fakültesi’nden Dr. Mickael Tordjman liderliğindeki ekip tarafından hazırlanan çalışma, “Radiology” dergisinde yayımlandı. Çalışmanın odaklandığı konu, gerçek tıbbi görüntüler ile yapay zeka tarafından oluşturulan yanıltıcı röntgen filmlerinin ayırt edilmesinde yaşanan zorluklar. Derin sahte görüntüler, orijinalmiş gibi görünen ancak yapay zeka algoritmalarıyla tamamen üretilmiş veya değiştirilmiş fotoğraf ve videoları ifade ediyor. Bu yapay ürünler, sağlık profesyonellerinin teşhislerini kafa karıştırabilir ve kritik kararların yanlış yönlendirilmesine neden olabilir.

Araştırma kapsamında altı farklı ülkeden 17 radyologdan oluşan bir grup, toplam 264 röntgen görüntüsünü değerlendirdi. Görüntülerin yarısı gerçek, diğer yarısı ise yapay zeka destekli yöntemlerle üretilmiş görüntülerdi. Değerlendirmelerin iki aşamada yapılması, uzmanların yapay görüntülerin varlığından haberdar olduklarında tespit oranlarının artmasını sağladı. Buna rağmen, gerçek ve sahte röntgenler arasındaki ayrımı yapmakta yaşanan zorluklar dikkat çekti.

Radyologların yapay zeka tarafından oluşturulan görüntüleri fark etme oranı, önceden bilgi sahibi olmadıklarında ancak %41 seviyesindeydi. Bu oran, sahte görüntülerin varlığının bildirildiği durumlarda %75’e yükseldi. Ancak bireyler arasında büyük farklılıklar gözlendi. Bazı uzmanlar yapay görüntülerin %92’sini doğru tahmin edebilirken, bazıları daha düşük bir performans sergiledi. Ayrıca, aynı görüntüleri değerlendiren gelişmiş yapay zeka sistemlerinin doğruluk oranları da %57 ile %89 arasında değişti. Hatta bu derin sahte görüntülerin bir kısmını üreten sistem bile algılama konusunda yetersiz kaldı.

Araştırma, radyologların deneyim süresi ile yapay röntgenleri ayırt edebilme becerileri arasında anlamlı bir ilişki olmadığını ortaya koydu. Bununla birlikte, kas-iskelet radyolojisi alanındaki uzmanlar, diğer dallara göre sahte görüntüleri daha başarılı bir şekilde tespit etti. Bu da görüntüleme alanındaki özel uzmanlığın bu tür yapay zeka destekli sahtekarlıklara karşı önemli olduğunu gösterdi.

Derin sahte röntgenlerin bazı ortak görsel işaretleri bulunuyor. Uzmanlar, yapay görüntülerde kemiklerin aşırı düzgün ve simetrik, omurganın yapayca düz, akciğerlerin sıra dışı simetrik ve damar desenlerinin doğallıktan uzak olduğunu belirtiyor. Ayrıca, yapay olarak oluşturulan kırıkların gerçek kırıklara kıyasla çok temiz, yapay ve kısıtlı alanlarda yoğunlaşmış göründüğü fark edildi. Bu ipuçları, yapay görüntülerin ayırt edilmesine yardımcı olabilir ancak tamamen güvenilir bir yöntem henüz geliştirilemedi.

Derin sahte görüntülerin kötü niyetli kullanımı, sağlık sistemlerinde hem hasta güvenliğini hem de hukuki süreçleri doğrudan etkileyebilecek ciddi tehditler yaratıyor. Sahte röntgenler, örneğin yanlış teşhislere yol açabilir, tıbbi bakımın aksamasına neden olabilir veya mahkeme süreçlerinde hileli delil olarak kullanılabilir. Araştırmacılar, bu riskleri azaltmak için dijital tıbbi görüntülere görünmez filigranlar eklenmesi ve görüntülerin çekildiği an bilgilerini doğrulayan kriptografik imzaların uygulanması gibi güvenlik önlemleri geliştirilmesini öneriyor.

Gelecekte, yapay zekanın tıbbi görüntülemede 3D taramalar ve manyetik rezonans görüntüleri gibi daha karmaşık yapıları üretme kapasitesinin artması bekleniyor. Bu durum, sahte görüntülerin tespiti ve doğrulanması için eğitim amaçlı veri setleri ve yeni ayırt etme teknolojilerinin geliştirilmesini kritik hale getiriyor. Dr. Tordjman, bu alandaki gelişmelerin henüz başlangıç aşamasında olduğunu ve önlem alınamazsa sağlık sektöründe büyük karmaşalara yol açabileceğini vurguluyor.

Araştırma ekibi, sahte görüntülerin anlaşılması ve tanınması konusunda farkındalığı artırmak için interaktif testler içeren seçilmiş bir derin sahte görüntü veri seti de yayınladı. Bu çalışmalar, hem sağlık profesyonellerini eğitmek hem de gelecekte çıkabilecek tehditlere karşı önceden hazırlıklı olmalarını sağlamak için önemli bir adım olarak değerlendiriliyor.


📎 Kaynak: sciencedaily.com

Elif

131 makale yayınladı.

Subscribe
Bildir
guest

0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments