19.04.2026 17:27
Yeni araştırmalar, sağlık sorularında kullanılan yapay zekâ destekli sohbet botlarının verdiği yanıtların yaklaşık yarısının sorunlu olabildiğini gösteriyor. Bu yanıtların bir kısmı yalnızca eksik ya da yanıltıcı olmakla kalmıyor; yanlış tedaviye yönlendirme veya gereksiz risk alma ihtimali nedeniyle doğrudan zarara da yol açabiliyor.
Uzmanlar, bu teknolojilerin hızla yaygınlaştığına dikkat çekerek hem kamuoyunun bilinçlendirilmesi hem de daha sıkı denetim mekanizmalarının devreye alınması gerektiğini vurguluyor.
Yapay zekâ artık birçok kişi için yalnızca iş ya da okul aracı değil; aynı zamanda belirtileri yorumlamak, takviye seçmek, aşılar hakkında bilgi almak ve beslenme tavsiyesi görmek için de başvurulan bir kaynak haline geldi. Ancak sağlık gibi hassas bir alanda verilen yanlış ya da eksik bir yanıt, sıradan bir bilgi hatasından çok daha ciddi sonuçlar doğurabiliyor.

Sorulan bir sorunun cevabı, bir doktor gibi birden fazla etken düşünülerek değil, o anda sorulan soru kısıtında, limitli ve bazı durumlarda yanlış bilgiler içerebiliyor. Bu da verilen cevaptaki uygulamalar yapıldığında, önemli olabilecek sağlık risklerine yol açıyor.
Soruların önemli bir kısmı sorunlu cevap
Yeni çalışmada araştırmacılar, kamuya açık 5 popüler sohbet botunu test etti. Botlara kanser, aşılar, kök hücreler, beslenme ve sportif performans gibi yanlış bilginin sık görüldüğü başlıklarda toplam 250 soru yöneltildi. Sonuç çarpıcıydı: Yanıtların yarısı sorunlu bulundu. Bunların bir bölümü “bir ölçüde sorunlu”, önemli bir kısmı ise “yüksek derecede sorunlu” olarak sınıflandırıldı.

Araştırmacılar “sorunlu yanıtı”, bir kişinin uzman görüşü almadan uygularsa etkisiz tedaviye yönelmesine ya da gereksiz zarar görmesine yol açabilecek cevap olarak tanımladı. Yani mesele yalnızca küçük bir hata değil; otoriter görünen ama sağlığı riske atabilecek öneriler. Özellikle açık uçlu sorularda botların daha kötü performans gösterdiği görüldü. Serbest biçimde öneri isteyen sorular, kapalı uçlu sorulara göre çok daha fazla tehlikeli cevap üretti.
En doğru cevapları aşılar ve kanser sorularında görüldü
Çalışmada, sohbet botlarının en iyi performansı aşılar ve kanser gibi konularda gösterdiği; en düşük doğruluk oranlarının ise kök hücreler, sportif performans ve beslenme alanlarında görüldüğü belirtildi. Bu farkın başlıca nedenlerinden biri, aşı ve kanser konularında bilimsel verinin daha güçlü, kapsamlı ve yerleşik olması olarak değerlendiriliyor.

Buna karşılık beslenme, takviyeler, performans artırıcı ürünler ve alternatif yöntemler; internette en fazla tartışılan ve yanlış bilgiyle en kolay kirlenen alanlar arasında yer alıyor.
Çalışmada dikkat çeken bir diğer sorun da kaynak kullanımı oldu. Sohbet botlarının yanıtlarında kaynak gösterme kalitesinin düşük olduğu; bazı kaynakların eksik verildiği, bazılarının ise gerçekte var olmayan ya da yanlış aktarılan çalışmalara dayandığı belirlendi.
Öte yandan, yanıtların çoğu güçlü ve kendinden emin bir dil taşıyor. Bu durum, şüpheli ya da hatalı bilgilerin bile ikna edici bir üslupla sunulmasına yol açarak, okurun doğru ile yanlışı ayırt etmesini daha da zorlaştırıyor.

Acil durumlarda yanlış değerlendirme yapabiliyor
Endişe yaratan tablo yalnızca genel sağlık tavsiyeleriyle sınırlı değil. Başka değerlendirmeler de sağlık odaklı yapay zekâ araçlarının gerçek acil vakalarda ciddi hatalar yapabildiğini gösterdi. Bazı sistemlerin acil kabul edilmesi gereken durumları olduğundan daha hafif değerlendirdiği, yani kullanıcıya daha geç harekete geçmesini önerdiği görüldü.

Bu bulgu özellikle önemli, çünkü insanlar yapay zekâyı yalnızca genel bilgi için değil, “Bekleyeyim mi doktora gideyim mi?” gibi doğrudan karar anlarında da kullanıyor. Maddi engeller, sağlık hizmetine erişim sorunu ya da zaman kaygısı yaşayan kişiler, bu araçlara daha fazla yüklenebiliyor. Bu da yanlış bir önerinin etkisini büyütüyor.
İkna edici hatalar
Uzmanların asıl uyarısı burada düğümleniyor: Yapay zekâ, yanlış bilgiyi çoğu zaman “emin değilim” diyerek değil, son derece düzenli, akıcı ve güven veren bir dille sunuyor. Yanıtların önemli bölümü sıradan kullanıcı için fazla karmaşık bulunurken, aynı zamanda kendinden emin bir anlatım taşıyor. Bir yandan eksik ya da hatalı bilgi verilmesi, öte yandan bunun ikna edici bir dille anlatılması, sağlık alanındaki riski daha da büyütüyor.

Bu tablo, yapay zekânın sağlık alanında tamamen işlevsiz olduğu anlamına gelmiyor. Belirtilerin daha net ifade edilmesi, doktor randevusuna hazırlanma, tıbbi raporlardaki terimlerin sadeleştirilmesi ya da temel düzeyde bilgi edinme gibi konularda destekleyici bir rol üstlenebilir.
Ancak uzmanların ortak görüşü açık: Yapay zekâ, bir doktora alternatif değildir; en fazla yardımcı bir araç olarak değerlendirilmelidir. Özellikle ilaç kullanımı, tanı, aciliyet değerlendirmesi ve tedavi kararları gibi kritik konularda son sözün mutlaka sağlık profesyonellerine ait olması gerektiği vurgulanıyor.,
