Yazar:
Gül Hür
Son dönemde yayımlanan bazı araştırmalar, yapay zeka destekli sohbet botlarının ruh sağlığı alanında ne kadar yaygın biçimde kullanıldığını ortaya koyuyor. ABD’de yaklaşık 500 kişiyle yapılan ve 2025’te Practice Innovations dergisinde yayımlanan bir çalışmaya göre, dil modeli (LLM) kullanan ve ruh sağlığı sorunu olduğunu belirten katılımcıların %49’u bu sistemleri doğrudan mental destek amacıyla kullanıyor. Katılımcıların %73’ü kaygı, %60’ı depresyon, %36’sı iletişim becerisi geliştirme için başvurduğunu belirtirken, %63’ü bu kullanımın ruh sağlıklarını iyileştirdiğini ifade ediyor. 
%49
Ruh sağlığı sorunu olduğunu belirten katılımcılardan yapay zeka sistemlerini doğrudan mental destek amacıyla kullananların oranı
Öte yandan Birleşik Krallık’ta 2.000 yetişkinle yapılan ulusal temsili bir ankete katılanların %37’sinin zihinsel sağlık veya iyi oluş için bir yapay zeka sohbet botu kullandığı görülmüş. 25–34 yaş grubunda bu oran %64’e kadar çıkarken, kullanıcıların %66’sı deneyimi faydalı bulduğunu söylüyor. Ancak aynı araştırma, kullanıcıların %11’inin psikotik belirtilerin tetiklendiğini ya da kötüleştiğini, %11’inin intiharla ilgili zararlı içerikle karşılaştığını ve %9’unun kendine zarar verme düşüncelerinin tetiklendiğini bildirdiğini ortaya koyuyor. Veriler, yapay zekanın ruh sağlığı alanında halihazırda milyonlarca kişi tarafından başvurulan bir araç haline geldiğini ama bu yaygınlığın beraberinde ciddi güvenlik ve etik tartışmaları da getirdiğini gösteriyor.
%11
Yapay zeka sohbet botunun psikotik belirtilerini tetiklediğini ya da kötüleştirdiğini söyleyenlerin oranı
Sosyal medya platformları, sağlıkla ilgili bilgilerin en hızlı dolaşıma girdiği alanların başında geliyor. Ancak bu dolaşım çoğu zaman doğru bilgi üretiminden çok, bilimsel araştırmaların bağlamından koparılması ya da henüz erken aşamadaki bulguların “kesin çözüm” gibi sunulması üzerinden ilerliyor. Özellikle kanser gibi ağır hastalıklar söz konusu olduğunda, insanlar çaresizlik ve umut arasında gidip gelirken bu tür paylaşımlar çok daha tehlikeli bir hal alıyor. Bir yandan henüz tedavi anlamına gelmeyen çalışmalar hastalığın çözüldüğü izlenimini yaratıyor, diğer yandan “mucizevi” kürler ve karışımlar alternatif tedavi gibi sunularak hem hastalara yanlış umut aşılıyor hem de doğrudan halk sağlığını tehdit edebilecek uygulamalar meşrulaştırılıyor. Bu zincirin son halkasında ise sağlıkla ilgili yanlış bilginin ticari bir araca dönüştüğünü, insanların hastalıkları üzerinden kazanç elde edildiğini görüyoruz. Bu ekosistem, yalnızca yanlış bilgi üretmiyor, aynı zamanda kırılgan grupları istismar eden, gerçek tedavi süreçlerini riske atan ciddi bir halk sağlığı sorununa işaret ediyor.
Bu tablo içinde, sağlıkla ilgili bilgi üretimi ve dolaşımına yapay zekanın nasıl dahil olmaya başladığı da son dönemin en güncel başlıklarından biri haline geldi. Kısa süre önce hem OpenAI hem de Anthropic, sağlık verileriyle çalışabilen yeni araçlarını duyurdu. OpenAI’nin ChatGPT’ye entegre ettiği ChatGPT Health, kullanıcıların sağlık kayıtlarını ve Apple Health gibi uygulamalardan gelen verileri daha anlaşılır hale getirmeyi hedefleyen bir özellik olarak tanıtıldı. Benzer şekilde Anthropic, Claude adlı yapay zekası için sağlık ve yaşam bilimleri odaklı araçları kullanıma sunduğunu açıkladı. Her iki şirket de bu sistemlerin teşhis koymak ya da tedavi önermek üzere tasarlanmadığını, tıbbi raporların sadeleştirilmesi, sağlık verilerinin düzenlenmesi ve kullanıcıların kendi kayıtlarını daha kolay takip edebilmesi amacıyla geliştirildiğini belirtiyor. 
Bu gelişmelere yönelik eleştiriler ise tam da bu noktada yoğunlaşıyor. OpenAI ve Anthropic, neredeyse eş zamanlı biçimde sağlık alanına girerken her iki şirket de “teşhis koymuyoruz, doktorların yerini almıyoruz” vurgusunu özellikle öne çıkarıyor. Buna karşın kullanıcıların sağlık kayıtları, biyometrik veriler ve uzun dönemli kişisel sağlık geçmişleri gibi en hassas veri setlerinin bu sistemlere entegre edilmesi hedefleniyor. Eleştirilerin merkezinde, tıbbın karmaşık ve ilişkisel yapısının veri işleme ve örüntü tanıma süreçlerine indirgenip indirgenemeyeceği sorusu yer alıyor. Bu eleştiriler, sorunun yalnızca teknik doğrulukla sınırlı olmadığını, sağlık verilerinin özel şirketlerin kontrolünde toplanmasının mahremiyet, güç asimetrileri ve hekim-hasta ilişkisinin insani boyutunun zayıflaması gibi daha geniş sonuçlar doğurabileceğini vurguluyor. Bu nedenle yapay zekanın sağlık alanına girişi, bir ilerleme anlatısından çok, sınırları ve riskleri dikkatle tartışılması gereken yeni bir eşik olarak değerlendiriliyor.
Bu tartışmaları yalnızca yeni tanıtılan sağlık odaklı yapay zeka araçlarıyla sınırlı düşünmek de eksik bir çerçeve sunabilir. Çünkü sağlık verileriyle doğrudan entegre olmasa bile, halihazırda kullanılan birçok yapay zeka sistemi kullanıcılar tarafından sağlıkla ilgili konularda aktif biçimde kullanılabiliyor. Kullanıcıların önemli bir bölümü, günlük sağlık sorularından ruh sağlığıyla ilgili hassas konulara kadar geniş bir yelpazede yapay zeka araçlarına başvuruyor. Hatta bazı durumlarda bu sistemlere bir terapist ya da danışman gibi yaklaşıldığı görülüyor. Bu eğilim, yapay zekanın sağlık alanındaki rolüne dair etik ve güvenlik tartışmalarını da beraberinde getiriyor. Nitekim The Lancet’te yayımlanan kapsamlı etik incelemeler, yapay zekanın sağlık alanında kullanımında veri güvenliği, karar süreçlerinin şeffaflığı ve etik sorumluluklar konusunda ciddi belirsizliklere işaret ediyor. Benzer biçimde Stanford HAI ve Nature Scientific Reports çatısı altında yayımlanan çalışmalar, özellikle ruh sağlığı alanında kullanılan AI destekli sohbet botlarının kriz anlarında güvenilir davranmadığını, hatalı ya da zararlı yönlendirmeler üretebildiğini ortaya koyuyor.
Bu tartışmalar, yapay zeka sistemlerinin sağlık alanındaki rolünü yalnızca teorik düzeyde değil, pratik kullanım üzerinden de değerlendirmeyi gerekli kılıyor. Resmi olarak teşhis ya da tedavi aracı olarak sunulmasalar da, kullanıcıların bu sistemlere sağlık soruları yönelttiği biliniyor. Bu nedenle farklı yapay zeka araçlarının benzer sağlık sorularına nasıl yanıt verdiğini incelemek, bu sistemlerin bilgi üretme biçimini ve olası risk alanlarını daha somut biçimde ortaya koyabilir.
Sağlık alanında yanlış bilginin hızla yayılması ile yapay zekanın bu ekosisteme giderek daha fazla dahil olması, bilgi üretimi ve dolaşımının yeni ve karmaşık bir evreye girdiğini gösteriyor. Yapay zeka sistemleri sağlık verilerini daha erişilebilir hale getirme potansiyeli taşırken, aynı zamanda güvenilirlik, etik sorumluluk ve kullanıcı güvenliği gibi kritik soruları da beraberinde getiriyor. Bu nedenle yapay zekanın sağlık alanındaki rolünü değerlendirirken, teknolojik imkanlar kadar bu sistemlerin ürettiği bilginin sınırlarını ve olası toplumsal etkilerini de dikkatle analiz etmek gerekiyor.