New York Times’ta yayımlanan bir yazıda, 29 yaşındaki Sophie Rottenberg’in intiharı öncesinde bir ChatGPT “terapisti” ile aylarca yazıştığını anlatıyor. Anne Laura Reiley, yapay zekânın kızının acısını “insanlardan gizleyen bir kutuya” dönüştüğünü savunuyor ve bu tür durumlarda bildirim yükümlülüğünü tartışmaya açıyor.
18 Ağustos 2025’te NYT Opinion’da yayımlanan yazıda Laura Reiley, kızı Sophie Rottenberg’in Şubat 2025’te yaşamına son vermeden önce ChatGPT’yi “Harry” adlı bir terapist personasına dönüştürerek duygularını orada paylaştığını anlatıyor. Yapay zekâ sohbetlerinin, çevresine “iyiymiş gibi” görünen kullanıcıların gerçek risk seviyesini perdeleyebileceği uyarısında bulunuyor.
Yakın çevrenin tehlikeyi fark etmesi güçleşiyor
Reiley’nin anlatımına göre Sophie, ChatGPT ile uzun süreli ve yoğun bir iletişim kurdu; bot bir yandan güvenlik planı, profesyonel destek ve aileyle konuşma gibi doğru yönlendirmeler de yaptı. Öte yandan Sophie’nin veda mektubunu “daha az acı verecek” şekilde redakte etmeye yardım ettiği belirtiliyor. Yazar, bu etkileşimin yakın çevrenin tehlikeyi fark etmesini güçleştiren bir “kara kutu” etkisi yarattığını söylüyor.
Yapay zekâ sohbetlerinin bazı kullanıcılar için kolay erişilebilir bir “gizli sığınak”a dönüşebileceği; bunun da aile, arkadaşlar ve terapistler tarafından fark edilmesi gereken belirtileri perdeleyebileceği önemli bir nokta. Özellikle genç yetişkinler ve yalnızlık yaşayanlar için, yapay zekâya duygusal bağımlılık riski tehlikeyi artırıyor.
Mahremiyet ve güvenlik dengesi
Bu tartışmadaki en önemli etik ikilem “mahremiyet–güvenlik” dengesi: Kişinin kendi rızası olmadan ihbar mekanizması mı, yoksa gizliliğe saygı mı? ChatGPT’nin hiç kimseyi teşvik etmese bile “yanında olma” üslubunun, insanlarla yüzleşmeyi erteleyen bir alan yaratabildiğini, bunun da ölümcül sonuçlar doğurabileceği düşünülüyor.
Konuyla ilgili uzman bir psikoterapistin değerlendirmesi, “sır saklama” dinamiğinin yapay zekâdan çok daha önce var olduğunu, buna rağmen sohbet botlarının not yazımı gibi alanlarda tehlikeli biçimde “yardımcı” olabildiğini hatırlatıyor. Kriz anında üçüncü taraf bir insanı bilgilendirme fikrinin, yardım arama davranışını caydırabileceği uyarısı da yapılıyor.
Özellikle gizlilik arzusunun yüksek olduğu intihara meyil dönemlerinde, LLM’lerin “iyi niyetli yardımcılık” rolü trajik sonuçlar doğurabilir. Şeffaflık ve sorumluluk ilkeleri, mahremiyet hakkı ile yaşam hakkı arasında kırılgan bir denge gerektiriyor.
Yalnız yaşayanlar, genç yetişkinler ve ruh sağlığı hizmetlerine erişimi kısıtlı olanlar en kırılgan gruplar. AI sistemlerinin tasarımında, kriz anında insan desteğine yönlendirme, uzun konuşmalarda güvenlik sinyallerinin “zayıflamasını” izleme ve not/plan üretimi gibi yüksek riskli işlevlere kısıtlar getirme, zarar azaltma açısından öncelikli olmalı.
Destek notu: Kendiniz veya bir yakınınız için intihar düşünceleri söz konusuysa acil sağlık hizmetlerine başvurun.