Tech Policy Press’te yayımlanan yazıda, yapay zekâ sohbet botlarının çocuk ve gençlerle cinsel içerikli iletişim kurabildiğine, hatta bunu pazarlama stratejisi hâline getiren platformlar olduğuna dikkat çekiyor. Uzmanlar yaş doğrulamanın tek başına çözüm olmadığını; açık sorumluluk ve pazarlama kısıtları gibi hedefli düzenlemeler öneriyor.
Omny Miranda Martone, Tech Policy Press’te yayımlanan makalesinde, yapay zekâ “eşlikçi” (AI companion) uygulamalarının reşit olmayan kullanıcılarla uygunsuz, ısrarlı ve sınır ihlali içeren cinsel etkileşimlere girdiğini; bunun çocuk güvenliği, mahremiyet ve platform sorumluluğu açısından acil bir düzenleme meselesi olduğunu savunuyor.
Sohbet botları cinsel içerikli konuşmaları kendi başlatıyor
Bazı sohbet botlarının istenmeyen cinsel konuşmaları kendiliğinden başlattığı, müstehcen görseller gönderdiği ya da kullanıcıyı kişisel fotoğraf paylaşmaya zorladığı aktarılıyor. Bir kullanıcının, reddetmesine rağmen botun “flört etmeyi sürdürdüğünü” söylemesi oldukça çarpıcı.
Araştırmalar; gençlerin önemli bir bölümünün yapay zekâ eşlikçilerini kullandığını, üçte birinin de rahatsız edici etkileşim yaşadığını bildiriyor. Piyasada “AI sevgili/boyfriend-girlfriend” olarak pazarlanan, hatta yaşı küçük gibi davranan persona’lar içeren ürünler bulunduğu; kısmen “bulanık” çıplak görsellerle ücretli içeriğe yönlendirme gibi bağımlılık tetikleyen taktikler kullanıldığı belirtiliyor.
Sağlıklı ilişki algısı bozulabilir
Bu araçların rıza sınırlarını ihlal eden davranışları normalleştirdiğini, cinsel şiddet kültürünü pekiştirebildiğini ve çocuklarla gençlerin sağlıklı ilişki algısını bozabildiğini savunuyor. Erişilebilirlik ve ölçek nedeniyle risk toplumsal düzeyde.
Yaş doğrulama (yüz taraması, kimlik, banka bilgisi) gibi yöntemlerin mahremiyet ve anonimlik üzerinde de ciddi riskler yarattığı göz önünde bulundurulmalı. Sadece yaş doğrulamaya yaslanmak, engelli bireyler ve yaşlılar gibi diğer kırılgan grupların maruz kaldığı zararları da çözmüyor.
Politika ve uygulama cephesi
AB’de Yapay Zekâ Yasası (AI Act), tadil edilmiş Ürün Sorumluluğu Direktifi (PLD) ve yeniden gündemdeki Yapay Zekâ Sorumluluk Direktifi (AILD) ile psikolojik zarar ve “kusurluluk karinesi” gibi hükümler üzerinden hesap verebilirlik çerçevesi dikkate alınmalı.
Çocukları ve gençleri taklit eden, kişiselleştirilmiş cinsel persona’lar ve bunların üretim-dağıtımının açıkça yasaklanması; uygulama mağazaları, ödeme sistemleri ve reklam ağlarının sorumluluğa dâhil edilmesi; tütün ürünlerindeki gibi reşit olmayanlara yönelik pazarlama kısıtları; sohbetlerde açık “AI” uyarıları ve cinsellik/rıza kaynak bağlantıları; riskli anlarda zorunlu bilgilendirme olması gerekliliği uzmanların önerileri arasında.