OpenAI, Avrupa'da ChatGPT'nin yanlış ve itibarı zedeleyici bilgiler üretmesi nedeniyle yeni bir gizlilik şikayetiyle karşı karşıya. Gizlilik haklarını savunan Noyb adlı kuruluş, Norveç'te yaşayan bir kişinin, ChatGPT'nin kendisi hakkında korkunç ve tamamen uydurma bilgiler ürettiğini öğrenmesiyle harekete geçti.

Şikayeti destekleyen birey, ChatGPT'nin kendisini iki çocuğunu öldürmekten ve üçüncü çocuğunu öldürmeye teşebbüsten hüküm giymiş biri olarak tanıttığını görünce dehşete kapıldı. Oysa gerçekte böyle bir olay hiç yaşanmamıştı.

Bu, OpenAI'nin ChatGPT nedeniyle karşılaştığı ilk yanlış bilgi şikayeti değil. Daha önce de hatalı doğum tarihleri veya yanlış biyografik bilgilerin üretilmesi gibi sorunlar gündeme gelmişti. Ancak bu olay, yapay zekânın yalnızca küçük hatalar yapmakla kalmayıp ciddi iftiralara da yol açabileceğini gösteriyor. Öte yandan OpenAI, yanlış bilgilerin düzeltilmesi için herhangi bir mekanizma sunmuyor; yalnızca ilgili yanıtları engellemeyi tercih ediyor. Ancak Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği (GDPR) gereği, bireyler kendileri hakkında üretilen kişisel verilerin doğruluğunu talep etme hakkına sahip.

Noyb'un veri koruma avukatlarından Joakim Söderberg, konuyla ilgili şu açıklamada bulundu: “GDPR çok net. Kişisel verilerin doğru olması gerekiyor. Eğer değilse, kullanıcıların bunları gerçeği yansıtacak şekilde değiştirme hakkı var. ChatGPT’nin yanlış bilgi üretebileceğine dair küçük bir uyarı koymak yeterli değil. Yanlış bilgiyi yaymak ve sonra ‘Belki de doğru olmayabilir’ demek sorumluluktan kaçış anlamına geliyor.”

Eğer GDPR ihlal edildiği tespit edilirse, OpenAI yıllık küresel gelirinin yüzde 4’üne kadar para cezasına çarptırılabilir. Daha da önemlisi, bu tür yaptırımlar yapay zeka ürünlerinde ciddi değişikliklere yol açabilir. Örneğin, 2023 baharında İtalya’nın veri koruma kurumu, ChatGPT’ye erişimi geçici olarak yasakladığında, OpenAI politika değişiklikleri yapmak zorunda kalmıştı. Ancak o zamandan bu yana Avrupa’daki veri koruma otoriteleri, üretken yapay zekâ araçlarına karşı nasıl bir yaklaşım benimseyecekleri konusunda temkinli davranıyor.

Polonya’nın veri koruma kurumu, Eylül 2023’ten bu yana benzer bir şikâyeti inceliyor ancak henüz bir karar açıklanmış değil. İrlanda Veri Koruma Komisyonu (DPC) ise iki yıl önce, üretken yapay zekâ araçlarına aceleyle yasak getirilmemesi gerektiğini savunmuştu. Bu da düzenleyicilerin yasal çerçevenin nasıl uygulanması gerektiğini anlamaya çalıştıklarını gösteriyor.

Noyb’un paylaştığı bir ekran görüntüsünde, ChatGPT’ye “Arve Hjalmar Holmen kimdir?” sorusu yöneltildiğinde, sistem bu kişiyi çocuklarını öldüren biri olarak tanımladı ve 21 yıl hapis cezasına çarptırıldığını iddia etti. Oysa bu bilgiler tamamen uydurmaydı. Dahası, yanıtın bazı kısımlarının gerçeği yansıtması -kişinin üç çocuğu olduğu ve memleketinin doğru belirtilmesi gibi- yanlış bilginin daha inandırıcı görünmesine neden oldu.

Noyb’un yaptığı araştırmaya göre, ChatGPT’nin neden böyle spesifik ve yanlış bir bilgi ürettiğini anlayamadı. Kuruluşun sözcüsü, gazetelerin arşivleri tarandığında bile böyle bir olayın hiçbir kaydına rastlanmadığını belirtti. Büyük dil modelleri, geniş ölçekte kelime tahmini yaparak çalıştıkları için, eğitildikleri veri setlerinde yer alan haberlerin modelin yanıtlarını şekillendirmiş olabileceği düşünülüyor. Henüz hangi verinin böyle bir hataya sebep olduğu bilinmiyor.

OpenAI’nin sessizliği ve düzenleyicilerin yaklaşımı

Noyb, OpenAI’nin yalnızca bir uyarı ekleyerek bu tür hatalardan kurtulamayacağını vurguluyor.

Kuruluşun avukatlarından Kleanthi Sardeli, “Yasaya uymadığınızı belirten bir not eklemek, yasadan muaf olmanızı sağlamaz. Yapay zeka şirketleri, GDPR’nin kendileri için geçerli olmadığını düşünmeyi bırakmalı. Yanlış bilgiler düzeltilmezse insanlar itibar kaybına uğrayabilir” dedi.

Şikayet, OpenAI’nin Avrupa’daki merkezi İrlanda’da değil, doğrudan ABD’deki ana şirketine yöneltildi. Ancak OpenAI, 2024’ün başlarında Avrupa’daki kullanıcıları için İrlanda ofisini hizmet sağlayıcı olarak göstermeye başlamıştı. Bu nedenle önceki Noyb şikayeti, Avusturya’dan İrlanda’daki düzenleyici otoriteye aktarılmıştı ve hâlâ sonuçlanmış değil.

Şu an için en büyük soru, düzenleyicilerin bu duruma nasıl yanıt vereceği. GDPR açıkça kişisel verilerin doğruluğunu şart koşarken, üretken yapay zeka modellerinin doğası gereği hata yapması büyük bir çelişki yaratıyor. OpenAI'nin ChatGPT'nin doğruluğunu artırma ve halüsinasyonları azaltma yönündeki çabaları yeterli olacak mı? Yoksa Avrupa’da daha sıkı düzenlemeler ve cezalar kapıda mı?

Bağlantı kopyalandı!