OpenAI araştırmacıları, büyük dil modellerinin (LLM) her zaman yanlış ama ikna edici cevaplar üreteceğini açıkladı. Sorunun mühendislik hatalarından değil, matematiksel sınırlardan kaynaklandığı vurgulandı.

Halüsinasyonlar kaçınılmaz bir gerçek

OpenAI, 4 Eylül 2025’te yayımladığı çalışmada yapay zekâ sistemlerinin “halüsinasyon” denilen hatalı çıktılar üretmesinin engellenemeyeceğini duyurdu. Çalışmayı Adam Tauman Kalai, Edwin Zhang, Ofir Nachum ve Georgia Tech’ten Santosh S. Vempala yürüttü. Araştırmacılar, modellerin belirsizlik karşısında tıpkı “zor sınav sorularında tahmin yürüten öğrenciler” gibi davrandığını, yanıt veremediği durumda dahi ikna edici ama yanlış içerik ürettiğini belirtti.

Araştırma, halüsinasyonların veri eksikliği ya da kodlama hatalarından değil, dil modellerinin doğasına içkin matematiksel ve istatistiksel sınırlardan kaynaklandığını gösterdi. Matematiksel analizde, “üretim hatası oranının her zaman belirli bir alt sınırın üzerinde kalacağı” kanıtlandı. Yani teknoloji ne kadar gelişirse gelişsin, hataların sıfırlanması imkânsız.

Açık testlerde başarısızlık

Ekip, farklı yapay zekâ sistemlerini test etti. Örneğin DeepSeek-V3 modeli, “DEEPSEEK kelimesinde kaç tane D var?” sorusuna çoğu denemede yanlış cevap verdi. Meta ve Anthropic’in Claude modelleri de benzer şekilde tutarsız sonuçlar üretti. OpenAI’nin kendi modelleri de durumdan muaf değil: GPT-5 halüsinasyon oranını azaltsa da hâlâ hatalı içerik üretiyor. Özellikle gelişmiş “reasoning” (akıl yürütme) modellerinde hata oranı daha da yükseldi; örneğin o1 modeli %16 oranında, o3 ve o4-mini modelleri ise sırasıyla %33 ve %48 oranında halüsinasyon üretti.

Neden oluyor?

Çalışma, hataların üç temel matematiksel nedenden kaynaklandığını ortaya koyuyor:

Epistemik belirsizlik – Eğitim verisinde nadiren görülen bilgiye dair çıkmazlar.

Model sınırlamaları – Mevcut mimarilerin kapasitesini aşan görevler.

Hesaplama zorlukları – Matematiksel olarak çözülemeyen (örneğin kriptografik derecede zor) problemler.

Yapay Gündem yorumu

OpenAI’nin kendi araştırması, yapay zekânın en temel sorunlarından birini “kaçınılmaz” ilan ederek kolaycılık yaratıyor olabilir. Burada etik açıdan en kritik mesele şeffaflık ve hesap verebilirlik. Kullanıcıların yapay zekâdan gelen bilgilerin güvenilirliği hakkında doğru uyarılar alması zorunlu hale geliyor. Aksi durumda, özellikle kırılgan gruplar, örneğin hastalar, öğrenciler veya finansal karar vericiler, bu hatalardan doğrudan zarar görebilir.

Bağlantı kopyalandı!