Yasadışı olması muhtemel bazı konulara dair ChatGPT, “size bu konuda yardımcı olamam” yanıtını veriyor. Tamam ama bu durum, ChatGPT’nin altında yatan modelin sorduğunuz soruya gerçekte bir yanıtı olmadığı anlamına mı geliyor? Durum düşündüğünüzden biraz daha çetrefilli olabilir.

Büyük dil modelleri (large language model veya kısaltmasıyla LLM) ile geliştirilen sohbet botları hayatımıza Kasım 2022’de OpenAI’ın ChatGPT’si ile girdi desek yeridir. Bu uygulamanın ve yapay zekanın evveli elbette vardı ama yapay zeka devriminin fitilini daha önce görülmemiş bir biçimde ateşlediklerini söylesek herhalde pek yanıltıcı olmaz. Bu kimi zaman “büyüleyici” görünen uygulama daha iki yaşına bile basmamışken, internet onlarca OpenAI rakibi ve açık kaynak kodlu dil modelleri ile dolmaya başlamış durumda. Bu durum aslında büyük dil modellerinin ardında yatan teknolojinin çok da sıradışı olmamasından kaynaklanıyor.

İki ana materyalimiz var: Yazılı veri ve veriyi sofistike derin öğrenme yöntemleriyle işleyebilmek için işlem gücü. Borsaseverler NVIDIA hisselerini zıplatan şeyin farklı yapay zeka uygulamaları için ikincisinden doğan donanım ihtiyacı (veya açlığı) olduğunu düşünebilirler. Büyük dil modelleri, hayal edebileceğimizin ötesinde büyüklükteki yazılı veri ile eğitilirken modeller metinlerdeki örüntüyü, kelimeler arası ilişkileri, kelime ve cümle yapılarını öğreniyor. Ardından verilen bir girdiye dair bir sonraki çıktının ne olabileceğini tahmin ede ede bütüncül bir yanıt, belirli uzunlukta bir çıktı sunuyor.

Yani kısaca mesele şu: Elimizde ne kadar düzgün metin varsa LLM de o kadar düzgün çıktı sunabilir. Garbage in, garbage out. İnternet aleminin uçsuz bucaksız olanaklarını kullanarak her türlü metni alıp modele atarsanız, o model size toksik, çerçöp ne varsa rahatlıkla ve son derece ikna edici bir biçimde sunabilir. Yapay zeka hizalanması (AI alignment) tartışmaları burda devreye giriyor.  

YZ hizalanması nedir?

Temelde bu kavram, yapay zeka ile geliştirilen sistemlerin geliştiricilerin niyet ve arzuları doğrultusunda hareket etmeleri için atılan adımları kapsıyor. Bazı araştırmacılara göre asıl niyet, yapay zekanın insani değerlerle tümüyle hizalanması olmalı. “İyi güzel ama değer dediğimiz şey de kime göre neye göre be kardeşim” dediğinizi duyar gibiyim. Yine de ortaklaştığımız bazı değerler olduğunu kabul edelim.

Geçen sene üzerinde çalıştığım yüksek lisans tezim yapay zeka hizalanması ve dinlerin kesiştiği noktaya dairdi. Çok ayrıştırıcı bir çalışma olduğunu düşünmesemde nihayetinde enteresan bir araştırma süreciydi: Divine Alignment: A Survey-Based Study on How Religion Influences Expectations for AI Alignment

ChatGPT gibi popüler sohbet botları, envai çeşit metinle eğitilen dil modellerine yaslandıklarından OpenAI hizalanma ihtiyacına belirli ilkeler doğrultusunda farklı yöntemlerle işaret ediyor, etmek zorunda. Bu noktada bir trade-off, bir değiş-tokuş durumu söz konusu. Belirli ilkelerle modeli sınırlamak, modelin gerçek kapasitesini de sınırlıyor ve aslında verebileceği yanıtlara “size bu konuda yardımcı olamam” çıktısını sunuyor. Güvenlik tehditi oluşturabilecek, yasadışı konularda bu yaklaşım belki de son derece olumlu.

Ama onun yerine modeli en başta çerçöple beselemesek ve tehlike arz edebilecek çıktıları en başta hiç öğrenmese belki daha iyi. Buna dair bazı metin ayıklama süreçleri de OpenAI gibi firmalarda muhtemelen işliyordur, sürece dışarıdan çok hakim olmak mümkün değil ama sıkıntı aslında göründüğünden biraz daha büyük. Nitekim büyük teknoloji firmaları bu sektörde yalnız değil. Yalnız olmamaları da bilginin demokratikleşmesi açısından iyi bir şey. Öte yandan iki ana materyali (metin ve işlem gücü) elinde bulunduran herkes -ee tabii teknik bilgiye de sahip olunduğunu varsayarsak- dil modeli geliştirebilir. 

Herkes, her türlü metinle, her türlü amaç doğrultusunda…

Hizalanmayan modellerin taşıdığı risk

Herhangi bir şekilde sınırlanmamış büyük dil modelleri farklı amaçlarla geliştirilebilir, illa kötü niyetli olmak zorunda değil. Ama dilerseniz kötü niyetli olanlarına bir göz atalım ve bu tarz modellerin başımıza ne gibi işler açabileceği üzerine biraz düşünelim. Modellerin gerçek isimleri bu noktada pek önemli olmadığından model isimlerini gizleyerek yazıyorum.

EzikGPT, dark web’de satışa sunulan ve Telegram gibi uygulamalar üzerinden erişilebilen bir sohbet botu. Yapay zeka destekli bu botun yegane amacı siber saldırılarda kullanıcıya eşlik etmek. EzikGPT ile oltalama (phishing) saldırıları için kolaylıkla ikna edici e-postalar hazırlamanız mümkün. Sahte sayfalar yaratıp insanların kişisel bilgilerini çalmak isterseniz, EzikGPT bu işte de bir numaralı dostunuz.

YılanGPT ise dezenformasyon için birebir. Kasıtlı olarak yanıltıcı bilgi kırıntılarını ortaya sermek üzere tasarlanmış bu dil modeli ile hedeflediğiniz kurum veya kişi hakkında ikna edici metinler hazırlatıp zehri sosyal medyanın dehlizlerine salabilirsiniz.

Etik veya yasal gerekçelerle sınırlandırılmamış bu tarz pratikler genelde açık kaynak kodlu dil modelleri üzerine inşa ediliyor. Ancak tümüyle sıfırdan da yaratılabilir. Teorik olarak kötü niyetli aktörlerin kötü niyetli dil modelleri geliştirmelerinin önünde pek bir engel bulunmuyor. Hatta multimodel uygulamalar da geliştirilebilir, yani sadece zararlı metinler değil deepfake türevi içerikler de basit bir sohbet uygulaması üzerinden üretilebilir. Bu bilimkurgudan çıkmış bir öngörü değil, günümüzde teknik olarak uygulaması mümkün olan bir yapıdan söz ediyoruz. Bilgi ekosisteminin yapay zeka destekli yanıltıcı içeriklerle dolup taşmasının mümkün olduğu hayli yakın bir gelecekten bahsediyoruz. Toplumsal ilişkilerimizi sınayacak, hatta devletler arası jeopolitik gerilimleri körükleyebilecek bir dizi uygulamayla karşı karşıya kalacağımız bir dönem var gibi görünüyor önümüzde.

Bağlantı kopyalandı!