Merhaba,
Şimdi aklınızdan bir ülke geçirin.
Muhtemelen aklınızdan geçen o ülke 2024’te seçime gidiyordur.
Milyarlarca insan bu sene oy kullanacak. Seksenin üzerinde seçimle, altmıştan fazla ülkede sandık başına gidiliyor. Uzmanların ise ortaklaştığı tek bir konu var; gelişmiş demokrasilerde dahi yapay zekanın çevrimiçi ortama hakim olduğu bir seçime hazır değiliz.
Yapay zekayla katmerlenen bilgi operasyonları 2024 yılına bir şekilde damgasını vuracak, demokrasileri etkileyecek. Demokrasinin alanına müdahale eden taktikler, bireyleri manipüle edilmeye daha yatkın hale getirecek.
Gelişen teknolojilerden habersiz kalanlar ise -ki bu bizimki gibi ülkelerde daha geniş bir kesimi kapsıyor- bilgi operasyonlarının hedef kitlesi haline geliyor. Yeni teknolojilerle donanmış propaganda makinelerinden kendini korumayı bilen geniş bir seçmen kitlesinin oluşması şart. Önlem alamadığımızda ise seçim süreçlerinde izlenen manipülatif yaklaşımlar bireylerin demokrasiye olan güvenini de hedef alacak.
Türkiye demokrasisi yapay zekadan nasıl etkilenebilir?
Gelişmiş demokrasilere nazaran daha kırılgan olduğumuzu ortaya koyan dinamikleri bültenler boyunca anlatmaya devam edeceğiz. Dünya Ekonomik Forumu’nun 2023 Küresel Risk Raporu teknolojik atılımların geleceğine dair bazı ipuçları sunuyor. Raporu biraz kurcaladık, azcık da yorumumuzu kattık. Kısaca mesele şu:
- Hali vakti yerinde devletler, önümüzdeki on yıl gelişen teknolojilere giderek daha fazla kaynak ayıracak gibi duruyor. Yapay zeka, bu toplumların bir dizi problemini çözecek, orası kesin.
- Sizi anti-kapitalist bir retorikle boğacak değiliz tabii ama kabul edersiniz ki hali vakti yerinde olmayan devletler için durum pek iç açıcı değil. Yeni yüzyıl, eşitsizliklerin de derinleşeceği, kontrol mekanizmalarından sızabilen yeni teknolojilerin dezenformasyon ağını genişleteceği, zayıf demokrasilerin zorlu bir imtihandan geçeceği bir yüzyıl.
- Bu yüzyılda hem mavi yaka hem beyaz yaka çalışanlar, iş güvencesinin olmadığı siyasi ve ekonomik koşullarda yapay zekaya yenik düşebilir gibi duruyor.
Ama umutsuz olmaya da gerek yok çünkü yapay zekanın bu kadar tartışıldığı gündemde konu hakkında daha iyi ve nitelikli bilgiler elde etmeniz de kolaylaşacak. En azından biz o niyetle yola çıktık. İyi ki yola çıktık denen bir olayla da kısa süre içerisinde karşılaştık.
“Yapay zekayı dışlayan bir anlayış” mümkün mü?"
31 Mart seçimlerine yaklaşırken yapay zekayı ülke gündemine getiren ilk açıklama CHP Genel Başkanı Özgür Özel’den geldi. Özel, aday belirleme sürecinde yapay zekadan yararlandıklarını ifade etti. Özel’in açıklamasından esasında araştırma şirketlerinin el yordamıyla uzun süredir uyguladıkları bir yönteme destek veren bir araç olarak CHP’nin makine öğrenmesinden faydalandığı anlaşılıyor. Mesele şu gibi duruyor:
- Kamuoyu yoklama anketleri yeni değil. Anketlerde potansiyel aday isimlerine yer verildiği gibi açık uçlu yanıtlara da olanak tanınabiliyor. Yani anket katılımcıları akıllarına gelirse listelenen isimler dışında kişilerin isimlerini de anketlerde belirtebilir. Buraya kadar her şey olağan.
- Yapay zekanın sürece müdahil oluşu ise açık uçlu yanıtlarda verilen isimleri efektif bir biçimde tespit ederek anket sürecini yönlendirebiliyor olması. Yüksek frekansta verilen açık uçlu yanıtları potansiyel aday isim listelerine ekleyerek diğer katılımcıların da ilgili ismi listede görmesini ve değerlendirmesini sağlaması. Bu basit bir yapay zeka uygulaması olarak düşünülebilir.
- Yapay zeka, büyük veri setlerini işleyebilme, anlamlandırma ve örüntüler tespit etme yeteneğiyle, geleneksel yöntemlerle yapılan anket çalışmalarına kıyasla çok daha fazla veriyi, çok daha hızlı ve etkili bir şekilde analiz edebilir. Bu sayede, anketler daha kapsamlı, doğru ve etkili bir şekilde yürütülebilir.
- Bazı haber siteleri Özel’in açıklamasını “CHP aday problemini çözmek için ChatGPT'ye danıştı! İnsanlar kulaklarına inanamadı” şeklinde haberleştirmiş olsa da yapay zeka = ChatGPT denkleminin doğru olmadığını rahatlıkla ifade edebiliyoruz.
- Bu tarz pratikler demokratik süreçlerin işleyişi açısından önemli. Her ne kadar Cumhurbaşkanı Erdoğan, Özel’in yapay zeka çıkışına “kibir abideleri” söylemiyle yanıt vermiş olsa da muhtemelen Adalet ve Kalkınma Partisi de benzer yöntemlerden faydalanan araştırma şirketleriyle çalışıyor.
Yapay zekada bireylerin bilgisi kadar farklı paydaşların niyeti de önemli. Burada hem gelişen teknolojilerin arkasındaki ekipler ve şirketlerden hem de politika yapıcı mercilerden bahsediyoruz. “İyi niyetli girişimler” ile geliştirilen yapay zeka uygulamaları bilgi erişimini kolaylaştırabilir ve toplumsal farkındalığı artırabilir. Ancak, bu uygulamalar farklı niyetlerle dezenformasyon amaçlı kullanıldığında, demokrasinin temel taşlarından olan doğru bilgiye erişimi de kolaylıkla tehlikeye atabilir.
Yapay zeka dezenformasyonla kol kola
Peki, dezenformasyon zaten yıllardır demokrasi için bir sorunken yapay zeka neden bunu daha tehlikeli hale getiriyor olabilir? Genel algı, yanlış bilgi üretimini daha komplike hale getiren yapay zeka destekli araçların bir nevi iyice “ele ayağa düşmüş” olması. Eskiden daha zor olan sahte video ve görsel üretme, ses kopyalama, sohbet botlarıyla belirli bir konu hakkında yanlış bilgiler içeren metinler üretme veya bu tarz metinler hazırlamaları için dil modelleri geliştirme ve mikro-hedefleme süreçleri artık çok daha kolay.
Hazır mıyız?
Deepfake videolarla seçmenler manipüle edilmeye çalışılacak. Basit araçlarla siyasetçilerin sesleri kopyalanacak, siyasetçilere söylemedikleri şeyler söyletilecek. Siyasetçiler gerçekte söyledikleri garip şeylerin aslında yapay zeka tarafından manipülasyon amaçlı oluşturulduğunu kolaylıkla iddia edebilir hale gelecek. Bir de her manipülasyona yapay zeka üretimi denilecek. Daha da kötüsü her yeni teknolojiye yapay zeka denilecek. ChatGPT benzeri sohbet botları tarafından üretilen sentetik metinler belirli sosyal grupları manipüle etmek için kullanılacak. MidJourney benzeri uygulamalarla üretilecek görsellerin nelere kadir olabileceğini de azcık düşününce korkmamak elde değil.
2024’ün daha başındayız ama yapay zekanın siyaseti nasıl etkilediğine tanık olacağımız örneklerle karşılaştık bile. ABD Başkanı Joe Biden’ın sesi yapay zeka ile kopyalandı ve New Hempshire’daki demokrat seçmenler oy kullanmaktan vazgeçirilmeye çalışıldı. Tayvan’daki seçimler sırasında deepfake içerikler üretildi ve bu dezenformasyon dalgasının ardında Çin’in olduğu iddia edildi.
Biraz öncesine gidecek olursak, 2023 yılı aslında yapay zeka sahteciliğinin seçimleri ve seçmen davranışlarını etkilemeye yönelik nasıl kullanılacağını gösteren bir yıl olmuştu. Arjantin seçimleri sırasında yapay zeka teknolojileri siyasetçilerin propaganda aracı haline gelmişti. Yapay zeka üretimi video ve görsellerin büyük bir kısmı sahte olmasalar da ideolojik savaşın en değerli enstrümanları olmuştu. Slovakya’da ise seçimlerden iki gün önce Progressive Slovakia partisinin lideri Michal Šimečka’nın bir gazeteciyle Roman yurttaşların oylarını satın alarak hile yaptıklarını konuştuğu iddia edilen bir ses kaydı yayınlandı. Ancak ses kaydı gerçek değildi ve yapay zeka ile üretilmişti.
Hatırlayalım: 2023 seçimlerinde yapay zeka meselesi çoktan gündemimize girmişti.
Basit araçlarla üretilebilen cheapfake içerikler seçmen davranışlarını etkilemek için etkin bir biçimde kullanılabilmiş, deepfake tartışmalarını da beraberinde getirmişti.
Tartışmaları zirveye çıkaran olay, Cumhurbaşkanı Erdoğan’ın, Millet İttifakı’nın seçim kampanyası filminde Murat Karayılan’ın olduğunu iddia ederek sahte bir videoyu seçim meydanlarında göstermesiydi.
Muhalefet adayı Kılıçdaroğlu bir tweetle karşılık vermiş ve gönderisinde deepfake, deepweb gibi bazı kavramları içiçe geçirmişti.
Siyasetçilerin yapay zeka hakkındaki eksik bilgileri, sorunu daha karmaşık hale getirdi ve seçmenler yeni teknolojilerin neler yapabileceğine karşı yanlış bilgilendirildi.
Medya, ya sansasyonel bir yaklaşımla bu teknolojiyle yapılabilecekleri abarttı ya da önemsizleştirerek seçmeni risklere karşı uyarmadı.
Demokrasiyi tehdit eden dezenformasyon ve propaganda taktiklerinin yapay zeka sayesinde ölçeğinin büyüyeceği, hızlanacağı, sofistike hale geleceğini artık biliyoruz. Teknoloji şirketlerinin, hükümetlerin, sosyal medya platformlarının, sivil toplum örgütlerinin bu tarz tehlikelere karşı artık çok daha fazla çaba sarf etmesi gerekiyor.