Ekim 2023’ten bu yana Türkiye’nin ve dünyanın hatırı sayılır bir kısmının gündeminde İsrail’in Gazze’ye yönelik gerçekleştirdiği operasyonlar var. Onbinlerce sivilin katledildiği bu operasyonlara ilişkin Aralık 2023’te Güney Afrika, Uluslararası Adalet Divanı’nda İsrail’e karşı soykırım davası açmıştı. Geçtiğimiz hafta ise Türkiye, bu davaya müdahil olacağını duyurdu

Silahlı çatışmalar, savaşlar, katliamlar, soykırımlar… Bunlar insanlık tarihinde benzeri görülmemiş vakalar değiller. Ancak çatışmaların ölçeği ve çatışmalar neticesinde oluşan insani krizlerin yoğunluğu değişiyor. İnsanlık olarak artık telefon ve televizyon ekranlarımızdan neredeyse canlı izleyebildiğimiz katliamlarımız var. Teknolojik ilerlemenin büyük bir “nimeti”...

Teknolojide “çift kullanım” yaklaşımı, farklı ürünlerin hem askeri hem de sivil alanda kullanım potansiyeline işaret ediyor. Bu ikilem kapsamında örneğin teknoloji sayesinde artık hayatımızın her anı kolaylıkla kayıt altına alınabildiğinden savaş suçlarına ilişkin kanıtların daha rahat toplanabildiğini görürüz. Öte yandan benzer nitelikteki materyallerin toplanması ve yaygınlaştırılması sürecinde askeri propagandanın öne çıkması ve nihayetinde görüntülerin kişileri demoralize ederek bireylerin demokratik süreçlerin çözüm sunabileceğine dair inancına ket vurması da muhtemel.

Bir diğer çift kullanım is hiç şüphesiz yapay zeka destekli uygulamalarda kendisini gösteriyor. Yapay zekanın sunduğu imkanlar savunma teknolojilerinde üst düzey araçların geliştirilmesinde, bir ülkenin ulusal güvenlik stratejilerinin kökten şekillendirilmesinde etkili olabilir. Yapay zekayı barış ve kalkınma için araçsallaştırmak mümkün. 

Öte yandan homo sapiensin en iyi bildiği işlerden biri için de yapay zekanın etkin kullanımı mümkün: Öldürmek. Size Black Mirror’dan bir kesit aktaracak değiliz. Buyrun güncel vakamıza geri dönelim ve İsrail’in Lavender ismini verdiği yapay zeka destekli sisteme odaklanarak demokrasinin günümüzde ne anlama geldiği üzerine biraz kafa yoralım.

Lavender nedir ve ne iş görür?

+972 Magazine ve Local Call tarafından yürütülen araştırma insanlığın içerisinden geçmekte olduğu dönüşüm sürecinin nasıl kasvetli bir distopyaya doğru yelken açabileceğinin bir habercisi. Araştırma sonucunda hazırlanan raporda İsrail ordusu tarafından Gazze’de kullanılan Lavender ismindeki yapay zeka destekli sistemin ayrıntılarına yer veriliyor.

Lavender, bir hedef belirleme sistemi. Kısaca Hamas ve Filistin İslami Cihat Örgütü gibi organizasyonlara mensup kişilerin yapay zeka yardımıyla tespiti ve ortadan kaldırılması için kullanılıyor. İsrail istihbaratından altı görevlinin aktarımlarına dayanan raporda yapay zeka destekli bu sistemin sunduğu çıktıların “bir insan kararıymış gibi” değerlendirildiği belirtilmiş. Yine sisteme göre sayıları 37 bine dayanan Filistinli’nin militan olduğundan şüphelenilirken bu isimler ve evleri hava saldırılarının potansiyel hedefleri arasında yerlerini almış. Özellikle savaşın ilk haftalarında İsrail ordusunun Lavender’in çıktılarına dayanarak hareket ettiği iddialar arasında.

Lavender’in sunduğu ölüm listesindeki isimlerin bir insan onayından geçmesi söz konusu ancak onay mekanizmasının yaklaşık 20 saniye sürdüğü söyleniyor. Yani bir kişinin yapay zeka tarafından hedef ilan edilmesi ile kendisinin evinin bombalanması kararı arasındaki insan dokunuşu için ayrılan süre bir dakikanın üçte biri uzunlukta. Tüm sorgulama süreci yapay zekaya devredilmiş demek pek de yanlış sayılmaz.

Raporun tamamı okununca durumun vehameti biraz daha anlaşılıyor. Ancak bu bültenin konusu direkt olarak yapay zeka destekli bu sistem değil, bu ve benzeri sistemlerin bize ne söylediği. Yine de bu başlığı kapatmadan önce şu paragrafı Türkçe’ye çevirmeden geçmeyelim:

“Görüşülen iki kaynağa göre ordu daha önce benzeri görülmemiş bir hamleyle savaşın ilk haftalarında Lavender'in işaretlediği her bir düşük rütbeli (junior) Hamas mensubuna karşılık 15-20 sivilin öldürülmesine izin verdi. Geçmişte ordu düşük rütbeli militanlara yönelik suikastlarda herhangi bir "sivil zayiat"a (collateral damage) izin vermiyordu. Kaynaklar, hedefin tabur ya da tugay komutanı rütbesinde üst düzey bir Hamas yetkilisi olması durumunda, ordunun birçok kez tek bir komutana yönelik suikastta 100'den fazla sivilin öldürülmesine izin verdiğini de sözlerine ekledi.”

İsrail Savunma Kuvvetleri’nin Lavender sistemine dair yayılan haberlere verdiği yanıta ise bağlantıdan ulaşabilirsiniz.

Sorumlu yapay zeka nedir? Project Nimbus’la nasıl bir alakası olabilir?

Lavender’in tekil bir örnek olduğu, dünya üzerinde buna benzer başka sistemlerin bulunmadığı gibi varsayım en hafif tabiriyle safça olurdu. Büyük teknoloji firmalarının açtığı yol, kötü niyetli yapay zeka uygulamalarının gösterdiği hedef insanlığı nasıl bir geleceğe taşıyacak hep birlikte göreceğiz. Öte yandan bazı kavram ve anlayışlar üzerine yoğunlaşarak ve politika geliştirerek bu tarz kötücül hamlelerin gelecekte önüne geçmek belki de mümkün.

Bu yaklaşımlardan biri “responsible AI” olarak biliniyor. Türkçesiyle "sorumlu yapay zeka”, yapay zeka teknolojilerinin etik, şeffaf ve adil bir şekilde geliştirilerek kullanılması gerektiğini vurguluyor. Bu kavram, yapay zeka uygulamalarının insan haklarına saygılı bir biçimde faaliyet yürütmesi, kullanıcılar için adil olması ve karar süreçlerinin şeffaf bir şekilde anlaşılabilir olması gerektiği gibi bir dizi ilke içeriyor. Sorumlu yapay zeka kapsamında benimsenen prensipler, yapay zekanın toplum üzerindeki olumlu etkilerini artırmayı,  olası risk ve zararları ise minimize etmeyi amaçlıyor. Büyük teknoloji firmalarının “responsible AI” fermanlarını ufak bir Google araması sonucu bulabilirsiniz. Görünürde herkes ütopyaların peşinde, mutlak iyilik doğrultusunda gecesini gündüzüne katmış çalışıyor.

Hakikatte ise arkaplanda 1970’li yılların müzik listelerini alt üst eden Abba’nın “money money money” isimli şarkısı çalmaya devam ediyor.

Project Nimbus, İsrail hükümetinin bir bulut bilişim projesi. Bu proje kapsamında Google ve Amazon, 1.2 milyar dolarlık bir sözleşme karşılığında İsrail devlet kurumlarına yapay zeka ve makine öğrenmesi de dahil olmak üzere farklı alanlarda bulut bilişim hizmetleri sağlıyor. 

İnsan sormadan edemiyor: Lavender veya Lavender’e benzer sistemler nerelerde eğitiliyor? Savunma sektöründe geliştirilen makine öğrenmesi modellerinin ne kadarı Google, Amazon veya bulut bilişim hizmeti sağlayan diğer teknoloji firmalarının imkanlarını kullanıyor? Kendi yapay zeka sistemlerini “responsible” bir şekilde geliştirme taahhüdü veren kaç firma kapılarını “irresponsible” kullanıcılara açmış vaziyette?

Demokrasilerde çare…

Tükenir mi? Sorun şu ki yapay zekanın hayatın her alanını sarsmaya başladığı içinden geçtiğimiz bu dönem demokrasilerin güç kazandığı bir sürece denk gelmedi. Batı demokrasileri Filistin’deki gelişmeler gibi “işine gelmeyen” konularda demokratik tavır ortaya koymayadursun otoriter sağ, gücünü birçok toplumda günden güne pekiştiriyor. Buna büyük teknoloji firmalarının beşiği ve yapay zeka alanındaki devrimsel gelişmelerin ortaya çıktığı nokta olan ABD de dahil. Kasım 2024’te gerçekleşecek olan başkanlık seçimleri yaklaşırken bakalım orada daha neler neler olacak.

Otoriterleşme eğilimi, yapay zeka etiğinin sınırlarını da sorgulatan bir zemin yaratıyor. Yapay zeka destekli uygulamaların etik kullanımda bir diğer beklenti, modellerin şeffaflığı. Sorumlu yapay zekanın bir alt kümesi olarak düşünebileceğimiz “transparent AI”, yapay zeka sistemlerinin karar mekanizmalarının, neden belirli sonuçlar ürettiklerininin ve hangi verileri kullandıklarının şeffaf bir biçimde anlatılmasına dair bir gerekliliği ifade ediyor. Basitçe, uygulama geliştiricilerin, insanların bu sistemlerin nasıl çalıştığını anlamalarına yardımcı olması gerekiyor. Bu son derece makul bir talep gibi görünüyor olsa da çoğu firma kendi geliştirdiği yapının nasıl çalıştığından bihaber ve bu talep ancak güçlü demokratik sistemler içinde ses getirebilecek, otoriter yapılar içinde ise firmaların karmaşık girişimleriyle sönüp gidebilecek bir talep.

Blackbox AI: “Önce sen kendi geliştirdiğin modeli bi’ öğren derim”

Şeffaflık talebinin karşısına yerleşen bir diğer kavram ise “kara kutu yapay zeka.” Blackbox AI tabiri, yapay zeka destekli sistemlerin işleyişi sırasında izlenen karar mekanizmalarındaki opaklık için kullanılıyor. Sistemin nasıl işlediğini, hangi yanlılıklıklara (bias) sahip olduğunu ve yaratma potansiyeli taşıdığı eşitsizliklerin kaynağını anlayabilmek değerli. Ancak algoritmaların çıktılarını teknik olarak anlamlandırmak her zaman o kadar da kolay değil.

Google’ın CEO’su Sundar Pichai, Nisan 2023’te verdiği bir demeçte yapay zeka destekli sohbet botlarının halüsinasyon benzeri bazı çıktıları üzerine şu yorumda bulunmuştu: 

"Bunun bizim kara kutu dediğimiz bir yönü var, bu alanda çalışan herkes buna kara kutu diyor. [Sohbet botunun] bir şeyi neden belirli bir şekilde söylediğini ya da neden hatalı bir çıktı sunduğunu tam olarak bilemezsiniz. Bazı fikirlerimiz var ve bu durumu anlama becerimiz zaman içinde daha da gelişiyor, ancak geldiğimiz nokta şu an bu."

Pichai yapay zeka destekli sohbet botlarını insan zihniyle karşılaştırıp şunu da eklemiş.

"Şöyle diyeyim: insan zihninin nasıl çalıştığını da tam olarak anladığımızı sanmıyorum" 

Bu arada halüsinasyon meselesini daha önce Yapay Gündem’de ele almıştık hatırlarsanız: Seçimler yaklaşırken olağan şüpheliler: Yapay zeka sohbet botları

Makine öğrenmesi modellerinin çıktılarını ve genel olarak yapay zeka sistemlerin geliştirdiği tahminleri anlama ve yorumlamaya yardımcı olan araç ve yaklaşımlar söz konusu olduğunda “açıklanabilir yapay zeka” veya “explainable AI” tabiri gündeme geliyor. Tüm bu anahtar kelimeleri aklımızın bir köşesinde tutmamızda fayda var. Gelecekte hak savunuculuğu için bu kavramlar lazım olacak, elimizin altında bulunsun.

Bağlantı kopyalandı!