Yapay Gündem olarak düzenlediğimiz altıncı buluşmada barış için yapay zekayı konuştuk. Etkinliğin açılışını Ayşegül Güzel yaparken, devamında Mert Can Yılmaz’ın hazırladığı sunumla askeri yapay zeka üzerine konuştuk.
Pandora’nın kutusu
2017 yılında yapay zekâ araştırmacıları , Birleşmiş Milletler’e çağrıda bulunmuştu: “Vaktimiz çok az. Bir kez Pandora’nın kutusu açılırsa, kapatmak zor olacak.” O uyarıdan bu yana yedi yıl geçti. Kutunun artık çoktan açıldığını ve silahlanma yarışının hızlandığını inkâr etmek mümkün değil.
Barış için mi? Soykırım için mi?
Yapay zekâ destekli sistemler, çatışmaları daha hızlı, daha “etkili” yürütme vaadiyle sunuluyor. Bir yanda tahmine dayalı analizler, insansız operasyonlar; diğer yanda ölümcül otonom silahlar, hukuki boşluklar ve artan sivil kayıplar...
İnsan denetiminin giderek azaldığı bu teknolojik savaş ortamında, ölüm kararları artık saniyeler içinde otonom sistemler tarafından alınabiliyor. Lavender gibi vakalar, yapay zekâya hayat ve ölüm arasında karar verme yetkisi verildiğinde neyle karşılaşabileceğimizi gösteriyor.
Realizm ve ötesi
Uluslararası ilişkiler uzun yıllar realizm ve caydırıcılık üzerine kurulu bir paradigmaya dayanıyordu. MAD (Mutually Assured Destruction – Karşılıklı Kesin Yıkım) doktrini, özellikle nükleer çağda denge sağlayıcı bir rol oynadı. Ancak yapay zekânın gelişme hızı, bu geleneksel stratejilerin sınırlarını zorluyor.
Saniyeler içinde alınan kararlar, geri dönüşü olmayan hatalara yol açabilir. Bu nedenle artık klasik stratejiler değil, insan haklarına ve uluslararası hukuka dayalı yeni bir güvenlik anlayışı gerekiyor. Yapay zekâ sadece bir araç değil; aynı zamanda etik, hukuki ve varoluşsal bir sınav.
Oyun teorisiyle düşünmek
Silahlanma yarışını anlamak için klasik bir oyun teorisi örneği olan Tutsak İkilemi yol gösterici olabilir. Devletler birbirine güvenmediği için silahlanıyor; silahlandıkça güven azalıyor. Rasyonel görünen bu döngü, aslında karşılıklı güvensizliği derinleştiriyor.
Peki yeni bir oyun mümkün mü? Mert Can Yılmaz’ın da vurguladığı gibi: Şeffaflık, iş birliği ve denetim, yeni güvenlik mimarisinin temelini oluşturabilir.
Beşli çete: Big Tech
Yapay zekânın askeri alandaki yükselişi, yalnızca devletleri değil, teknoloji devlerini de sahneye çıkardı. Apple, Google, Amazon, Meta ve Microsoft gibi şirketler artık yalnızca teknoloji üretmiyor, aynı zamanda savaş ekosistemine yön veriyor.
Bu şirketlerin kâr odaklı yapısı, etik riskleri beraberinde getiriyor. Hukuki denetimin sınırlı olduğu bir ortamda, örneğin OpenAI’nin ABD ordusuyla yaptığı anlaşma gibi örnekler sivil denetimin ne kadar zayıf olduğunu gözler önüne seriyor. Ancak burada devreye sivil toplum girebilir. Kamuoyu baskısı, bu denetimsiz güce karşı caydırıcı bir etki yaratabilir.
Yeni bir oyun kurmalı
Savaşın kurallarını değiştirmek için yeni bir oyun kurmak zorundayız. Bu oyun, hukukla, etikle ve insan onuruyla yazılmalı. Teknolojik gelişmeleri durdurmak mümkün değil; ancak bu gelişmelerin yönünü belirlemek hâlâ elimizde.
Barış için yapay zekâ mümkün!
Kaynaklar ve paylaşılan bağlantılar
- Palantir AIP Defense
- Anduril Industries
- AI for Good Global Summit
- Uppsala Çatışma Verileri Programı
- Political Declaration on Responsible Military Use of AI and Autonomy
Önümüzdeki buluşmada tartışmaları derinleştirmek ve yeni konularla bir araya gelmek için sizi de aramızda görmekten mutluluk duyarız!