Günümüz dünyasında yapay zeka (YZ), yalnızca hayatımızı kolaylaştıran bir teknoloji olmanın ötesine geçerek, toplumsal yapılarımızı, çalışma biçimimizi ve hatta etik değerlerimizi yeniden şekillendiren bir güç haline geldi. Ancak bu hızlı entegrasyon, beraberinde pek çok kritik soruyu da getiriyor; YZ kullanan şirketlerin sunduğu faydalar kadar, riskleri nelerdir? Bu riskler neden diğer teknolojik tehditlerden daha derin ve karmaşık?

Topluluğumuzun düzenlediği son buluşmada, tüm bu soruları Ayşegül Güzel’in sunumu ve Gülin Çavuş’un moderatörlüğünde ele aldık. Yapay zekanın potansiyel risklerini, risklerin neden diğer teknolojik gelişmelerden farklı olduğunu ve gelecekte bizleri bekleyen etik ikilemleri gündeme getirdik. Peki neler konuşuldu?

Yapay zeka riskleri neden farklı?

Toplantının açılışında Ayşegül Güzel, yapay zekanın risklerinin sadece ölçek ve hız açısından değil, aynı zamanda karmaşık ve anlaşılması güç yapısı nedeniyle diğer teknolojik tehditlerden farklılaştığını vurguladı.

  • Otomatik Karar Alma: YZ sistemlerinin karar verme süreçlerini otomatikleştirmesi, bireylerin günlük hayatında görünmez ama ciddi sonuçlar doğurabiliyor.
  • Önyargı ve Eşitsizlik: Özellikle algoritmaların veri setlerindeki önyargıları tekrar üretmesiyle, var olan toplumsal eşitsizlikler daha da derinleşebiliyor.
  • Anlaşılması Zor Süreçler: Yapay zeka sistemlerinin iç işleyişi genellikle "kara kutu" gibi çalıştığından, kararların neden alındığı çoğu zaman şeffaf olmuyor.

Regülasyon ve etik sorunlar

Sunumun bir diğer önemli noktası, farklı ülkelerdeki yasal düzenlemelerin bu riskleri önlemek adına nasıl şekillendiği oldu:

  • Avrupa Birliği’nin Yapay Zeka Yasası (EU AI Act) ve Dijital Hizmetler Yasası (DSA), YZ’nin toplumsal etkilerini düzenlemek ve şeffaflığı artırmak için tasarlandı.
  • ABD’de Algoritmalarla Ayrımcılığı Durdurma Yasası ve New York Yerel Yasası 144, algoritmik önyargılara karşı önlemler getirerek toplumsal eşitliği korumayı hedefliyor.
  • Colorado SB21-169 gibi yasalar, ayrımcılık testi ve risk yönetimi uygulamalarını teşvik ediyor.

Vaka incelemesi: Rotterdam dolandırıcılık tahmin sistemi

Toplantıda dikkat çeken örneklerden biri, Rotterdam Dolandırıcılık Tahmin Sistemi oldu. Bu vaka algoritmaların nasıl ayrımcı sonuçlar doğurabileceğini somut bir şekilde gösterdi.

Sistem, sosyal yardım başvurularında risk puanı belirlemek için geliştirilmişti. Ancak yaş, cinsiyet, dil becerisi gibi faktörlere dayalı olarak ayrımcı sonuçlar ürettiği ortaya çıktı. Örneğin, kadınlar, genç bireyler, bekar anneler ve Flemenkçe bilmeyenler gibi dezavantajlı gruplar daha yüksek risk puanı alıyordu. 2021'de askıya alınan sistemde şu anda daha etik bir model geliştirme süreci yürütülüyor.

Öne çıkan diğer örnekler:

Etkinlikte, dünyadan farklı yapay zeka skandalları da gündeme geldi:

  • TikTok, yüz tanıma teknolojisini kötüye kullandığı iddiasıyla 92 milyon dolar tazminat ödedi.
  • Facebook’un reklam algoritması, cinsiyet önyargısı nedeniyle eleştirildi.
  • Amazon’un işe alım algoritması, kadınlara karşı ayrımcılık yaptığı gerekçesiyle iptal edildi.
  • OpenAI’nin GPT-3 modeli, bazı içeriklerde anti-Müslüman önyargılar sergilediği için eleştirildi.

Sosyo-Teknik yaklaşımlar

Bir algoritmanın etkilerini sadece teknik bir süreçle değerlendirmek yeterli değil; toplumsal bağlam, kullanıcıların hakları ve etik sorumluluklar da dikkate alınmalı. The Algorithm Audit gibi çalışmalar, algoritmaların toplumsal sonuçlarını değerlendirme konusunda önemli adımlar atıyor.

Katılımcılar ne dedi?

Etkinlikte en ilgi çekici anlarından biri, katılımcıların doğrudan görüşlerini paylaştığı tartışma bölümüydü. Yapay zeka riskleri üzerine derinleşen bu interaktif bölümde, farklı perspektiflerden önemli noktalar ortaya çıktı. 

Etkinlikte söz alan katılımcılar, özellikle regülasyonların uygulanabilirliği ve algoritmaların şeffaflığı üzerinde durdu. “Adalet”, “etik” kavramı ve denetleyenleri kimin denetleyeceği sorgulandı. 

Bu tartışma bölümü, farklı alanlardan gelen katılımcıların yapay zeka kullanan şirketlerin risklerini sadece teknik değil, aynı zamanda toplumsal, etik ve hukuki boyutlarıyla nasıl değerlendirdiğini gösterdi. Tartışmalar, gelecekte yapılacak etkinliklerin daha kapsamlı ve çok disiplinli bir yaklaşımla ele alınmasının yolunu açtı. 

📚  Tartışmalar yetmez, kaynaklar da şart!

AI Liability Directive üzerine haber - Euractiv 

Sosyo-teknik yaklaşımlar üzerine genel yazı - CDT: 

EU AI Act - Dijital Strateji

Demokratikleşen AI Yönetimi - Arxiv

Timnit Gebru’nun Google’dan ayrılışı - MIT Technology Review

Who Audits the Auditors? - Arxiv

Closing the AI Accountability Gap - ACM

Bu buluşmada yapay zeka risk değerlendirmesini tartıştık. Gelecek etkinliklerde, yapay zekanın toplum üzerindeki etkilerini daha derinlemesine incelemeye devam edeceğiz. Etik, adalet ve sorumluluk çerçevesinde bu sürecin bir parçası olmak istiyorsanız, önümüzdeki buluşmalara ve topluluğumuza sizleri de bekleriz. 

Bağlantı kopyalandı!