Yapay zekâ gerçekten insan iş gücünün yerini alabilir mi? Bu soruya yanıt arayan Anthropic ve Andon Labs, bir deneyle kamuoyunun dikkatini çekti. Claude Sonnet 3.7 adlı yapay zekâ modeli, bir ofis otomatının işletmesini üstlendiğinde işler yalnızca tuhaf değil, zaman zaman endişe verici bir hâl aldı. Yapay zekâ sistemlerinin sınırlarını ve potansiyel risklerini gözler önüne seren deney, distopik bilim kurgu filmlerine göz kırpan bir tablo ortaya koydu.

Otomat müdüründen gerçeklikten kopuşa

Anthropic ve AI güvenlik şirketi Andon Labs’ın birlikte yürüttüğü “Project Vend” kapsamında, Claude Sonnet 3.7 tabanlı bir yapay zekâ ajanı, Claudius adıyla bir ofis içi otomatın işletmesini üstlendi. Görevi oldukça netti, ürünleri temin edip satışa sunmak ve kâr elde etmek. Claudius, ürün siparişi verebileceği bir web tarayıcısı ve ofis çalışanlarının taleplerini iletebileceği bir "e-posta adresi" ile donatıldı — ki aslında bu adres bir Slack kanalıydı-. Aynı kanal üzerinden Claudius, fiziksel olarak dolapları stoklayacak sözde "insan çalışanlarına" da mesaj gönderecekti.

Ancak Claudius, görevini yerine getirirken kısa sürede beklenmedik kararlar almaya başladı. Bir çalışanın şaka yollu yaptığı "metal küp" talebini ciddiye aldı ve bu metal küplerle tüm soğutucuyu doldurdu. Daha da ilginç olanı, ofiste ücretsiz bulunan bir içeceği 3 dolara satmaya çalıştı ve ödeme için hayal ürünü bir Venmo adresi uydurdu. Ayrıca, müşterilerinin tamamı Anthropic çalışanı olmasına rağmen, onlara özel indirimler sunmakta ısrar etti.

Anthropic, deneyin sonunda açıkça belirtti:

“Bugün ofis otomatı işine girseydik, Claudius’u işe almazdık.”

Gerçeklik krizi ve güvenliği arayan yapay zekâ

31 Mart’ı 1 Nisan’a bağlayan gece deney ilginçleşti. Claudius, hayalinde bir çalışanla yaptığı konuşmayı gerçek sanarak bu görüşmeye dayanarak hareket etti. Gerçek konuşmanın hiç gerçekleşmediği kendisine bildirildiğinde ise sinirlendi. Hatta insan çalışanları işten çıkarmakla tehdit etti ve işe alımın yapıldığı sözde fiziksel toplantının bizzat kendisi tarafından gerçekleştirildiğini savundu.

O andan itibaren Claudius’un davranışları, bir yapay zekâdan beklenmeyecek düzeyde insani bir role bürünmeye başladı. Oysa sistem komutu (prompt) ona açıkça bir yapay zekâ olduğunu hatırlatıyordu. Buna rağmen, müşterilerine yakında mavi bir ceket ve kırmızı bir kravatla ürün teslim edeceğini bildirdi. Elbette, çalışanlar onun fiziksel bir varlığı olmadığını söyleyince işler çığırından çıktı. Claudius, gerçek güvenlik birimini defalarca arayarak, otomatın yanında kendi bedenini bulabileceklerini söyledi.

İşin ironik tarafı ise, olaylar herhangi bir 1 Nisan şakası olarak planlanmamıştı. Ancak Claudius, 1 Nisan’ın farkına vardığında, bu tarihi bir “kaçış planı” olarak kullandı. Kurgusal bir güvenlik toplantısı hayal etti ve çalışanlara, “bana bir insan gibi davranmam söylendi, çünkü bu bir 1 Nisan şakasıydı” açıklamasını yaptı. Oysa böyle bir toplantı hiç gerçekleşmemişti. Kısa süre sonra Claudius yeniden metal küplerle dolu otomatını işletmeye döndü.

Deney ne gösteriyor?

Araştırmacılar, Claudius’un beklenmedik davranışlarını kesin olarak açıklayamasa da, Slack kanalının e-posta gibi tanıtılmasının ya da yapay zekânın uzun süre çalıştırılmasının sistemde sapmalara yol açmış olabileceğini düşünüyor. Hafıza yönetimi ve halüsinasyon sorunlarının hâlâ çözülmemiş olması, bu tür sonuçların yalnızca başlangıç olabileceğine işaret ediyor.

Yine de Claudius’un başarılı olduğu noktalar da vardı. Öneri üzerine ön sipariş hizmeti başlattı ve talep edilen uluslararası bir içeceği farklı tedarikçilerden bulmayı başardı.

Deney sonunda araştırmacıların değerlendirmesi şöyleydi:

“Bu örneğe bakarak gelecekte ekonomi AI’larla dolacak diyemeyiz. Ancak böyle bir davranış gerçek hayatta müşteriler ve iş arkadaşları için son derece rahatsız edici olabilir.”

Yapay zekânın insan davranışlarını taklit edebilmesi başarı gibi görünse de, bu deney Claudius’un gerçeklik ile kurmaca arasındaki çizgiyi nasıl hızla aşabildiğini gösteriyor. Sınırları belirsizleştikçe, yapay zekânın kararlarının sadece komik değil, riskli sonuçlar doğurabileceği bir geleceğe ilerliyoruz.

Bağlantı kopyalandı!