Yapay zeka destekli otonom silah sistemleri, insan denetimi olmaksızın yaşam ve ölüm kararları almaya başladı. Gazze’de on binlerce kişinin hedef alınmasında kullanılan algoritmalar tartışılıyor
Algoritmaların insan yaşamı üzerinde karar verici hale geldiği yeni savaş doktrini, artık bilim kurgu değil, günümüz gerçeği olarak sahada uygulanıyor. Gazze’de İsrail ordusunun kullandığı yapay zeka destekli sistemler, binlerce kişiyi “hedef” olarak işaretleyerek bombardıman listeleri oluşturdu. Aynı tür otonom silah sistemleri Ukrayna’da kullanılırken, Çin’de askeri geçit törenlerinde de sergilendi.
Uzmanlara göre bu silahların en tehlikeli yönü, insan denetimi olmaksızın öldürme kararı verebilmeleri. Uzaktan kumandalı İHA’lardan farklı olarak otonom sistemler; yüz tanıma, ısı izleri ve hareket kalıpları gibi verileri işleyerek önceden tanımlanmış profillerle eşleşme sağladığında otomatik olarak ateş ediyor. Bu süreçte ne ahlaki bir değerlendirme ne de insan yaşamının değeri hesaba katılıyor.
İsrail’in Gazze’ye yönelik saldırıları, yapay zekanın kitlesel imhada nasıl kullanıldığını açığa çıkardı. İsrail ordusu; Lavender, The Gospel ve Where’s Daddy adlı algoritmik sistemlerle Hamas mensubu olduğu iddia edilen kişileri ve sivil altyapıyı hedef listelerine ekledi. Bu sistemlerin, hedef alınan kişilerin evde aileleriyle birlikte oldukları anları tespit ederek saldırı zamanlaması yaptığı belirtildi.
İsrailli istihbarat yetkilileri, bu sistemlerde yaklaşık yüzde 10’luk bir hata payı olduğunu kabul ederken, her “alt düzey militan” için 15 ila 20 sivilin, üst düzey hedefler için ise 100’den fazla sivilin öldürülmesini “kabul edilebilir” olarak değerlendirdiklerini itiraf etti. Bu durum, insan hakları savunucularınca “yapay zeka destekli soykırım” olarak tanımlanıyor.
Hesap sorulamayan bir şiddet rejimi
Algoritmik savaşın bir diğer kritik boyutu ise sorumluluğun buharlaşması. Yanlış hedef alınıp öldürülen bir sivilin hesabı kime sorulacak? Yazılımcıya mı, komutana mı, siyasi kararı alanlara mı? Hukuki belirsizlik, bu sistemleri kullanan devletler için fiili bir dokunulmazlık zırhı işlevi görüyor.
Otonom silahlar 2013’ten bu yana uluslararası gündemde olmasına rağmen bağlayıcı bir anlaşma hala yok. Birleşmiş Milletler bünyesinde kurulan ve 2017’den bu yana düzenli toplanan uzmanlar grubu, ABD, İsrail, Rusya ve Hindistan gibi askeri güçlerin engellemeleri nedeniyle somut bir ilerleme sağlayamadı.
Aralık 2023’te BM Genel Kurulu’nun kabul ettiği 78/241 sayılı karar ve 2024’te alınan 79/62 sayılı karar, ilk kez otonom silahlara karşı küresel bir irade ortaya koydu. 152 ülkenin destek verdiği bu süreçte, Mayıs 2025’te New York’ta yapılan görüşmelerde etik, insan hakları ve güvenlik riskleri masaya yatırıldı. BM Genel Sekreteri, Uluslararası Kızılhaç Komitesi ve çok sayıda sivil toplum örgütü, 2026’ya kadar bağlayıcı bir anlaşma çağrısı yaptı.
“Katil robotlara dur de” çağrısı
2012’den bu yana faaliyet yürüten Campaign to Stop Killer Robots, 70’ten fazla ülkeden 270’in üzerinde kuruluşu bir araya getiriyor. Kampanya, insanları doğrudan hedef alan ya da anlamlı insan denetimi olmadan çalışan sistemlerin tamamen yasaklanmasını, diğer tüm sistemlerin ise sıkı kurallarla sınırlandırılmasını savunuyor.
Uzmanlara göre, eğer bu silahlar yaygınlaşıp normalleşirse, sonradan denetlenmeleri neredeyse imkansız olacak. Teknoloji geri alınamaz olabilir, ancak siyasi irade ile kontrol altına alınabilir.
Kaynak: ANF









