Yirmi birinci yüzyılın savaşları giderek daha az insan tarafından yürütülmektedir. İnsanlar kurban durumundadır, ancak yok etme eyleminin failleri makinelerdir. Bu makineler ise giderek daha az insan kontrolünde çalışmaktadır; çünkü derin öğrenme yetenekleriyle donatılmış yapay zekâ sistemlerindeki örtük eğilim, insanları (çoğu zaman bilinç ve duyarlılık sahibi rastgele organizmalar) işkence etme, sakatlama, öldürme ve yok etme görevlerinden kurtarmak ve bu görevleri akıllı sistemlere devretmektir.
Zekâ kelimesi, herhangi bir duygu hissetmeye veya etik meşruiyete karar vermeye ihtiyaç duymadan bir görevi yerine getirme yeteneğini ifade eder. Duyarsız ve vicdansız zekâ, bu akıllı otomasyon çağında kapitalist sistemin genel ürünüdür.
Jonathan Littell’in Les Bienveillantes adlı romanında gösterdiği gibi, yirminci yüzyıl Nazizm’i, duygusal zekânın sınırlarını dikkate almak zorundaydı. Siyonistlerin sembolü ve öncüsü olduğu yirmi birinci yüzyılın tekno-Nazizm’i, artık bu sınırları dikkate almak zorunda değil.
Littell’in bir SS askerinin ruhsal yorgunluğunu anlattığı romanını okurken öğrendiğimiz gibi, öldürme işi yorucudur. İnsan organizmasının, akıllı makinenin kurtulduğu fiziksel ve psikolojik sınırları vardır.
İnsansız hava aracı (İHA), Nazizm’in bu yeni evresinin baskın figürüdür. Ukrayna Savaşı ve Gazze Soykırımı, yirmi birinci yüzyılda tam anlamıyla gerçekleşecek olan bu yeni yok etme evresinin deney sahnesidir.
İHA, üzerinde bir insan pilotun bulunmamasıyla karakterize edilen bir hava aracıdır. Uçuşu, görebilen duyabilen ve diğer ikincil görevlerin yanı sıra imha gerçekleştirebilen bilgisayarlar tarafından kontrol edilir. Başlangıçta bu teknoloji, birkaç orduya özel ilk büyük modellerden neredeyse herkesin kullanabileceği, gruplar halinde çalışan (sürü dronları) çok küçük modellerin yapımına doğru evrilmiştir.
İsrail soykırımı, bu otomatik yok etme sisteminin ilk büyük ölçekli uygulamasını oluşturuyor. Bunun münferit bir olay olduğunu düşünmemeliyiz, bu istisnai olaydan sonra savaşın eski insanlık dışı özelliklerine geri döneceğini düşünmemeliyiz. Gayri insanilik sonunda insandan bağımsız hale gelmiş ve sonunda kendi yolunda ilerleyebilir duruma gelmiştir.
Askeri teknoloji rekabetinde, imha makineleri yaygınlaşmaya mahkumdur. Bundan böyle her silahlı çatışma ister ulusal ister dini, ya da iç savaş olsun giderek artan bir şekilde akıllı imha tekniklerinden yararlanacaktır.
Nisan 2024’te İsrailli +972dergisi tüyler ürpertici bir makale yayınladı. Makale, varsayımsal olarak düşman hedefleri belirlemek ve vurmak üzere tasarlanmış bir yapay zekâ sisteminin epistemik ve pragmatik yapısını anlatıyor. Bu hedefler yoldan geçen masum insanlar, okuldan dönen çocuklar, çeşmeden su almaya giden kadınlar olabilir. Hiç fark etmez. Otomatik imha olasılıksal çalışır ve askeri olasılık fazla hassas olamaz.
Yuval Abraham’ın +972’deki yazısına göre,
İsrail’in “Lavender” (Lavanta) gibi sevimli bir isme sahip olan imha sistemi savaşın sıcak anında askeri saldırılar için binlerce potansiyel “hedef” üretmek üzere büyük miktarda veriyi hızla işleyebilecek özel bir makine. Böyle bir teknolojinin, “hem yeni hedeflerin bulunması hem de hedeflerin onaylanmasına yönelik kararların alınmasındaki insani engel[1]” olarak tanımladığı sorunu çözeceğini yazıyor.
Dolayısıyla insanlar engeldir; belirsizlik ve yavaşlamanın kaynağıdır. Bazen ne kadar acımasız ve fanatik olurlarsa olsunlar, insanlar hala belirsizlik üreten makinelerdir. Duygusallık, belirsizlik, yorgunluk onların öldürme yetkinliklerini sınırlayabilir.
Akıllı makine, yok etme eylemini mümkün kılan tüm işlem dizisini kademeli olarak üstlenir. Bunlar görsel ve işitsel tanımlama, sınıflandırma, seçme ve yok etmedir. Ve nihayetinde, daha yüksek bir amaç doğrultusunda kendini düzeltme ve mükemmelleştirmeden geçer. İnsanların kaos olduğu yerde düzen kurmak. Bu nedenle, her türlü insani unsuru ortadan kaldırır.
Savaşın ilk haftalarında ordu neredeyse tamamen Lavender’a güvendi ve bu sistem, olası hava saldırıları için 37.000 kadar Filistinliyi ve onların evlerini şüpheli militan olarak işaretledi… Kaynakların ifadelerine göre, sonuç olarak çoğu kadın ve çocuk ya da çatışmaya dahil olmamış binlerce Filistinli, özellikle savaşın ilk haftalarında yapay zekâ programının kararları nedeniyle İsrail hava saldırılarıyla yok edildi… İki kaynağa göre, benzeri görülmemiş bir şekilde ordu, savaşın ilk haftalarında Lavender’ın işaretlediği her bir düşük düzeyli Hamas militanı için 15 ila 20 sivilin öldürülmesine izin verilmesi yönünde karar aldı… “Biz [insanlar] bu kadar çok bilgiyi işleyemeyiz. Savaş sırasında hedef üretmekle görevlendirdiğiniz insan sayısı ne kadar fazla olursa olsun, yine de bir günde yeterince hedef üretemezsiniz.” Bu sorunun çözümünün yapay zekâ olduğunu söylüyor. [Lavender] yapay zekâ ve makine öğrenimi algoritmalarına dayalı bir “hedef makinesi” oluşturmak için kısa bir rehber sunuyor. Bu rehberde, bir militanla aynı WhatsApp grubunda olmak, birkaç ayda bir cep telefonu değiştirmek veya sık sık adres değiştirmek gibi bir bireyin derecelendirmesini artırabilecek “yüzlerce ve binlerce” özellikten birkaç örnek yer alıyor. Görsel bilgi, hücresel bilgi, sosyal medya bağlantıları, savaş alanı bilgileri, telefon rehberi, fotoğraflar… Komutan, “Ne kadar çok bilgi ve ne kadar çok çeşitlilik o kadar iyidir,” diye yazıyor.
Hedefe yönelik yok etme ve dolaylı olarak çok sayıda sivilin öldürülmesinin artışı, İsrail’in öncüsü olduğu teknik bir gelişmenin sonucudur; ancak bunun münferit ve spesifik bir fenomen olduğunu düşünmemeliyiz. Dünyadaki her silahlı grup, yok edici yapay zekâ tarafından yönlendirilen teknolojik bir yönetişim sistemiyle donanacaktır.
Gazze, tarihin nihai gerçeğini açığa çıkarıyor: şiddet-intikam-şiddet döngüsünün sonsuz tekrarından kaçış yok. Öyleyse, zekâyı neden sterilize etmemiz gerekiyor? Zekâyı, bilinçdışının doğası gereği bulanık yapısından ayırmamız gerekiyor.
Savaş, liberal ekonominin mantıksal devamıdır ve savaş, zekânın tam anlamıyla dizginlenmeden uygulanmasını gerektirir. Homo Deus adlı kitabında Yuval Noah Harari, bilincin zekâdan ayrılmasının, zekânın bilinçten bağımsız hale gelmesinin, zekânın tam anlamıyla güçlenmesinin bir koşulu olduğunu vurgular.
Bilinç, bu kelime bir şey ifade ettiği sürece, zekânın bir sınırlamasıdır. Burada zekâ performansını sınırlayan bir unsur olarak duyarlılığı, duyusal bilinci, bedenselleşmiş bilinci ifade eden etik bilinçten bahsediyorum.
Bu noktayı, günümüzün en önemli ekonomik faaliyeti olan ve giderek daha fazla başat ekonomik yatırım haline gelecek olan öldürme işini düşündüğünüzde anlayacaksınız: Zekâ duyarlılıktan ve (etik) bilinçten ne kadar bağımsız hale gelirse, zeki ajan o kadar verimli olacaktır.
İsrail Savunma Kuvvetleri Genelkurmay Başkanı Aviv Kohavi, İsrail’in savaş metodolojisinin Deleuze ve Guattari’nin rizomatik teorisinden ilham aldığını söyledi. Mikro savaş makinelerinin asimetrik yayılımı, çağrı cihazları ve telsizler gibi gündelik nesnelerin kitle imha silahlarına dönüştürülmesi fikrinin en iyi tanımıdır.
Sadece naif okuyucular, Deleuze ve Guattari’nin rizomatik metodolojisinin yalnızca bir özgürleşme teorisi olduğunu düşünebilir. Aslında, bu çok daha karmaşık ve çok daha komplike bir şeydir. Bu metodoloji öncelikle kapitalist kontrolün moleküler dağılımına dayalı ekonomik modeli kavramsallaştırır -ardından savaş ve terörün, günlük yaşamın her bir parçasına ve yaygın kullanılan şeylere moleküler olarak kazınmasını sağlar.
İsrail’in paranoyak yaşamı -etrafındaki halklarının nefretinin her daim musallat olduğu bir ülke- bu terörün molekülerleşmesiyle belirginleşir.
İmha savaşı yapay zekânın öldürücü uygulamasıdır[2].
Yapay zekânın etik düzenlenmesine dair yapılan tüm konuşmalar saçmalıktır, çünkü bu, yapay zekânın askeri kullanımını, bu teknolojinin araştırmalarına, fonlamasına ve kullanımına hâkim olan boyutunu ortadan kaldırmaya ve unutturmaya dayanır: demans, psikoz ve korkudan kaynaklanan zekâ. İmha için zekâ.
***
Editör Notu: 18 Kasım 2024 tarihinde Critical Inquiry‘de yayınlanan “Intelligent Extermination” başlıklı yazı, İLKE Analiz okurları için Kadiriye Yıldız tarafından tercüme edildi. Bu makalede yer alan fikirler yazara aittir ve İLKE Analiz’in editöryal politikasını yansıtmayabilir.
Görsel: ChatGPT
[1] İşin gelişimindeki sıkışıklık durumunu tarif etmek için kullanılan bir ifade.
[2] Buradaki kelime oyunu, metnin orijinalindaki “killer application” terimiyle ilgilidir. Bu terim, teknoloji dünyasında genellikle bir yazılım ya da özellik için, kullanıcının bir ürün satın almasına neden olacak kadar çekici olan bir şey anlamında kullanılır. Ancak, yazar burada bu terimi “katil” anlamındaki “killer” kelimesini kullanarak, yapay zekanın yok etme amacını ifade etmektedir. “Killer” kelimesi, burada sadece teknolojik bir başarıyı değil, aynı zamanda ölüm ve yıkım anlamını da taşıyor. Bu şekilde, teknoloji ve savaş arasındaki korkutucu bağlantıyı vurgulamış olur. Yazar burada teknolojinin tahripkâr potansiyeline dikkat çekmek için, kelime oyununu bilerek ve kasıtlı olarak korkunç bir biçimde kullanıyor.