Askeri Teknoloji

 Teknoloji felsefesini oldukça geniş bir alanda ve felsefi düşünce bağlamında ele alırken, pratik anlamda insanı en çok etkileyen “askeri teknolojiyi” bir başlık olarak değerlendirmek kaçınılmazdı.

Harp teknolojisi, çoğu zaman sadece savaşların nasıl yapıldığını dönüştüren tarafsız bir araç olarak görülür. Ancak bu basit yorum, modern teknolojinin karmaşıklığını ve derin ahlaki sonuçlarını göz ardı eder. Yapay zekâ, robotik ve otonom sistemlerin yükselişiyle birlikte, savaşın kendisi yalnızca bir eylem olmaktan çıkıp, yeni bir varlık biçimine, yani onto-teknolojik bir olguya dönüşmektedir. Bu alt bölüm, askeri teknolojiyi bu yeni felsefi bağlamda ele alarak, onun sadece bir araç değil, aynı zamanda etik, hukuki ve varoluşsal bir hegemonya aracı olduğuna dikkat çekmektedir.

Adil Savaş Teorisi gibi klasik düşünce okulları, otonom sistemlerin "ayrım gözetme" ve "orantılılık" ilkelerini nasıl sınadığını anlamamız için birer başlangıç noktası sunar. Ancak, asıl mesele, yapay zekânın karar verme süreçlerine dâhil olmasıyla ortaya çıkan sorumluluk boşluğunda ve ahlaki failliğin (moral agency) kimde kaldığı sorusunda yatar. Bu teknolojiler, tıpkı Peter-Paul Verbeek'in ifade ettiği gibi, insan ile eylem arasına girerek sorumluluğu bulanıklaştırır.

Bu sorgulamanın önündeki en büyük engeller ise, siyasi popülizmin ve devasa finansal güce sahip savunma sanayinin lobi faaliyetleridir. Bu güçler, karmaşık etik tartışmaları basitleştirerek, eleştirel düşüncenin önünü tıkamakta ve teknolojiyi bir kontrol aracı olarak kullanmaktadır. Bu tür hegemonyayı açığa çıkarmak ve harp teknolojisi felsefesini, siyasi söylemin ötesinde, insanlığın kendisini ilgilendiren temel bir alan olarak konumlandırmak düşüncenin önünde bir görev olarak durmaktadır.

Burada konuya dikkat çekmek ve 21. Yüzyıl felsefesinin genel tutumu içinde diğer düşünme alanları ile bağlam kurmanın gerekliğini göstermeye çalışıyoruz.

B.Berksan

Dikkat çekilen sorunlara temel olan Yapay Zeka eksenli, askeri teknolojileri ve kullanım alanlarını aşağıdaki tabloda görülmektedir.


Tartışılan konular.

1. Otonom Silah Sistemleri Tartışması: Ronald Arkin vs. Noel Sharkey

Bu alandaki en temel tartışmalardan biri, öldürücü otonom robotların (Lethal Autonomous Weapons Systems - LAWS) etik olup olmadığıdır. Bu tartışmanın iki ana figürü vardır:

  • Ronald Arkin: Georgia Teknoloji Enstitüsü'nden bir robotik uzmanıdır. Feenberg'e benzer bir şekilde, teknolojinin potansiyelini savunan bir araçsalcı (instrumentalist) yaklaşıma sahiptir. Arkin, robotların, insanların aksine duygusallıktan, öfkeden, yorgunluktan veya intikam duygusundan etkilenmediğini öne sürer. Bu nedenle, uluslararası harp hukukuna (sivilleri ayırma ve orantılılık ilkesi gibi) insanlar tarafından kullanılan silahlara göre daha iyi uyum sağlayabileceklerini ve daha etik kararlar verebileceklerini savunur.
  • Noel Sharkey: Sheffield Üniversitesi'nde bir yapay zekâ ve robotik profesörüdür. "Robot Katillere Karşı Uluslararası Kampanya" (Campaign to Stop Killer Robots) adlı sivil toplum örgütünün önde gelen seslerinden biridir. Sharkey, Arkin'in argümanına karşı çıkar. Bir robotun, savaşın karmaşık ve belirsiz ortamında, etik ve ahlaki yargı gerektiren kararları veremeyeceğini savunur. Otonom silahların yaygınlaşmasının, insan yaşamının değerini düşüreceğini ve savaş hukukunun temelden sarsılacağını belirtir.

2. Stratejik ve Politik Yaklaşım

Bu alanda, konuya daha çok askeri strateji ve uluslararası ilişkiler açısından yaklaşan düşünürler de vardır.

  • Paul Scharre: Amerikan Güvenlik Merkezi'nde (Center for a New American Security) çalışan ve eski bir ABD askeri olan Scharre, "Army of None" (Hiç Kimsenin Ordusu) adlı kitabında, otonom silahların potansiyel etkilerini inceler. Scharre, bu teknolojilerin kaçınılmaz olduğunu ancak onlara yönelik politikaların, uluslararası normların ve ahlaki sınırların şimdiden belirlenmesi gerektiğini savunur.
  • Wendell Wallach: Yapay zekâ etiği ve biyo-etik üzerine çalışan bir başka düşünürdür. Yapay zekâ sistemlerinin "ahlaki riskleri" üzerine odaklanmıştır ve bu teknolojilerin insanlık için oluşturabileceği varoluşsal tehlikeleri (Bostrom'a benzer bir şekilde) inceler.

Bu düşünürler, bir yanda teknolojinin sunduğu potansiyel "rasyonel" savaş pratiklerini savunurken, diğer yanda teknolojinin insan kontrolünden tamamen çıkması ve insanlık dışı bir savaş gerçekliği yaratması riskine karşı uyarıda bulunuyorlar.

1. Adil Savaş Teorisi ve Otonomi

Bu alandaki filozoflar, binlerce yıllık Adil Savaş Teorisi (Just War Theory) geleneğini, otonom silah sistemlerinin yeni gerçekliğine uyguluyorlar. Bu teori, savaşın ne zaman (jus ad bellum) ve nasıl (jus in bello) adil olduğunu belirlemeye çalışır.

  • J. W. van der Slikke: Savaş etiği üzerine çalışan bir filozoftur. Otonom silahların, savaş hukukunun temel ilkelerinden olan "ayrımcılık" ve "orantılılık" ilkelerine nasıl uyum sağlayabileceği sorusunu derinlemesine inceler. Otonom sistemlerin bu ilkeleri, insan askerlere kıyasla daha rasyonel bir şekilde uygulayıp uygulayamayacağını tartışır.
  • Robert Sparrow: Bu alanda en önemli ve eleştirel seslerden biridir. Sparrow, otonom silahların, insan ahlaki failliğini (moral agency) ortadan kaldırdığını savunur. Bir robotun bir insanı öldürme kararını vermesinin, savaşı ahlaki sorumluluktan arındırdığını ve savaşın insanlık dışı bir "problem çözme" eylemine dönüştürdüğünü ileri sürer.

2. İnsan Failliği ve Sorumluluk

Bu felsefeciler, karar verme yetkisini bir makineye devretmenin, insan sorumluluğunu ve dolayısıyla insan doğasını nasıl değiştireceğini sorgular.

  • Peter Asaro: Medya felsefesi ve robot etiği üzerine çalışan bir filozoftur. Asaro, otonom silahların geliştirilmesine karşı çıkan Uluslararası Robot Silahları Kontrol Komitesi (ICRAC)'nin kurucu üyelerindendir. Felsefi argümanlarını, otonom sistemlerin savaş sırasında sorumlu ve hesap verebilir eylemlerden yoksun olacağı tezi üzerine kurar.
  • Patrick Lin: Otonom teknolojiler ve etik üzerine çalışan bir düşünürdür. Lin, bir robotun ahlaki kararlar alıp alamayacağını sorgularken, insan-makine etkileşiminin karmaşık ahlaki manzarasını analiz eder. Sorumluluğun ne yalnızca insanda ne de yalnızca robotta olduğunu, aksine ikisi arasındaki karmaşık bir etkileşimde yer aldığını belirtir.

3. YZ'nin Ahlaki Statüsü

  • Wendell Wallach: Wallach, yapay zekânın ahlaki statüsünü sorgular. Bir robotun, ahlaki bir aracı (moral agent) veya ahlaki bir hasta (moral patient) olup olamayacağı sorusunu felsefi temellerde tartışır. Savaş alanında bu sorunun, robotların ahlaki olarak yargılanıp yargılanamayacağı veya onlara karşı ahlaki bir sorumluluğumuzun olup olmadığı gibi kritik soruları beraberinde getirdiğini vurgular.

Bu filozoflar, askeri teknolojilerin tartışmasını, sadece teknik yeterlilik veya operasyonel verimlilikten çıkarıp, onu adalet, insanlık, sorumluluk ve ahlaki faillik gibi evrensel felsefi sorunlar bağlamında ele alıyorlar.

1. Sorumluluk ve Hukuki Belirsizlik: Karar Veren Kim?

  • Savaş Hukukunun Yetersizliği: 

           Güncel Vakalar: "İsrail'in Gazze ve Lübnan'da yapay zekalı karar verme sistemlerini kullanarak bombalama hedefleri belirlemesi" örneği, otonom sistemlerin sadece teorik bir risk olmadığını, halihazırda sıcak çatışma bölgelerinde kullanıldığını gösteriyor. Bu örnek, "sorumluluk boşluğu" tartışmasını doğrudan somut bir duruma bağlıyor.

           Ahlaki ve Hukuki Sorumluluk: "Sorumluluk boşluğu" otonom bir sistemin neden olduğu bir zarardan kimin sorumlu tutulacağı sorusunun henüz net bir cevabının olmadığını öne sürüyor. Bu boşluk, ne tetiğe basan bir asker ne de sistemi tasarlayan bir mühendis doğrudan sorumlu tutulamayacağından oluşuyor.Hukuki Sessizlik: Uluslararası hukuk bu konuda "sessiz kalılyor" ve yeni kuralların zorunlu olduğunu belirtiyor.

 2. İnsan Failliği ve Varlığının Dönüşümü

Bu bölüm, felsefenin daha soyut, varoluşsal sorularını ele alır.

  • Teknoloji-İnsan İlişkisi: Otonom silahlar insanı eylemden kopartıp, ahlaki yargıdan uzaklaşmaktadırlar.  Savaşan bir asker, bir makinenin eylemini sadece onaylayan bir operatöre dönüşmektedir.
  • Varlık Statüsü: Her şeyin bir "bütün" (ontolojik varlık) olarak görülmesi fikri, insanın eşsizliğini ve failliğini nasıl tehdit etmektedir. Bir makinenin yaşam ve ölüm kararı alması, insan haysiyetiyle bağdaşmamaktadır.

Veri Kirliliği ve Etik Bilgi Eksikliği: Makine, ahlaki bir özne olamayacağı gibi, temel ahlaki bilgiden de yoksundur. Bu da, karar verme yetkisinin bir insandan bir makineye devredilmesinin ne kadar tehlikeli olduğunu gösterir.

 

İlk iki madde üzerinde biraz daha duralım;

“Ölümcül otonom silah sistemleri üzerine tartışmalar son 5 yılda hızla arttı. Sensör teknolojisi, yapay zekâ ve makine öğrenimi, robotik ve makine mühendisliği, mekatronik ve çeşitli otonomi seviyelerine sahip sistemlerdeki hızlı ve etkileyici gelişmelerin bir sonucu olarak, önümüzdeki yıllarda büyük ölçekte kullanıma sunulacak. Bu otonom ve yarı otonom sistemler, insan müdahalesi ve kontrolü olmadan hedeflere ulaşabiliyor ve görevleri yerine getirebiliyor. Bu sistemlerin hem askeri hem de sivil uygulamalarıyla ilgili temel bir soru, konuşlandırılmalarının sonuçlarının sorumluluğudur. Sistemler çok az insan kontrolü ve müdahalesi olmadan kendi kendine hareket ediyorsa, kabul edilemez risklerden nasıl kaçınılabilir ve insanlar nasıl sorumlu tutulabilir? Ya silahlı insansız hava araçları programlanıp etkinleştirildikten sonra, daha fazla insan müdahalesi olmadan hedefleri seçip vurabilir ve siviller bir saldırıda yanlışlıkla öldürülürse?” (1)

3. Popülizm, Sanayi Lobileri ve Hegemonya

  • Siyasi Engel: Popülist siyasetin, bu derin etik sorunları nasıl basitleştirerek halkın düşünmesini engellediğini biliyoruz. "Dış düşmanlara karşı güçlü olmalıyız" gibi söylemlerin, otonom silahların getirdiği riskleri nasıl gizlediğinin tanığıyız.
  • Ekonomik Çıkar: Savunma sanayi şirketlerinin finansal çıkarlarının, etik tartışmaları nasıl bastırdığını ve yasa koyucuları etkileyerek regülasyonların önünü nasıl tıkadığı da başka bir gerçek.

Soruna çözüm arama çabaları:

Günümüzde  otonom silah sistemlerinin kullanımını tamamen yasaklayan bağlayıcı, küresel bir anlaşma veya sözleşme bulunmamaktadır. Ancak, bu silahların kullanımıyla ilgili ciddi etik, hukuki ve güvenlik endişeleri, BM içinde yoğun bir tartışma ve diplomasi sürecini tetiklemiştir.

BM'nin bu konudaki çalışmalarının ana platformu, "Belirli Konvansiyonel Silahlar Sözleşmesi" (Convention on Certain Conventional Weapons - CCW) bünyesinde kurulan Hükümet Uzmanları Grubu (Group of Governmental Experts - GGE)'dur. Bu grup, 2014 yılından bu yana otonom silah sistemlerini tartışmak için düzenli olarak toplanmaktadır.

Tartışmalar sonucunda ortaya çıkan ve üzerinde uzlaşılan bazı önemli ilkeler şunlardır:

  • Uluslararası İnsancıl Hukuk'un Uygulanabilirliği: Tüm otonom silah sistemlerinin, savaş hukuku ve insancıl hukuk ilkelerine (ayrım gözetme, orantılılık ve önlem alma) tam olarak uyması gerektiği kabul edilmiştir.
  • Anlamlı İnsan Kontrolü (Meaningful Human Control): Bu kavram, BM müzakerelerinin merkezinde yer almaktadır. Genel kanı, otonom sistemler üzerinde "anlamlı" bir insan kontrolünün her zaman korunması gerektiğidir. Bunun ne anlama geldiği hala tartışılsa da, bir sistemin hedef seçme ve öldürme kararını tamamen insandan bağımsız vermemesi gerektiği yönünde güçlü bir fikir birliği mevcuttur.
  • Hesap Verebilirlik ve Sorumluluk: Herhangi bir insansız sistemin neden olduğu zararlardan kimin sorumlu olacağı (operatör, üretici, komutan vb.) sorusu, hukuki açıdan en büyük engellerden biridir ve bu konunun netleştirilmesi gerekliliği vurgulanmaktadır.

Özetle, BM bu silahların potansiyel tehlikesinin farkındadır ve yasaklama çağrıları mevcuttur (özellikle Genel Sekreter António Guterres bu konuda net bir duruş sergilemiştir). Ancak, teknolojiye yatırım yapan ve askeri üstünlüklerini korumak isteyen devletlerin direnci nedeniyle, bağlayıcı bir anlaşma yerine, şimdilik bu teknolojilerin geliştirilmesi ve kullanımında rehberlik edecek ahlaki ve hukuki ilkelerin belirlenmesine odaklanılmıştır.

İnsanlık adına düşünenler durumun farkında ve ilkeler öneriyorlar. Teori sorunu yok, ilkelerin pratiğe yansımasında engeller var.

İhlallerin temel nedenleri, tartıştığımız felsefi ve teknolojik dinamiklerle yakından ilgilidir:

1. Politik ve Teknolojik İrade

Uluslararası hukuk ve etik ilkeler, devletlerin siyasi ve askeri hedefleriyle çatıştığında sıklıkla geride bırakılır. Devletler, ulusal güvenlik, stratejik avantaj veya askeri üstünlük elde etmek için bu kuralları göz ardı edebilir. Özellikle yapay zekâ ve otonom silahlar gibi yeni teknolojiler, mevcut yasaların boşluklarından yararlanma imkânı sunar. Bu, Andrew Feenberg'in eleştirdiği teknolojik determinizmin bir yansımasıdır: eğer bir teknoloji yapılabiliyorsa, mutlaka kullanılacaktır, etik sonuçlarına bakılmaksızın.

2. Yaptırım Mekanizmalarının Zayıflığı

Uluslararası Adalet Divanı veya Uluslararası Ceza Mahkemesi gibi kurumlar, ulus devletlerin egemenlikleri karşısında sınırlı bir yaptırım gücüne sahiptir. Güçlü devletler, bu mahkemelerin yargı yetkisini tanımayabilir veya kararlarını uygulamayabilir. İlkelerin varlığı, ihlallerin cezalandırılacağı anlamına gelmez.

3. Teknolojinin Ahlaki Sorumluluğu Bulanıklaştırması

Peter-Paul Verbeek'in teorisi, teknolojinin ahlaki sorumluluğu bulanıklaştırabileceğini söyler. Savaş alanında, otonom bir sistem tarafından alınan kararlar, insan askerlerin doğrudan sorumluluğunu gizleyebilir. Bir askerin tetiği çekmesiyle, bir operatörün otonom bir sistemin kararını onaylaması arasında ahlaki ve hukuki bir gri alan oluşur. Bu durum, ihlallerin "teknik bir hata" olarak gösterilmesine zemin hazırlayabilir.

Sonuç olarak, Filistin ve Ukrayna gibi örnekler, ilkelerin işe yaramadığını değil, aksine onlara olan ihtiyacın ne kadar büyük olduğunu gösteriyor.

Hatta, biyo-teknoloji kadar değil, belki de ondan daha fazla tartışılmayı hak ediyor. Biyo-teknoloji insanı içeriden, varoluşsal olarak değiştirirken; harp teknolojisi, insanın dış dünyayla olan en yıkıcı ilişkisini, yani savaşı, kökten dönüştürüyor.

Bu ikisi de, burada tartıştığımız felsefi kavramların en uç noktalarını temsil ediyor:

  • İkisi de, Yuk Hui'nin bahsettiği anlamda onto-teknolojik varlıklardır. Biyo-teknoloji, insanın bedenini ve varoluşsal kimliğini yeniden tanımlarken; harp teknolojisi, savaşın, adaletin ve yaşamın değerini değiştiriyor.
  • İkisi de, Peter-Paul Verbeek'in vurguladığı gibi, ahlaki aracılardır. Biyo-teknoloji, hasta-doktor ilişkisine ve ahlaki seçimlere aracılık ederken; harp teknolojisi, insan-insan arasındaki çatışmaya ve ölüm kararlarına aracılık ediyor.

Bu nedenle, her ikisine de odaklanan tartışmalar, teknolojinin en büyük vaatleri (sağlık, uzun ömür) ile en büyük tehditleri (kitlesel yıkım, varoluşsal risk) arasında bir köprü kurarak, içinde yaşadığımız çağın en temel etik sorularını soruyor.

Felsefenin alanı, bir şeyin "ne olması gerektiği"dir. Siyasetin ve endüstrinin alanı ise "neyin mümkün olduğu" veya "neye hizmet ettiği"dir. İşte tam bu noktada bir çatışma doğar:

  • Popülizm: Siyasetçiler, bu karmaşık etik sorunları "dış tehdit" ve "ulusal güvenlik" gibi basit, duygusal sloganlara indirger. Savaş robotları, ahlaki bir tartışma konusu olmaktan çıkarılıp, "düşmanları yenecek" ve "vatanımızı koruyacak" bir araç olarak sunulur. Bu söylem, halkın bu teknolojilerin etik boyutlarını sorgulamasını engeller ve felsefenin derin sorularını bir kenara iter.
  • Sanayi Lobileri: Savunma sanayi şirketleri için otonom silah sistemleri, milyar dolarlık bir pazar demektir. Bu şirketler, geliştirdikleri teknolojilerin yarattığı etik riskleri minimize etmek için yoğun lobi faaliyetleri yürütürler. Bu faaliyetler, yasa yapıcıları ve politikacıları etkileyerek, otonom silahlara kısıtlama getiren uluslararası anlaşmaların veya ulusal yasaların önünü keser.

Bu durum, Andrew Feenberg'in teknoloji eleştirisini mükemmel şekilde doğrular. Feenberg'e göre, teknoloji sadece rasyonel bir süreç değildir; aynı zamanda ekonomik ve politik güçlerin bir yansımasıdır. Popülizm ve lobicilik, bu güçlerin ahlaki tartışmaları nasıl kendi çıkarları doğrultusunda manipüle ettiğini gösterir.

Sonuç yerine

Tıpkı "biyo-etik"in canlılar ve teknoloji arasındaki ahlaki alanı tanımlaması gibi, tartıştığımız askeri teknoloji  alanı da yeni bir kavramla ifade edilmeyi bekliyor.

İşte bu alana yönelik iki olası kavramsallaştırma:


1. Polemo-Etik (Polemoethics)

Bu terim, Yunanca savaş anlamına gelen "polemos" kelimesinden türetilmiştir. Tıpkı yaşam etiği anlamına gelen "biyo-etik" gibi, bu terim de "savaş etiği" alanını daha geniş ve güncel bir felsefi çerçeveye oturtur.

  • Neyi Kapsar: Bu kavram, savaşın tüm ahlaki boyutlarını (Adil Savaş Teorisi, savaşın ahlaki maliyeti vb.) kapsarken, özellikle yapay zekâ ve robotik gibi teknolojilerin yarattığı yeni etik sorunlara odaklanır. Bir yandan klasik felsefeye atıfta bulunurken, diğer yandan bu teknolojilerin sunduğu yeni "savaş varlıklarını" (polemo-ontoloji) inceleme alanı açar.

2. Tekno-Savaş Felsefesi (Philosophy of Techno-Warfare)

Bu terim, konunun özünü daha doğrudan ve modern bir dille ifade eder. Felsefeyi, teknolojiyi ve savaşı net bir şekilde birleştirir.

  • Neyi Kapsar: Bu kavramsallaştırma, teknolojinin savaşı sadece bir araç olarak değil, savaşın doğasını kökten dönüştüren bir güç olarak ele alır. Yapay zekânın karar verme süreçlerine dahil olması, harp hukukundaki sorumluluk boşlukları ve teknolojinin kendisinin bir "bitin" olarak ontolojik statüsü gibi konuları doğrudan merkezine alır. Bu terim, askeri alandaki teknolojik gelişmeleri sadece pratik sorunlar olarak değil, aynı zamanda varoluşsal sorunlar olarak görmeyi teşvik eder.

Her iki kavram da, tüm felsefi sorunları (popülizm, lobi faaliyetleri, uluslararası hukuk) ele almak için güçlü bir çerçeve sunar. Bir kavramı seçmek bile, bu alanın nasıl anlaşılacağı hakkında felsefi bir duruş sergilemektir.

Felsefe literatüründe bu alanı tam olarak karşılayan ve "biyo-etik" gibi yaygınlaşmış tek bir kavram olmasa da, tartışmalar genellikle birkaç yerleşik başlık altında yürütülür:


1. Adil Savaş Teorisi (Just War Theory)

Bu, savaşın ahlaki boyutlarını binlerce yıldır ele alan klasik bir felsefi gelenektir. Günümüz filozofları, otonom silah sistemlerinin yarattığı sorunları, bu teorinin jus ad bellum (savaş başlatma hakkı) ve jus in bello (savaşta uyulması gereken kurallar) ilkelerine dayanarak incelerler. Bu, en geniş ve en köklü çerçevedir.

2. Askeri Etik (Military Ethics)

Bu kavram, askeri profesyonellerin ve politikacıların savaş sırasında karşılaştıkları ahlaki sorunları doğrudan ele alır. Yapay zekâ ve otonom teknolojilerin yükselişiyle, bu alan "yapay zekânın etik kullanımı," "otonom sistemlerde sorumluluk" gibi alt başlıklara ayrılmıştır.

3. Otonom Silah Sistemlerinin Etiği (Ethics of Autonomous Weapons Systems)

Teknolojinin yarattığı spesifik sorunlara odaklanan daha dar bir kavramdır. Filozoflar ve hukukçular, "insan kontrolü," "anlamlı insan kontrolü" ve "algoritmik karar verme" gibi konuları bu başlık altında tartışırlar.

Kaynaklar:

Türkçe Makaleler ve Raporlar

  • Adil Savaş Teorisi ve Otonom Silahlar
    • "Otonom Silah Sistemleri ve Uluslararası Hukuk: Yeni Bir Savaş Çağı Mı?" (Uluslararası Hukuk ve Politika): Bu makale, Adil Savaş Teorisi'nin temel ilkeleri olan ayrım gözetme ve orantılılık kurallarının, otonom silah sistemleri tarafından nasıl ihlal edildiğini veya edilebileceğini tartışır.
    • "Yapay Zekânın Savaş Hukukuna Etkileri ve Otonom Silah Sistemleri" (Türk Silahlı Kuvvetleri Dergisi): Hukuki perspektiften, bu teknolojilerin uluslararası savaş hukuku (jus in bello) üzerindeki pratik etkilerini ve mevcut yasal boşlukları inceler.
  • Askeri Etik ve Yapay Zekâ
    • "Yapay Zekâ ve Askeri Etik: Sorumluluk ve Hesap Verebilirlik Sorunu" (Bilim ve Ütopya): Yapay zekâ tarafından verilen ölümlü kararlarda etik sorumluluğun kimde olduğu sorusuna odaklanır. İnsan operatör, yazılımcı veya komutan arasındaki hesap verebilirlik zincirini sorgular.
    • "Yapay Zekâ ve Güvenlik Felsefesi" (Ankara Üniversitesi): Yapay zekâ teknolojilerinin askeri ve sivil güvenlik üzerindeki etik ve felsefi yansımalarını ele alan kapsamlı bir çalışmadır.

İngilizce Makaleler ve Raporlar

  • Ethics of Autonomous Weapons Systems
    • "Lethal Autonomous Weapons and the Just War Tradition" (Notre Dame Journal of Law, Ethics & Public Policy): Bu makale, otonom silahların kullanımını, Adil Savaş Teorisi'nin hem savaşa girme (jus ad bellum) hem de savaş içinde davranma (jus in bello) ilkeleri açısından derinlemesine inceler.
    • "Meaningful Human Control over Weapons Systems: An Ethical and Practical Imperative" (The Lancet): Bu makale, otonom silahlar üzerinde insan kontrolünün neden sadece hukuki değil, aynı zamanda etik ve pratik bir gereklilik olduğunu savunur.
    • "The Case Against Killer Robots" (Human Rights Watch - Rapor): Noel Sharkey'nin de içinde bulunduğu bu sivil toplum örgütü raporu, otonom silahların ahlaki, hukuki ve güvenlik risklerini anlatan temel metinlerden biridir.
  • Military Ethics and AI
    • "The Ethics of Artificial Intelligence in Warfare" (Journal of Military Ethics): Bu makale, askeri etik felsefesi çerçevesinde yapay zekâ teknolojilerinin kullanımını ve bunun askerlerin ahlaki ve profesyonel kimliklerini nasıl etkilediğini tartışır.
    • "Autonomous Systems and the Future of War" (RAND Corporation - Rapor): Güvenlik ve savunma alanında saygın bir düşünce kuruluşu olan RAND tarafından hazırlanan bu rapor, otonom sistemlerin askeri strateji ve etik üzerindeki potansiyel etkilerini analiz eder.


Hiç yorum yok:

Yorum Gönder