Teknoloji felsefesini oldukça geniş bir alanda ve felsefi düşünce bağlamında ele alırken, pratik anlamda insanı en çok etkileyen “askeri teknolojiyi” bir başlık olarak değerlendirmek kaçınılmazdı.
Harp teknolojisi, çoğu zaman sadece savaşların nasıl yapıldığını dönüştüren tarafsız bir araç olarak görülür. Ancak bu basit yorum, modern teknolojinin karmaşıklığını ve derin ahlaki sonuçlarını göz ardı eder. Yapay zekâ, robotik ve otonom sistemlerin yükselişiyle birlikte, savaşın kendisi yalnızca bir eylem olmaktan çıkıp, yeni bir varlık biçimine, yani onto-teknolojik bir olguya dönüşmektedir. Bu alt bölüm, askeri teknolojiyi bu yeni felsefi bağlamda ele alarak, onun sadece bir araç değil, aynı zamanda etik, hukuki ve varoluşsal bir hegemonya aracı olduğuna dikkat çekmektedir.
Adil Savaş Teorisi gibi klasik düşünce okulları, otonom sistemlerin "ayrım gözetme" ve "orantılılık" ilkelerini nasıl sınadığını anlamamız için birer başlangıç noktası sunar. Ancak, asıl mesele, yapay zekânın karar verme süreçlerine dâhil olmasıyla ortaya çıkan sorumluluk boşluğunda ve ahlaki failliğin (moral agency) kimde kaldığı sorusunda yatar. Bu teknolojiler, tıpkı Peter-Paul Verbeek'in ifade ettiği gibi, insan ile eylem arasına girerek sorumluluğu bulanıklaştırır.
Bu sorgulamanın önündeki en büyük engeller ise, siyasi popülizmin ve devasa finansal güce sahip savunma sanayinin lobi faaliyetleridir. Bu güçler, karmaşık etik tartışmaları basitleştirerek, eleştirel düşüncenin önünü tıkamakta ve teknolojiyi bir kontrol aracı olarak kullanmaktadır. Bu tür hegemonyayı açığa çıkarmak ve harp teknolojisi felsefesini, siyasi söylemin ötesinde, insanlığın kendisini ilgilendiren temel bir alan olarak konumlandırmak düşüncenin önünde bir görev olarak durmaktadır.
Burada konuya dikkat çekmek ve 21. Yüzyıl felsefesinin genel tutumu içinde diğer düşünme alanları ile bağlam kurmanın gerekliğini göstermeye çalışıyoruz.
B.Berksan
Dikkat çekilen sorunlara temel olan Yapay Zeka eksenli, askeri teknolojileri ve kullanım alanlarını aşağıdaki tabloda görülmektedir.
Tartışılan konular.
1. Otonom Silah Sistemleri Tartışması: Ronald Arkin vs.
Noel Sharkey
Bu alandaki en temel tartışmalardan biri, öldürücü otonom
robotların (Lethal Autonomous Weapons Systems - LAWS) etik olup
olmadığıdır. Bu tartışmanın iki ana figürü vardır:
- Ronald
Arkin: Georgia Teknoloji Enstitüsü'nden bir robotik uzmanıdır.
Feenberg'e benzer bir şekilde, teknolojinin potansiyelini savunan bir araçsalcı
(instrumentalist) yaklaşıma sahiptir. Arkin, robotların, insanların
aksine duygusallıktan, öfkeden, yorgunluktan veya intikam duygusundan
etkilenmediğini öne sürer. Bu nedenle, uluslararası harp hukukuna
(sivilleri ayırma ve orantılılık ilkesi gibi) insanlar tarafından kullanılan
silahlara göre daha iyi uyum sağlayabileceklerini ve daha etik kararlar
verebileceklerini savunur.
- Noel
Sharkey: Sheffield Üniversitesi'nde bir yapay zekâ ve robotik
profesörüdür. "Robot Katillere Karşı Uluslararası Kampanya"
(Campaign to Stop Killer Robots) adlı sivil toplum örgütünün önde
gelen seslerinden biridir. Sharkey, Arkin'in argümanına karşı çıkar. Bir
robotun, savaşın karmaşık ve belirsiz ortamında, etik ve ahlaki yargı
gerektiren kararları veremeyeceğini savunur. Otonom silahların
yaygınlaşmasının, insan yaşamının değerini düşüreceğini ve savaş hukukunun
temelden sarsılacağını belirtir.
2. Stratejik ve Politik Yaklaşım
Bu alanda, konuya daha çok askeri strateji ve uluslararası
ilişkiler açısından yaklaşan düşünürler de vardır.
- Paul
Scharre: Amerikan Güvenlik Merkezi'nde (Center for a New American
Security) çalışan ve eski bir ABD askeri olan Scharre, "Army of
None" (Hiç Kimsenin Ordusu) adlı kitabında, otonom silahların
potansiyel etkilerini inceler. Scharre, bu teknolojilerin kaçınılmaz
olduğunu ancak onlara yönelik politikaların, uluslararası normların ve
ahlaki sınırların şimdiden belirlenmesi gerektiğini savunur.
- Wendell
Wallach: Yapay zekâ etiği ve biyo-etik üzerine çalışan bir başka
düşünürdür. Yapay zekâ sistemlerinin "ahlaki riskleri" üzerine
odaklanmıştır ve bu teknolojilerin insanlık için oluşturabileceği
varoluşsal tehlikeleri (Bostrom'a benzer bir şekilde) inceler.
Bu düşünürler, bir yanda teknolojinin sunduğu potansiyel "rasyonel" savaş pratiklerini savunurken, diğer yanda teknolojinin insan kontrolünden tamamen çıkması ve insanlık dışı bir savaş gerçekliği yaratması riskine karşı uyarıda bulunuyorlar.
1. Adil Savaş Teorisi ve Otonomi
Bu alandaki filozoflar, binlerce yıllık Adil Savaş
Teorisi (Just War Theory) geleneğini, otonom silah sistemlerinin yeni
gerçekliğine uyguluyorlar. Bu teori, savaşın ne zaman (jus ad bellum) ve nasıl
(jus in bello) adil olduğunu belirlemeye çalışır.
- J.
W. van der Slikke: Savaş etiği üzerine çalışan bir filozoftur. Otonom
silahların, savaş hukukunun temel ilkelerinden olan "ayrımcılık"
ve "orantılılık" ilkelerine nasıl uyum sağlayabileceği sorusunu
derinlemesine inceler. Otonom sistemlerin bu ilkeleri, insan askerlere
kıyasla daha rasyonel bir şekilde uygulayıp uygulayamayacağını tartışır.
- Robert
Sparrow: Bu alanda en önemli ve eleştirel seslerden biridir. Sparrow,
otonom silahların, insan ahlaki failliğini (moral agency) ortadan
kaldırdığını savunur. Bir robotun bir insanı öldürme kararını vermesinin,
savaşı ahlaki sorumluluktan arındırdığını ve savaşın insanlık dışı bir
"problem çözme" eylemine dönüştürdüğünü ileri sürer.
2. İnsan Failliği ve Sorumluluk
Bu felsefeciler, karar verme yetkisini bir makineye
devretmenin, insan sorumluluğunu ve dolayısıyla insan doğasını nasıl
değiştireceğini sorgular.
- Peter
Asaro: Medya felsefesi ve robot etiği üzerine çalışan bir filozoftur.
Asaro, otonom silahların geliştirilmesine karşı çıkan Uluslararası
Robot Silahları Kontrol Komitesi (ICRAC)'nin kurucu üyelerindendir.
Felsefi argümanlarını, otonom sistemlerin savaş sırasında sorumlu ve hesap
verebilir eylemlerden yoksun olacağı tezi üzerine kurar.
- Patrick
Lin: Otonom teknolojiler ve etik üzerine çalışan bir düşünürdür. Lin,
bir robotun ahlaki kararlar alıp alamayacağını sorgularken, insan-makine
etkileşiminin karmaşık ahlaki manzarasını analiz eder. Sorumluluğun ne
yalnızca insanda ne de yalnızca robotta olduğunu, aksine ikisi arasındaki
karmaşık bir etkileşimde yer aldığını belirtir.
3. YZ'nin Ahlaki Statüsü
- Wendell
Wallach: Wallach, yapay zekânın ahlaki
statüsünü sorgular. Bir robotun, ahlaki bir aracı (moral agent) veya
ahlaki bir hasta (moral patient) olup olamayacağı sorusunu felsefi
temellerde tartışır. Savaş alanında bu sorunun, robotların ahlaki olarak
yargılanıp yargılanamayacağı veya onlara karşı ahlaki bir sorumluluğumuzun
olup olmadığı gibi kritik soruları beraberinde getirdiğini vurgular.
Bu filozoflar, askeri teknolojilerin tartışmasını, sadece
teknik yeterlilik veya operasyonel verimlilikten çıkarıp, onu adalet,
insanlık, sorumluluk ve ahlaki faillik gibi evrensel felsefi sorunlar
bağlamında ele alıyorlar.
1. Sorumluluk ve Hukuki Belirsizlik: Karar Veren Kim?
- Savaş
Hukukunun Yetersizliği:
Güncel Vakalar: "İsrail'in
Gazze ve Lübnan'da yapay zekalı karar verme sistemlerini kullanarak bombalama
hedefleri belirlemesi" örneği, otonom sistemlerin sadece teorik bir risk
olmadığını, halihazırda sıcak çatışma bölgelerinde kullanıldığını gösteriyor.
Bu örnek, "sorumluluk boşluğu" tartışmasını doğrudan somut bir duruma
bağlıyor.
Bu bölüm, felsefenin daha soyut, varoluşsal sorularını ele alır.
- Teknoloji-İnsan
İlişkisi: Otonom silahlar insanı eylemden kopartıp, ahlaki yargıdan uzaklaşmaktadırlar. Savaşan bir asker, bir makinenin eylemini sadece onaylayan bir
operatöre dönüşmektedir.
- Varlık
Statüsü: Her şeyin bir "bütün" (ontolojik varlık) olarak
görülmesi fikri, insanın eşsizliğini ve failliğini nasıl tehdit
etmektedir. Bir makinenin yaşam ve ölüm kararı alması, insan
haysiyetiyle bağdaşmamaktadır.
Veri Kirliliği ve Etik Bilgi Eksikliği: Makine,
ahlaki bir özne olamayacağı gibi, temel ahlaki bilgiden de yoksundur. Bu da,
karar verme yetkisinin bir insandan bir makineye devredilmesinin ne kadar
tehlikeli olduğunu gösterir.
İlk iki madde üzerinde biraz daha duralım;
“Ölümcül otonom silah sistemleri
üzerine tartışmalar son 5 yılda hızla arttı. Sensör teknolojisi, yapay zekâ ve
makine öğrenimi, robotik ve makine mühendisliği, mekatronik ve çeşitli otonomi
seviyelerine sahip sistemlerdeki hızlı ve etkileyici gelişmelerin bir sonucu
olarak, önümüzdeki yıllarda büyük ölçekte kullanıma sunulacak. Bu otonom ve
yarı otonom sistemler, insan müdahalesi ve kontrolü olmadan hedeflere
ulaşabiliyor ve görevleri yerine getirebiliyor. Bu sistemlerin hem askeri hem
de sivil uygulamalarıyla ilgili temel bir soru, konuşlandırılmalarının
sonuçlarının sorumluluğudur. Sistemler çok az insan kontrolü ve müdahalesi
olmadan kendi kendine hareket ediyorsa, kabul edilemez risklerden nasıl
kaçınılabilir ve insanlar nasıl sorumlu tutulabilir? Ya silahlı insansız hava
araçları programlanıp etkinleştirildikten sonra, daha fazla insan müdahalesi
olmadan hedefleri seçip vurabilir ve siviller bir saldırıda yanlışlıkla
öldürülürse?” (1)
3. Popülizm, Sanayi Lobileri ve Hegemonya
- Siyasi
Engel: Popülist siyasetin, bu derin etik sorunları
nasıl basitleştirerek halkın düşünmesini engellediğini biliyoruz.
"Dış düşmanlara karşı güçlü olmalıyız" gibi söylemlerin, otonom
silahların getirdiği riskleri nasıl gizlediğinin tanığıyız.
- Ekonomik Çıkar: Savunma sanayi şirketlerinin finansal çıkarlarının, etik tartışmaları nasıl bastırdığını ve yasa koyucuları etkileyerek regülasyonların önünü nasıl tıkadığı da başka bir gerçek.
Soruna çözüm arama çabaları:
Günümüzde
otonom silah sistemlerinin kullanımını tamamen yasaklayan bağlayıcı,
küresel bir anlaşma veya sözleşme bulunmamaktadır. Ancak, bu silahların
kullanımıyla ilgili ciddi etik, hukuki ve güvenlik endişeleri, BM içinde yoğun
bir tartışma ve diplomasi sürecini tetiklemiştir.
BM'nin bu konudaki çalışmalarının ana platformu, "Belirli
Konvansiyonel Silahlar Sözleşmesi" (Convention on Certain Conventional
Weapons - CCW) bünyesinde kurulan Hükümet Uzmanları Grubu (Group of
Governmental Experts - GGE)'dur. Bu grup, 2014 yılından bu yana otonom
silah sistemlerini tartışmak için düzenli olarak toplanmaktadır.
Tartışmalar sonucunda ortaya çıkan ve üzerinde
uzlaşılan bazı önemli ilkeler şunlardır:
- Uluslararası
İnsancıl Hukuk'un Uygulanabilirliği: Tüm
otonom silah sistemlerinin, savaş hukuku ve insancıl hukuk ilkelerine
(ayrım gözetme, orantılılık ve önlem alma) tam olarak uyması gerektiği
kabul edilmiştir.
- Anlamlı
İnsan Kontrolü (Meaningful Human Control): Bu
kavram, BM müzakerelerinin merkezinde yer almaktadır. Genel kanı, otonom
sistemler üzerinde "anlamlı" bir insan kontrolünün her zaman
korunması gerektiğidir. Bunun ne anlama geldiği hala tartışılsa da, bir
sistemin hedef seçme ve öldürme kararını tamamen insandan bağımsız
vermemesi gerektiği yönünde güçlü bir fikir birliği mevcuttur.
- Hesap
Verebilirlik ve Sorumluluk: Herhangi bir insansız sistemin neden olduğu
zararlardan kimin sorumlu olacağı (operatör, üretici, komutan vb.) sorusu,
hukuki açıdan en büyük engellerden biridir ve bu konunun netleştirilmesi
gerekliliği vurgulanmaktadır.
Özetle, BM bu silahların potansiyel tehlikesinin
farkındadır ve yasaklama çağrıları mevcuttur (özellikle Genel Sekreter António
Guterres bu konuda net bir duruş sergilemiştir). Ancak, teknolojiye yatırım
yapan ve askeri üstünlüklerini korumak isteyen devletlerin direnci nedeniyle,
bağlayıcı bir anlaşma yerine, şimdilik bu teknolojilerin geliştirilmesi ve
kullanımında rehberlik edecek ahlaki ve hukuki ilkelerin belirlenmesine
odaklanılmıştır.
İnsanlık adına düşünenler durumun farkında ve
ilkeler öneriyorlar. Teori sorunu yok, ilkelerin pratiğe yansımasında engeller
var.
İhlallerin temel nedenleri, tartıştığımız felsefi
ve teknolojik dinamiklerle yakından ilgilidir:
1. Politik ve Teknolojik İrade
Uluslararası hukuk ve etik ilkeler, devletlerin
siyasi ve askeri hedefleriyle çatıştığında sıklıkla geride bırakılır.
Devletler, ulusal güvenlik, stratejik avantaj veya askeri üstünlük elde etmek
için bu kuralları göz ardı edebilir. Özellikle yapay zekâ ve otonom silahlar
gibi yeni teknolojiler, mevcut yasaların boşluklarından yararlanma imkânı
sunar. Bu, Andrew Feenberg'in eleştirdiği teknolojik determinizmin
bir yansımasıdır: eğer bir teknoloji yapılabiliyorsa, mutlaka kullanılacaktır,
etik sonuçlarına bakılmaksızın.
2. Yaptırım Mekanizmalarının Zayıflığı
Uluslararası Adalet Divanı veya Uluslararası Ceza
Mahkemesi gibi kurumlar, ulus devletlerin egemenlikleri karşısında sınırlı bir
yaptırım gücüne sahiptir. Güçlü devletler, bu mahkemelerin yargı yetkisini
tanımayabilir veya kararlarını uygulamayabilir. İlkelerin varlığı, ihlallerin
cezalandırılacağı anlamına gelmez.
3. Teknolojinin Ahlaki Sorumluluğu
Bulanıklaştırması
Peter-Paul Verbeek'in teorisi,
teknolojinin ahlaki sorumluluğu bulanıklaştırabileceğini söyler. Savaş
alanında, otonom bir sistem tarafından alınan kararlar, insan askerlerin
doğrudan sorumluluğunu gizleyebilir. Bir askerin tetiği çekmesiyle, bir
operatörün otonom bir sistemin kararını onaylaması arasında ahlaki ve hukuki
bir gri alan oluşur. Bu durum, ihlallerin "teknik bir hata" olarak
gösterilmesine zemin hazırlayabilir.
Sonuç olarak, Filistin ve Ukrayna gibi örnekler, ilkelerin
işe yaramadığını değil, aksine onlara olan ihtiyacın ne kadar büyük olduğunu
gösteriyor.
Hatta, biyo-teknoloji kadar değil, belki de ondan
daha fazla tartışılmayı hak ediyor. Biyo-teknoloji insanı içeriden, varoluşsal
olarak değiştirirken; harp teknolojisi, insanın dış dünyayla olan en yıkıcı
ilişkisini, yani savaşı, kökten dönüştürüyor.
Bu ikisi de, burada tartıştığımız felsefi kavramların en uç noktalarını temsil ediyor:
- İkisi de, Yuk Hui'nin bahsettiği anlamda onto-teknolojik
varlıklardır. Biyo-teknoloji, insanın bedenini ve varoluşsal kimliğini
yeniden tanımlarken; harp teknolojisi, savaşın, adaletin ve yaşamın
değerini değiştiriyor.
- İkisi de,
Peter-Paul Verbeek'in vurguladığı gibi, ahlaki aracılardır.
Biyo-teknoloji, hasta-doktor ilişkisine ve ahlaki seçimlere aracılık
ederken; harp teknolojisi, insan-insan arasındaki çatışmaya ve ölüm
kararlarına aracılık ediyor.
Bu nedenle, her ikisine de odaklanan tartışmalar,
teknolojinin en büyük vaatleri (sağlık, uzun ömür) ile en büyük tehditleri
(kitlesel yıkım, varoluşsal risk) arasında bir köprü kurarak, içinde
yaşadığımız çağın en temel etik sorularını soruyor.
Felsefenin alanı, bir şeyin "ne olması
gerektiği"dir. Siyasetin ve endüstrinin alanı ise "neyin mümkün
olduğu" veya "neye hizmet ettiği"dir. İşte tam bu noktada bir
çatışma doğar:
- Popülizm:
Siyasetçiler, bu karmaşık etik sorunları "dış tehdit" ve
"ulusal güvenlik" gibi basit, duygusal sloganlara indirger.
Savaş robotları, ahlaki bir tartışma konusu olmaktan çıkarılıp,
"düşmanları yenecek" ve "vatanımızı koruyacak" bir
araç olarak sunulur. Bu söylem, halkın bu teknolojilerin etik boyutlarını
sorgulamasını engeller ve felsefenin derin sorularını bir kenara iter.
- Sanayi
Lobileri: Savunma sanayi şirketleri için otonom silah
sistemleri, milyar dolarlık bir pazar demektir. Bu şirketler,
geliştirdikleri teknolojilerin yarattığı etik riskleri minimize etmek için
yoğun lobi faaliyetleri yürütürler. Bu faaliyetler, yasa yapıcıları ve politikacıları
etkileyerek, otonom silahlara kısıtlama getiren uluslararası anlaşmaların
veya ulusal yasaların önünü keser.
Bu durum, Andrew Feenberg'in teknoloji
eleştirisini mükemmel şekilde doğrular. Feenberg'e göre, teknoloji sadece
rasyonel bir süreç değildir; aynı zamanda ekonomik ve politik güçlerin bir
yansımasıdır. Popülizm ve lobicilik, bu güçlerin ahlaki tartışmaları nasıl
kendi çıkarları doğrultusunda manipüle ettiğini gösterir.
Sonuç yerine
Tıpkı "biyo-etik"in canlılar ve
teknoloji arasındaki ahlaki alanı tanımlaması gibi, tartıştığımız askeri
teknoloji alanı da yeni bir kavramla
ifade edilmeyi bekliyor.
İşte bu alana yönelik iki olası
kavramsallaştırma:
1. Polemo-Etik (Polemoethics)
Bu terim, Yunanca savaş anlamına gelen "polemos"
kelimesinden türetilmiştir. Tıpkı yaşam etiği anlamına gelen "biyo-etik"
gibi, bu terim de "savaş etiği" alanını daha geniş ve güncel
bir felsefi çerçeveye oturtur.
- Neyi
Kapsar: Bu kavram, savaşın tüm ahlaki boyutlarını
(Adil Savaş Teorisi, savaşın ahlaki maliyeti vb.) kapsarken, özellikle
yapay zekâ ve robotik gibi teknolojilerin yarattığı yeni etik sorunlara
odaklanır. Bir yandan klasik felsefeye atıfta bulunurken, diğer yandan bu
teknolojilerin sunduğu yeni "savaş varlıklarını"
(polemo-ontoloji) inceleme alanı açar.
2. Tekno-Savaş Felsefesi (Philosophy of
Techno-Warfare)
Bu terim, konunun özünü daha doğrudan ve modern
bir dille ifade eder. Felsefeyi, teknolojiyi ve savaşı net bir şekilde
birleştirir.
- Neyi
Kapsar: Bu kavramsallaştırma, teknolojinin savaşı
sadece bir araç olarak değil, savaşın doğasını kökten dönüştüren bir güç
olarak ele alır. Yapay zekânın karar verme süreçlerine dahil olması,
harp hukukundaki sorumluluk boşlukları ve teknolojinin kendisinin bir
"bitin" olarak ontolojik statüsü gibi konuları doğrudan
merkezine alır. Bu terim, askeri alandaki teknolojik gelişmeleri sadece
pratik sorunlar olarak değil, aynı zamanda varoluşsal sorunlar olarak
görmeyi teşvik eder.
Her iki kavram da, tüm felsefi sorunları
(popülizm, lobi faaliyetleri, uluslararası hukuk) ele almak için güçlü bir
çerçeve sunar. Bir kavramı seçmek bile, bu alanın nasıl anlaşılacağı hakkında
felsefi bir duruş sergilemektir.
Felsefe literatüründe bu alanı tam olarak
karşılayan ve "biyo-etik" gibi yaygınlaşmış tek bir kavram olmasa da,
tartışmalar genellikle birkaç yerleşik başlık altında yürütülür:
1. Adil Savaş Teorisi (Just War Theory)
Bu, savaşın ahlaki boyutlarını binlerce yıldır
ele alan klasik bir felsefi gelenektir. Günümüz filozofları, otonom silah
sistemlerinin yarattığı sorunları, bu teorinin jus ad bellum (savaş
başlatma hakkı) ve jus in bello (savaşta uyulması gereken kurallar)
ilkelerine dayanarak incelerler. Bu, en geniş ve en köklü çerçevedir.
2. Askeri Etik (Military Ethics)
Bu kavram, askeri profesyonellerin ve
politikacıların savaş sırasında karşılaştıkları ahlaki sorunları doğrudan ele
alır. Yapay zekâ ve otonom teknolojilerin yükselişiyle, bu alan "yapay
zekânın etik kullanımı," "otonom sistemlerde sorumluluk" gibi
alt başlıklara ayrılmıştır.
3. Otonom Silah Sistemlerinin Etiği (Ethics of
Autonomous Weapons Systems)
Teknolojinin yarattığı spesifik sorunlara
odaklanan daha dar bir kavramdır. Filozoflar ve hukukçular, "insan
kontrolü," "anlamlı insan kontrolü" ve "algoritmik karar
verme" gibi konuları bu başlık altında tartışırlar.
Kaynaklar:
Türkçe Makaleler ve Raporlar
- Adil
Savaş Teorisi ve Otonom Silahlar
- "Otonom
Silah Sistemleri ve Uluslararası Hukuk: Yeni Bir Savaş Çağı Mı?"
(Uluslararası Hukuk ve Politika): Bu
makale, Adil Savaş Teorisi'nin temel ilkeleri olan ayrım gözetme ve
orantılılık kurallarının, otonom silah sistemleri tarafından nasıl ihlal
edildiğini veya edilebileceğini tartışır.
- "Yapay
Zekânın Savaş Hukukuna Etkileri ve Otonom Silah Sistemleri" (Türk
Silahlı Kuvvetleri Dergisi): Hukuki perspektiften, bu
teknolojilerin uluslararası savaş hukuku (jus in bello) üzerindeki pratik
etkilerini ve mevcut yasal boşlukları inceler.
- Askeri
Etik ve Yapay Zekâ
- "Yapay
Zekâ ve Askeri Etik: Sorumluluk ve Hesap Verebilirlik Sorunu" (Bilim
ve Ütopya): Yapay zekâ tarafından
verilen ölümlü kararlarda etik sorumluluğun kimde olduğu sorusuna
odaklanır. İnsan operatör, yazılımcı veya komutan arasındaki hesap
verebilirlik zincirini sorgular.
- "Yapay
Zekâ ve Güvenlik Felsefesi" (Ankara Üniversitesi): Yapay
zekâ teknolojilerinin askeri ve sivil güvenlik üzerindeki etik ve felsefi
yansımalarını ele alan kapsamlı bir çalışmadır.
İngilizce Makaleler ve Raporlar
- Ethics of
Autonomous Weapons Systems
- "Lethal
Autonomous Weapons and the Just War Tradition" (Notre Dame Journal
of Law, Ethics & Public Policy): Bu
makale, otonom silahların kullanımını, Adil Savaş Teorisi'nin hem savaşa
girme (jus ad bellum) hem de savaş içinde davranma (jus in bello)
ilkeleri açısından derinlemesine inceler.
- "Meaningful
Human Control over Weapons Systems: An Ethical and Practical
Imperative" (The Lancet): Bu makale, otonom silahlar
üzerinde insan kontrolünün neden sadece hukuki değil, aynı zamanda etik
ve pratik bir gereklilik olduğunu savunur.
- "The
Case Against Killer Robots" (Human Rights Watch - Rapor): Noel
Sharkey'nin de içinde bulunduğu bu sivil toplum örgütü raporu, otonom
silahların ahlaki, hukuki ve güvenlik risklerini anlatan temel
metinlerden biridir.
- Military
Ethics and AI
- "The
Ethics of Artificial Intelligence in Warfare" (Journal of Military
Ethics): Bu makale, askeri etik
felsefesi çerçevesinde yapay zekâ teknolojilerinin kullanımını ve bunun
askerlerin ahlaki ve profesyonel kimliklerini nasıl etkilediğini
tartışır.
- "Autonomous
Systems and the Future of War" (RAND Corporation - Rapor):
Güvenlik ve savunma alanında saygın bir düşünce kuruluşu olan RAND
tarafından hazırlanan bu rapor, otonom sistemlerin askeri strateji ve
etik üzerindeki potansiyel etkilerini analiz eder.
Hiç yorum yok:
Yorum Gönder