Oops! It appears that you have disabled your Javascript. In order for you to see this page as it is meant to appear, we ask that you please re-enable your Javascript!

Yapay Zeka Komut Satırlarının Savaşı

 

Uluslararası robotik araştırmacılarının elitleri akıllı silahların yıkıcı potansiyeline karşı bizi uyarıyor ve bunun yasaklanmasını istiyor. Fakat makineler hakkında düşünmek gerçekten yasaklanabilir mi?

1899‘da, 26 ülkenin siyasileri Hollanda’nın Den Haag şeh­rinde bir barış konferansında buluştu. Onlar „mermi ve mL mayınların uçaklardan atılmasının ve benzeri yöntemle­rin yasaklanması” konusunda anlaştılar. Bu anlamlı derece­de öngörülü bir hareketti, zira Wright kardeşler 1903‘te ilk uçağı icat ettiler. Fakat 1907‘deki ikinci konferansta bu an­laşma anlamsız hale getirildi. „Savunmasız şehirleri her­hangi bir şekilde bombalamak yasaktır *. Bu düzenbazlık ile. politika havadan saldırının potansiyelini keşfettiği gibi ona açıktan yol da vermiş oldu. Savunmasız şehirleri bombala­mama anlaşması da 1937’de Guernicanın bombalanması ile son buldu.

110 yıl ve sayısız bombalama sonrası, silahlar değişti fakat sorunlar aynı kaldı. Yapay Zeka öyle (YZ). bir teknoloji ki bu insanların yaşamını da ölümünü de ciddi derecede değiş­tirebilir. gelişiyor:

Düşünebilen makineler büyük ihtimalle bir savaşta da iyi iş çıkaracaktır. En azından, kendi bilinçlerini edinip pasi- fist fikirlere kapılmadıkça.

Öldürme ehliyeti olan makineler

YZ’nin bilgisi ve inanılmaz potansiyeli YZ endüstrisinin elit­lerini biraz mecbur bıraktı. YZciler Birleşmiş Milletlere bir mektup yazdılar, örneğin Alman Jürgen Schmidhuber ve Teslanm patronu Elon Musk gibi kişiler, bu tarz silahlara yasak getirilmesini istediler. Muska göre YZ yarışı .üçüncü dünya savaşı için en olası gerekçe olacak. Bu gerçekten siya­silerin de gündeminde. Rusya Devlet Başkam Putine göre: »YZ alanında lider olan, dünyayı da yönetecektir.

Fakat YZ silahlarına yasak koymak gerçekten mümkün mü? Bu alan son derece belirsiz ve ilk olarak makinelerin ta­nımını yapmak gerek. Bir çok isimden bahsediliyor, savaş ro­botlarından akıllı silahlara. Siyaset ve bilim ..Lethal Autono- mous Weapons Systems (LAWS), ölümcül otonom silah sistemleri*’, ifadesini kullanıyor. Otonom robotların bağım­sız olarak ödevlerini yapabilmesini, insan müdahalesi olsa bile yabancı ortamlarda mantıklı kararlar alabilmesini ifade ediyor. İnsansız dronlar tek tuşla öldürme için kullanılıyor ve şu an LAWS kararına uygun bir tasarımda değiller.

Ölümcül ve öldürme ehliyetine sahip silahların bu zor tartışmanın merkezinde olmalı. Fakat, bu takip eden sorun­lara da yol açacak zira bir robot bir düşmanı tespit ettiğinde, ahlaki olarak bunu bizzat kendisinin öldürmesi ile binlerce kilometre öteden onu yöneten kişinin bastığı bir tuş ile öl­dürmesi arasında bir fark yok. Sorun etten kemikten olan karar alıcının, gerektiğinde makinenin tavsiyesini reddede­cek kadar bilgi ve zamana sahip olabilmesi.

Bu bağlamda, uzmanlar »anlamlı insan kontrolünden yani bir insanın makul seviyede kontrolünden bahsediyor. Bu tabir ABD’de iyice ileri taşındı. Bir yönetmelikte, savun­ma bakanı LAWS*ların tasarımının »uygun insan değerlen­dirmesine açık olması gerektiğinden bahsetti. »Uygun şu demek: İnsanın illa son sözü söylemesine gerek yok ama ge­rektiğinde söyleyebilmen. Bu tartışma şunu gösteriyor: ABD ve diğer 45 ülke LAWS’lar üzerinde çalışıyor ve kesinlikle bu çabalarının BM nezdinde yok edilmesini istemiyorlar.

ABD algoritmik savaştan kar elde ediyor

ABD Savunma Bakanına göre YZ’den kaçınmanın başka yo­lu yok. Üç yıl önce Pentagon .Üçüncü Offset Stratejisini açıkladı. Offset stratejileri askeri liderliğin iddiasını sağlam­laştırmalı. Soğuk savaşın başındaki nükleer silahlar ilk off­set stratejisinin merkezindeydi, İkincisi 70‘ler sonunda geldi ve GPS ve düşman radarlarına yakalanmayan silahlar gibi dijital saldırı yöntemlerini beraberinde getirdi.

Şu anki strateji algoritmik savaşı başlatacak gibi duru­yor. Bob Work, Obama ve Trump döneminin Savunma Baka­nı Yardımcısı, Brüksel’deki Nato toplantısında ABD Ordu­sunun yaptıkları hakkında toplumu bilgilendirdi. .YZ ve otonomi insan-makine operasyonunu yepyeni bir seviyeye çıkarıyor. Makineler ve insanlar her zaman en iyi yaptıkları şeyi yapacaklar. Biz buna insan-makine ortak yaşamı diyo­ruz. Bu ortak yaşamda kim daha iyi öldürebilir? İnsanlar mı makineler mi? .Stop Killer Robots!“ inisiyatifi gibi LAWS eleştirmenleri bu tip açıklamalara tepkili. Onlar YZ ile öldür­meyi ahlakdışı buluyor ve öldürme hakkındaki açmazda en azından sadece insanların insan öldürebilmesini istiyorlar, zira savaşa yatırımı tamamen engellemeleri imkansız.

Bay Works‘un bir askerin her zaman aldığı emirle bağlı olduğunu vurgulaması, yine .uygun kontrolü gündeme geti­riyor. Eğer beklenmedik bir halde düşmanla karşılaşır ve kendisinden çok daha yavaş düşünen bir insanla .tartışma­sı gerekirse, bir robotun değeri düşecektir.

Eğer YZ silahları arasında bir savaş çıkarsa, bir saniye onda biri zafer ile hezimet arasındaki farkı belirleyecektir. Bu nedenle, fizikçi ve politika bilimcisi Marcel Dic- kow karar alma yeteneği hakkındaki makalesinde bu işin zamanla makinelere geçeceğini yazdı: „Otonomi, ve­ri işleme gittikçe yaygınlaştıkça, uzaktan komutaya ge­tirilen geniş kapsamlı kısıtlama sorununu çözecektir”. Böylesi otonom savaşlarda, makineler sorunu kendi aralarında algılayacak ve sürprizler söz konusu olabilir zira ABD Bakanı Work‘un dediği gibi: ..Biz savaştıkları­mızın gelişmesini takip etmek ve tanımak zorundayız. Ve onların YZsının bizden iyi olduğu gün kötü bir gün olacaktır”.

Akıllı silahlar: Kahinin çırağı olarak asker

YZ tarafından alınan kararı gözden geçirme fırsatı bul­sa bile, durum asker için bunaltıcı. Geleceğin LAWS*ları kendilerini programlanmış destekten dönüştürecek ve daha genel zekaya sahip uzmanlaşmış öğrenen makine­lere dönüşecekler. Bu makinesel öğrenme konsept ola­rak insan beyninin örnek alıyor Suni nöron ağları so­runları çözmeyi milyonlarca bilgi akarken örnekleme yöntemi ile öğreniyor. Bu derin öğrenme süreci hızlı; YZ uzmanları dahi bu sistemin bazen nasıl çalıştığını anla­yamıyorlar. Yüksek kapasiteli bir asker makine insan iş­birliğinde „ortağına” ayak uydurma konusunda da sık sık sorun yaşayacaktır.

Yoshua Bengio, Derin Öğrenmenin önde gelen bir uzmanı, da BM’e yazılan mektubu imzaladı. Kanadalı uzmana göre BM eskiden „ahlaken sorunlu silahlar” için ne yaptıysa, YZ konusunda da onu yapmalı, Bengio’ta göre bu silahlar kimyasal, biyolojik ve nükleer silahlar­dı. Buradaki sorun şu: Uzmanlıktan ayrı olarak, birine nükleer bir silah yapmak için gereken hammadde ra­hatlıkla piyasada bulunabilen bir hammadde değil. Eğer bir YZ silahının algoritmasını yazmak yahut hacklemek isterseniz, size gereken yazılım tecrübesi, donanım so­run teşkil etmez.

Bir yasak barışçıl bir YZ gelişmesini de engeller, zira tüm YZ araştırmaları çok yönlü. Bir otonom araba kaza­ları engeller ama İsrail örneğinde olduğu gibi işgal çalış­malarını da gözlemleyebilir. Güney Kore’deki robotlar emekli insanlara bakarken, askerlik şubesinde de çalışa­biliyor. İŞİ D in kullandığı tip droneları Amazon dan siz de satın alabilirsiniz. Bu nedenle bir yasak yanıltıcı bir etkiye sahip olacaktır. Hükümette veya yasadışı bir ör­gütte YZ’nin faydalarını suistimal edecek bir gerizekalı her zaman olacaktır.

Fakat BM’ye itiraz da çok anlamsız değil. Sabır ve adanmışlıkla, Cenevre Silahsızlanma Konferansında Almanya’yı temsil eden Michael Biontino,» LAWS hak­kında hükümetsel uzmanlar grubunu (GGE)“ kurdu. Bu gelişme zor ve bazen acı verici. Bu nedenle uzmanların Ağustos ayındaki ilk buluşması iptal edildi, zira bazı BM üyesi ülkeler BM’ye bu konuda katkı vermekte çok geri­de kaldılar.

Bugüne kadar 14 ülke LAWS’ların yasaklanmasına evet dedi. Almanya bu yasağı desteklemiyor. Bu 2013’te- ki girişime biraz ters düşüyor, burada » uluslararası bir hukuki metin ile tamamen otomatik ve insanlara inisiyatif tanımayan silah sistemlerinin lanetlenmesi kararı alınmıştı. .Lanetlenme- tabiri bir yasak kadar kullanmamayı da içerebilir. 2013 girişimi GGE’nin kurulmasını her halükarda desteklemişti.

Kullanmama da benzer şekilde bir yasak kadar olasılık dışı gözüküyor, zira tahmin edilemez yıkıcılıkları ile atom bombalarının aksine LAWS’lar dünyayı cehenneme çevir­meden kullanılabilinir. Ayrıca otomatik, yarı otomatik ve tamamen otomatik silahlar arasında net bir ayrım yapmak da zor. Yüz mikro dronu tek bir operatöre kullanabilir, bunu bir YZ da yapabilir.

Kullanma yasağı da çok tartışmalı: Kendi kendine öğre­nen sistemlerin kendilerini optimize etmek için çok fazla pratiğe ihtiyacı var. Bu veri de gerçekten kullanarak elde edilebilir. Bu nedenle her savaş alanı algoritmalar için oyun bahçesine dönüşüyor, bu olmadan elinizdeki silahlar daha az zeki olacaktır.

ABD YZyi bireysel silah sistemleri için kullanmıyor. Network-Centric Warfare (NCW), ağ merkezli silahlar, ör­neğinde olduğu gibi geleceğin ve bugünü silahlarını karşı­laştırmak mümkün. NCW Büyük Veriyi yapay zeka ile bir­leştiriyor, uydudan takip ile araç süren robotlara kadar tüm kuvvetleri birlikte kullanabiliyor. NCW bir veya birden çok paralel operasyondaki tüm bilgileri tutuyor ve tüm ka- tılanlara sunabiliyor.

Bu sistemin esas sorunu bu kadar devasa bir veri mik­tarıyla uğraşmak zorunda olması. Bunu algoritmalar saye­sinde başarıyor. YZ kendine gereken bilgiyi ve emirleri an­lık olarak, net biçimde ve pratikte gerçek zamanda edinmeli, her bir asker ve robot için. Örneğin bir asker pers­pektifini bir video oyununda olduğu gibi değiştirebilir ve yanındaki askerin perspektifine göre de değiştirebilir. Ta­mamen garip bir şekilde NCW bir operasyondaki tüm bile­şenleri senkronize bir süper silaha çeviriyor, bu yapının beyni ise yapay zeka. Sadece bu YZ tam olarak ne olduğunu ve ne yapılması gerektiğini biliyor. Alman askeri güçleri ABD’nin NCW‘sine katılıyor. Bu konsepte Ağ İşletim Yöneti­mi deniliyor.

Hayal edin, savaş var ama kimse bakmıyor

Büyük Veri*nin ve YZnin kullanımı efektifliği artırıyor ve sizin zararınızı azaltıyor ama savaştaki kurbanların sayısı­nı azaltmıyor. Saldırganların sayısı: Eğer makine yanlış bir karar alırsa, bunun sorumluluğunu kimin alacağını merak ediyoruz.

LAWS uzmanı Dickovva göre, robotiğin siyaset strateji­si için üç avantajı var: „Askerlerinizi tehlikeye atmadan kapsamlı operasyonlar yapabilmeyi mümkün kılıyor: ula­şılmaz yerlere ulaşmayı sağlıyor ve metot ve kaynakların gizli kalmasını çok kolaylaştırıyor”. Teknolojik olarak üs­tün askerlerin hayatını içeren bir savaş, halkın ilgisini çok daha hızlı kaybetmesine sebep oluyor.

ABD dronları hedefleyerek Pakistan’da en az 2200 insa­nı öldürdü. ABD tek bir insan dahi kaybetmediği için top­lum bu durumu neredeyse hiç fark etmedi zira medya bu­nunla hiç ilgilenmedi.

Kamusal kontrol olmadan az insan kaybıyla hareket edebilmek imkanı tabi ki YZ savaşının lehine bir durum. LAWS hakkındaki yasak biraz imkansız gözükse de. savaş ve barış hakkındaki tüm tartışmaların kamusal alanda yapılması ve bu yönde baskı yaratmak her zaman yararlı. Bu kontrol uygun ve mantıksal olacaktır.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Güvenlik Kodu * Time limit is exhausted. Please reload the CAPTCHA.