Bir robotun hayatı var mıdır? - II
Yapay zeka konusunda eserler veren N. Bostrom, E. Yudkowsky gibi önemli teorisyenlere bakılırsa bilinçli bir robot ile insan etik bakımdan -en azından prensipte- eşit olmalıdır. Ne var ki açıklamaya çalışacağım üzere burada ciddi bir kafa karışıklığı yaşandığını ileri sürebiliriz.
İbrahim Mergen*
Suudi Arabistan 2017 senesinde Sophia isimli bir robota vatandaşlık verdiğinde haber dünyada infial yaratmadı. Suudi vatandaşlığının haklar ve özgürlükler bakımından çok da zengin olmaması konunun bir magazin ya da şov unsuru olarak değerlendirilmesine neden olmuş olabilir. Fakat öyle ya da böyle bir robot bir bölgede diğer insan vatandaşlar gibi bir vatandaş olarak ilan edilmişti. Bu olayın bir yıl evvelinde ise Avrupa Parlamentosu’na sunulan bir taslakta ‘sofistike otonom robotların, elektronik kişiler olarak kabul edilip özel hak ve yükümlülüklere sahip olması gerektiği’ öneriliyordu.(1) Bu haberler ve teknolojik gelişmeler benzer örneklerle önümüzdeki yıllarda daha çok karşılaşacağımızı gösteriyor. Yani konu aslına bakılırsa bilimkurgu olmaktan çıkmak üzere fakat daha ne bilim dünyası ne siyaset kurumları ne de felsefeciler konunun toplumsal anlam ve önemine dair gereken teşhisi koyabilmiş değil.
Bir robotun hayatı var mıdır? - I
Yazının birinci bölümünde yapay bilinç sahibi robotların mümkün olup olamayacağı üzerine kısaca tartışılmış, ölümlü olmanın bir kriter olarak etik açıdan robotlarla aramızdaki farkı ya da eşitliği belirleyebileceği ifade edilmişti. Şimdi bu noktaları biraz daha açmaya çalışalım. ‘Robotların etik statüsü ne olmalı’ sorusuna yanıt arıyorsak ‘etik statü’ ya da ‘etik konum’ derken neyi kastettiğimizi belirtmek gerekir. Öncelikle felsefi anlamda bu kısa yazı için çok sorun yaratmayacak bir ayrıma gidebiliriz: İnsan kendi kararlarını alıp uygulayan bir varlıktır. Aynı zamanda insan acı hissedebilmek gibi duyusal ve duygusal kapasiteleri de olan bir varlıktır. Öyleyse insan hem ahlaki öznedir (moral subject) hem de bir ahlak varlığıdır (moral patient). Bu anlamda acı hissedebilme kapasitesi o varlığı ahlak varlığına dönüştüren kapasitedir ve bu nedenle hayvanlar, bebekler, çocuklar, eylemlerinin sorumluluğunu alamayacak akıl hastaları vb. bu kategoride değerlendirilir. İnsanın otonom olarak karar verebiliyor olması ve bu kararlar uyarınca eylemlerde bulunabiliyor olması ise onu ahlaken özne kılar. Ahlaki özne hem kendisine hem de çevresindeki ahlak varlıklarına karşı eylemlerinden sorumludur.(2)
Etik konum ayrımını basitçe yukarıdaki gibi belirlediğimizde ‘her ahlaki öznenin aynı zamanda ahlaki varlık olduğu’ kabul edilebilir ancak tabii ki tersi geçerli değildir. Uç örneklerde ise işler haliye karışacaktır, örneğin hisleri belki sinirsel bir nedenden ötürü ortadan kalkmış ya da hiç olmamış yani acı duymayan ve aynı zamanda akli dengesi hiçbir zaman yerinde olmamış bir insanı nasıl konumlandırmalıyız? Böyle atipik durumlar için çeşitli yanıtlar vermek mümkün ama halihazırda elimizde daha da radikal bir durum var o da konumuz olan robotlar.
Yaptığımız ikili ayrıma göre robotları etik olarak konumlandırmayı deneyelim. Robot yapay bilinci nedeniyle kendi kararlarını alabilen, kararları doğrultusunda eylemlerde bulunabilen ve eylemlerinin sonuçlarını öngörebilen bir varlık olacak ise ona ahlaki özne demek gerekir. Ve ahlaki özne olmanın gereği olan hak, özgürlük ve sorumlulukları da kendisine yükleyebilmemiz gerekir. Robotun ahlaki özne olması onun diğer ahlaki ögelere karşı taşıdığı sorumluluğu da tespit etmiş olur. Robotun bilinçli olmanın yanı sıra duyu ve duygu sahibi olduğunu da var saymıştık. Öyleyse ahlaki özne olduğu gibi bir ahlak varlığı olarak da kabul edilmesi gerekir. Bu düşünce silsilesi takip edildiğinde bilinç ve his sahibi bir robotun etik olarak insan ile aynı konumda olduğu ortaya çıkar ve bu yönde düşünen teorisyenler de yok değildir. Bu yaklaşıma biraz daha yakından bakalım çünkü bu yaklaşımın varacağı nokta belki de robotlarla eşit haklar temelinde eşit vatandaşlık olacaktır ki bu da tüm çağdaş paradigmanın altüst olmasına yol açacaktır.
Yapay zeka konusunda eserler veren N. Bostrom, E. Yudkowsky gibi önemli teorisyenlere bakılırsa bilinçli bir robot ile insan etik bakımdan -en azından prensipte- eşit olmalıdır. Ne var ki açıklamaya çalışacağım üzere burada ciddi bir kafa karışıklığı yaşandığını ileri sürebiliriz. Her şeyden önce robotun bir meta olarak üretildiğini ve bir sahibinin olduğunu, gelecekte devlet eliyle üretilecek olsa da yine sahibinin insan toplumu olacağını akılda tutmakta fayda var. Fakat elbette bu işin sosyoloji ve ekonomi ile ilgili kısmı, ancak bu boyutlarını bir tarafa bıraktığımızda da Bostrom ve Yudkowsky’nin düşüncelerinin özsel olarak sorunlu olduğunu görebiliriz.
Savundukları fikir kabaca ifade edilebilecek iki temel öncül üzerinde şekilleniyor. Birinci öncül: Eğer iki varlık aynı işlevleri görebilen aynı düzeyde bilince sahipse; bu varlıklar onları meydana getiren madde açısından birbirinden farklı olsalar bile -yani biri et ve kemikten oluşurken diğeri metal, plastik vb. maddelerden oluşmuş olsa bile- bu iki varlık aynı etik statüye sahiptir. Aksini iddia etmek bu varlıklar arasında yapı maddesi açısından ayrımcılık yapmak olacaktır (Principle of Substrate Non-Discrimination). İkinci öncül: Eğer iki varlık aynı işlevleri görebilen aynı düzeyde bilince sahipse, varoluşa gelme biçimleri açısından farklı olsalar bile -yani birisi doğmuşken diğeri üretilmişse bile- bu iki varlık aynı etik statüye sahiptir. (Principle of Ontogeny Non-Discrimination) (3) Aksini iddia etmek yine bir çeşit ayrımcılık olacaktır. Bu iki kriter insanlar arasında düşünüldüğünde gayet makul görünüyor. Örneğin, korkunç bir kaza sonrası vücudunun pek çok noktasına metal aksamlar takılmak zorunda kalınmış, hatta belki beynine bir implant yerleştirilmiş bir insan ile sağlıklı bir insan etik statü bakımından -her ne kadar halihazırda farklı bileşenlerden oluşuyor olsalar da- eşittir. Benzer şekilde bir kişinin dünyaya doğal yollarla ya da taşıyıcı annelik gibi farklı metotların yardımıyla gelmiş olması kişinin etik konumunu elbette etkilememektedir. Fakat aynı karşılaştırma robot ve insan için geçerli olabilir mi?
Bostrom ve Yudkowsky’nin belirttiği gibi yapı maddelerimizin farklı olmasına rağmen ve varoluşa nasıl gelmiş olursak olalım, bilinç ve fenomenal kapasiteler bakımından eşit olduğumuzda, bu koşulları sağlayan tüm varlıklar ile etik açıdan eşit kılınmış olur muyuz? Yapı maddelerimizin farklı olması işlevsel fark yaratmasa da etik bir fark yaratabilir, bu farkı anlamak için ilk kısımda sorduğumuz soruyu, yani bir felaket anında insan yerine robot kurtarmanın problem teşkil edip etmeyeceği sorusunu analiz edip, insan ile robot arasındaki olası eşitliğin neye tekabül ettiğini görelim.
Öyle bir felaket anında, robotu tercih edip, insanı kurtarmak yerine ölüme terk ettiğimizde neyi kaybetmiş oluruz? Tabii ki bir daha hayata dönemeyecek ve doğumundan önce de özdeşi hiç var olmamış, emsalsiz bir kişiyi kaybederiz. Bir kişi hayatını kaybettiğinde, tekrar mutlu olabilme, sevebilme vb. gibi yaşamaya dair tüm ihtimallerini kaybeder. Dolayısıyla faydacı açıdan bakarsak kaybettiklerinin yekünü hesaplanamaz. Deontolojik açıdan bakarsak kendisi başlı başına amaç olan emsalsiz bir varlık, yokluğa yelken açmıştır o anda. Peki robot yerine insanı kurtarırsak ne olur? Bu soruya yanıtı tekrar Bicentennial Man filmine dönerek verelim.
Bicentennial Man filminde robot Andrew’in aşama aşama insan olma süreci işlenmektedir. Andrew pek çok konuda yapay organlar vb. marifetiyle insandan neredeyse farksız hale geldikten sonra insan kabul edilmek adına gereken başvurusunu ‘resmi makamlara’ yapar. Fakat filmde insanlığın ortak sesini temsil eden mahkeme, ölümsüz bir robot ile insanın eşit olmasının kabul edilemeyeceği gerekçesiyle Andrew’in başvurusunu reddeder. Andrew ölümlülük şartını yerine getiren adımları attıktan sonra tekrar başvuru yapar ve bu sefer insanlık ailesinin bir parçası olarak kabul edilir. Mahkeme filmde ölümlü olmayı açıkça şart koşmuştur.
Filmdeki yaklaşım mantıklı görünüyor. Robotun prensip gereği ölümsüz kabul edilmesi gerekir. Teknolojinin ulaştığı seviye düşünüldüğünde, robot tüm belleğini her an harici bir konumda yedekleyebilir olacaktır ve benzer şekilde elle tutulur donanım ve parçalarını da sonsuza (4) dek değiştirmek en azından teoride mümkündür. Yani bakımı düzenli yapılan, gerektiğinde parçaları düzenli değişen ve hafızası/bilinci harici olarak düzenli saklanan bir robot, varlığını sonsuza dek sürdürebilir. Öyleyse, Yudkowsky ve Bostrom’un iddia ettiğinin aksine farklı maddelerden yapılmış iki varlık, meydana gelecek bir felaket karşısında etik açıdan hiç de aynı konumda değerlendirilemeyecektir. Birisi felaket karşısında, emsalsiz olmasına rağmen sonsuza dek ortadan kalkan bir varlık iken, diğeri yeni bir mekanik aksama tekrar yüklenebilen bir bilinç ve bellekten ibaret olduğu için, var olmaya kaldığı yerden devam edebilecek bir varlıktır. Kurtarılmaması halinde insanın elinden tüm olanakları alınırken, robotun elinden sadece mekanik aksamı alınmaktadır. Bu varlıklar etik konum açısından eşit olsaydı insanı kurtarmayı seçmekle robotu kurtarmayı seçmek arasında ahlaki anlamda bir fark doğmaması gerekirdi.
Burada oluşan fark hatalı bir önkabül nedeniyle ortaya çıkmıştır. Şöyle ki, yukarıda belirttiğimiz gibi insan ahlaki özne ve ahlak varlığıdır. Fakat bilinç ve his sahibi olmasına rağmen robot aynı statüde değildir. Bilinç sahibi robotun statüsü -teknolojinin bu seviyelere yeni gelmesi nedeniyle daha önce çok sorgulamadığımız- “her ahlaki özne ahlak varlığıdır” kabulümüzü geçersiz kılmıştır. Robotun etik statüsü yeni bir statü olarak tanımlanabilir; yani robot ahlaki bir özne iken bir ahlak varlığı değildir. Bu nedenle bir felaket anında insanı kurtarmak biricik bir varlık olan insan bireyini, son analizde ileri teknoloji ürünü bir ‘alete’ olan robota karşı tercih etmek demektir. Diğer taraftan robotun ahlak varlığı olmasa da ahlaki özne olması ona sorumluluk yüklemeye devam etmektedir. İşte Bostrom ve Yudkowsky’nin prensiplerinde eksik olan nokta budur.
Bir robot hiçbir zaman hayata gelmemiş olması nedeniyle etik konum itibariyle mesela bir zeytin ağacından da sonra gelmelidir. Dolayısıyla Bicentennial Man filminde insanlık, robottan insana geçiş için eşiği ölümlü olmak olarak tespit ederken doğru kriteri savunmuşa benziyor. Evet, trajik ancak ölümlü olmak robot ile eşitliğimizin şartı olarak görünmektedir. Bostrom ve Yudkowsky’nin Ontogeni prensibi ancak bu bağlamda geçerliliğini koruyabilir. Yani ölümlü ve aynı işlevleri gören eşit bilinç düzeylerine sahip varlıklar olduğumuz sürece varoluşa nasıl geldiğimizi sorgulamanın bir anlamı kalmıyor olabilir ve ancak bu noktadan sonra robot Andrew insan ya da insanın eşiti olarak kabul edilebilir. Ölüm bu anlamda etik statünün temel isterlerinden birisi olarak tanımlanmalıdır. İnsanın Heidegger’deki anlamıyla ölüme-yönelik varlık olması onu aynı zamanda ihtimam gösterilmesi gereken bir varlık haline getirmektedir. Gösterilmesi gereken ihtimamın sosyal kontekste haklar olarak tasarlanması herhalde akla çok aykırı gelmeyecektir.
(1) David J. Gunkel, The Other Question, Can and Should Robots Have Rights? (2017)
(2) İnsanların ve tüm ahlak varlıklarının, etik konumları ile hak ve özgürlükleri arasında özsel bir bağ olduğunu kabul ediyor, tartışmayı bu yönde ilerletmiyoruz.
(3) Nick Bostrom & Eliezer Yudkowsky: The Ethics of Artificial Intelligence (2011) - Draft for Cambridge Handbook of Artificial Intelligence
(4) Sonsuz derken canlı hayatı ile kıyas kabul etmeyecek şekilde uzun bir zaman dilimini anlayabiliriz.
*Siyasal ve Toplumsal Düşünceler Doktora Programı, İstanbul Teknik Üniversitesi