Etik felsefeye dair meşhur tramvay açmazı, beş kişiyi kurtarmak
için bir kişiyi öldürür müsünüz sorusunu sorar. Bu soruda,
kontrolden çıkmış bir tramvay rayların üzerinde hızla
ilerlemektedir. İlerlediği yöndeki rayların üzerinde tramvayın
farkında olmayan beş işçi çalışmaktadır. Tam bulunduğunuz noktada
raylar makas yapmakta ve bir manivela ile tramvay başka bir yöne
giden raylara aktarılabilmektedir. Ancak bu rayların üzerinde de
diğer rayların üzerindeki arkadaşları kadar tramvayın gelişinden
habersiz bir işçi çalışmaktadır. Tramvayın doğruca üstlerine
gittiği beş işçiyi kurtarmak için, manivela kolunu çekip tramvayın
yönünü tek bir işçinin çalıştığı raylara yönlendirir misiniz?
Bu açmaz, 1967 yılında Philippa Foot tarafından geliştirilmiş
daha sonra da pek çok düşünür tarafından uyarlanmıştır. İnsanın bir
eyleme karar verirken nasıl düşündüğüne ilişkin bu sorunun elbette
ki doğru ve ahlaki olan tek bir yanıtı yok. Ama yine de pek çok
insanın bu soruya “evet, manivela kolunu çekerim, beş işçinin
hayatını kurtarmak için bir işçinin ölümüne sebep olabilirim”
yanıtını verdiği tahmin edilir. Ayrıca bu yanıt pek çok insan
tarafından da ahlaki bulunabilir.
Günümüzde bu açmaz felsefenin dışında, yapay zekâya uyarlanarak
çokça gündeme geliyor. Henüz insan gibi düşünebilen ve ahlaki
yargılarda bulunan yapay zekâ uygulamaları olmasa da, buna
yaklaşıldığı bilim insanları tarafından sıklıkla ifade edilirken,
elbette bu açmazların yapay zekalar tarafından nasıl çözümleneceği
de son derece önem kazanıyor. Özellikle de sürücüsüz arabaların
önümüzdeki on yıl içerisinde trafiğe çıkacağı düşünülürse,
kendilerinden beklenmese de yapay zekâların bazı kararlar almaları
ve ahlaki sonuçlara ulaşmalarının gerekebileceği düşünülüyor. Öte
yandan yapay zekâ uygulamaları ve yapay zekâ ile donatılmış
robotların insanları işsiz bırakmaktan daha büyük bir tehlikeye yol
açması olasılığından sıkça bahsediliyor. Bu tehlike yapay zekânın
alacağı kararların ırkçı ve cinsiyetçi yanlılıklar, önyargılar
taşıması. Bir takım deneyler ve karar alma süreçlerinde kullanılan
yapay zekâ algoritmalarının ürettiği sonuçlar konusunda yapılan
araştırmalar bu tehlikenin büyüklüğü konusunda fikir verir
nitelikte.
Bu araştırmaların, özellikle son dönemde en dikkat çekenlerinden
birisi MIT’de yapılan bir araştırma. Bu araştırmada, kendisine
yüklenen bin fotoğrafı tanıması ve cinsiyetlerine göre ayırması
beklenen yapay zekâ uygulaması beyazları mükemmele yakın bir
biçimde ayırt ederken, siyahlar söz konusu olduğunda büyük oranda
hata yapmaya başlıyor. Yapay zekâ uygulaması tarafından, siyah
kadın fotoğrafları neredeyse yarıya yakın bir oranla yanlış olarak
sınıflandırılıyor.
Bir diğer örnek ise yine yapay zekâ ile güçlendirilmiş olan
Google Translate’in çeviri yaparken gösterdiği cinsiyetçi
yanlılıklar. Geçtiğimiz günlerde Google Translate’in Türkçeden
İngilizceye yapılan çevirilerde mesleklere, durumlara bağlı olarak
bir takım meslek ve durumları erkeklere göndermeyle, diğer
bazılarını ise kadınlara göndermeyle çevirmesi ( örneğin “o bir
aşçı” cümlesini “she is a cook”, “o bir mühendis” cümlesini ise “he
is an engineer” olarak çevirdi) ve elbette ki bu çeviri
içeriklerinin cinsiyetçi yanlılıkları tartışma konusu oldu. Google
ise yaptığı açıklamada, Google Translate’in web’den topladığı
milyonlarca çeviriden öğrendiğini ve bu öğrenilenlerin bu tür
etkilere neden olduğunu belirtti, “Bu etkileri nasıl azaltacağımız
konusunda araştırmalarımız sürüyor” dedi.
2016 yılında ProPublica’nın yayınladığı bir araştırma Amerika’da
hükümlülerin gelecekte suç işleme olasılığını öngörmek üzere
kullanılan COMPAS isim yapay zekâ sisteminin siyahları beyazlardan
daha fazla riskli olarak tanımlama eğiliminde olduğunu ortaya
koydu. Bir diğer yanlılık örneği ise, Consumer Reports’un, 2015
yılında otomobil sigortası fiyatlandırmasına ilişkin iki yıllık bir
soruşturma sonucunu yayınlaması ile açığa çıktı. Yaklaşık 700
şirketin yapay zekâ algoritmalarını kullanarak verdiği 2 milyardan
fazla fiyat teklifini analiz eden Consumer Reports, araç kasko
fiyatlarını sürücünün sürüş kayıtlarından ziyade finansal hayatının
belirlediğini keşfetti. Yoksullukla ilgili faktörlerden etkilenen,
ancak sürüşle ilişkili olmayan kredi puanları, bu algoritmalara
dahil edildiğinde düşük kredi puanlarına sahip mükemmel sürücüler,
çoğunlukla yüksek kredi puanlarına sahip kötü sürücülerden daha
fazla araç kasko ücreti ödüyorlar.
Bu örneklerden en bilineni ise Microsoft’un geliştirdiği bir
yapay zeka uygulaması. 2016’da Microsoft yapay zekâ algoritmalarını
kullanarak insan davranışlarını öğrenen ve bu öğrendikleri ile
Twitter’da diğer kullanıcılarla etkileşime giren Tay isimli sohbet
uygulamasını başlattı. Tay Twitter’da diğer kullanıcılardan
sağladığı verilerle insanlarla iletişim kurmayı öğrenmek ve
tweetler atmak üzere tasarlanmıştı. 16 saatlik süre içerisinde
Twitter kullanıcılarından topladığı verilerle oluşturduğu tweetler
cinsiyetçi ve Hitler yanlısı bir hal aldı. 25 Mart 2016’da
Microsoft bu istenmeyen saldırgan tweetler için tüm kullanıcılardan
özür dileyerek Tay’ı kapatmak zorunda kaldı.
Microsoft’un yazdığı özür metninde “yapay zekânın insanlarla
kurduğu hem olumlu, hem de olumsuz etkileşimlerle öğrendiğini” ve
bu nedenle de “sorunun teknik olduğu denli, toplumsal olduğunu”
belirtti. Aslında bu, bütün bir tartışmanın en vurgulanması gereken
yanı gibi görünüyor. Ayrıca Tay’a insan davranışlarını taklit
edebilmesi çok iyi bir biçimde öğretilmiş olmasına rağmen, doğru
bir biçimde davranmanın öğretilemediği de açıkça görülebiliyor.
HRW:
Çin'de yapay zeka tahminiyle gözaltılar başladı
Bütün bu örneklerde açığa çıkan yapay zekânın ürettiği ırkçı,
cinsiyetçi ya da bazı durumlarda statü ile ilgili yanlılıkların
kaynağında ise kullanılan veriler var. Yapay zekâ algoritmalarının
kullandığı veri setleri elbette ki en büyük kaynak olan internetten
toplanıyor. Örneğin tweet atmayı ve bu yolla insanlarla etkileşim
kurmayı öğrenmeye çalışan Microsoft’un Tay’ı ya da Google Translate
kelimeleri, bunların nasıl ve hangi diğer kelimelerle birlikte
kullanıldığını öğrenmeye çalışıyor, böylece hem anlamaya hem de
anladığı şeye karşı doğal dili kullanarak yanıtlar üretmeye
çalışıyor.
Yapay zekâ, internetten sağlanan veri setlerinde istatistiksel
olarak hangi kelimelerin kullanıldığı, bu kelimelerin nasıl ve
hangi başka kelimelerle kullanıldığını öğrendiğinde, algoritması
aracılığı ile bazı ilişkisellikler kuruyor. Bunlar bazen nedeni
insanlar tarafından anlaşılamayan ilişkisellikler olabiliyor. Ama
her koşulda yapay zekânın kendi ürettiği değil, kullandığı veri
setinde varolan ilişkisellikler. Kadın zamirleri aşçılık,
sekreterlikle, erkek zamirleri mühendislikle eşleştirebiliyor. Yani
mesele yapay zekânın önyargıları değil, algoritmaların öğrenme
süreçlerinde kullanılan veri setleri olarak beliriyor. Daha doğrusu
bu verilerin toplandığı internet içeriğinin ırkçı ve cinsiyetçi
olması yapay zekâyı da yanlılıklar üretir hale getiriyor.
Microsoft açıklamasında söylendiği gibi, sorun teknik olduğu
kadar da toplumsal bir sorun. Yapay zekâ gerçek insanların ürettiği
verilerle öğrenirken, insan gibi davranmayı öğrenebiliyor, verileri
insan zihnine göre çok daha hızlı bir şekilde çözümleyebiliyor, ama
son kertede bu davranışın doğru mu yanlış mı olduğunu henüz
öğrenemiyor. Ama diğer yandan gerçek dünyada da insanlar her zaman
“iyi” ve “doğru” davranmıyor. Bu yanlılık tartışmalarında yapay
zekanın yanlı olmadığını iddia edenlerin söylediği gibi, belki de
yapay zeka gerçekliğe en uygun sonuçları üretiyor, ama beklenti
ideal dünyaya en uygun sonuçları üretmesi. Yaşadığımız dünyada
eşitsizliklerin ve önyargıların olduğu, tarihsel olarak üretilen
verilerin önyargılı olduğu düşünüldüğünde, yapay zekâ
uygulamalarının da önyargılı kararlar vermesinde, gerçek dünyadaki
yanlılıkları barındırmasında şaşıracak bir yan kalmıyor. Diğer
yandan “beş kişiyi kurtarmak için bir kişiyi öldürür müsünüz”
sorusunu yanıtlamaya kalkışacak bir yapay zekanın, bu beş kişinin
ırk ve cinsiyetlerini ya da statülerini de hesaba katması, yani
açmazı daha derin bir hale de getirmesi de hiç beklenmeyecek bir
şey gibi görünmüyor.
Bu durumda belki de yapay zekânın insanlardan öğrenmesi çok da
iyi bir fikir değil. Öğrenmenin başka yolları, titizlikle
hazırlanmış, önyargılardan ve yanlılıklardan olabildiğince
temizlenmiş veri setleri ya da yapay zekânın hangi sonuca nasıl
vardığını da göstermesini içeren algoritma değişikliklerinin bu
sorunlar konusunda yol kat edilebilmesine olanak vereceği uzmanlar
tarafından belirtiliyor. Eğer bunlar mümkün olursa, belki
insanların yapay zekâlardan öğreneceği bazı şeyler olabilir. İşte
belki o zaman, tramvay açmazını ve bunların varyasyonlarını yapay
zeka ile müzakere etmek de mümkün olabilir.