Yapay zeka faşist, seksist ve paraya mı tapıyor?
ProPublica’nın araştırması COMPAS isim yapay zekâ sisteminin siyahları beyazlardan daha fazla riskli olarak tanımlama eğiliminde olduğunu ortaya koydu. Bir diğer yanlılık örneğinde ise, yaklaşık 700 şirketin yapay zekâ algoritmalarını kullanarak verdiği 2 milyardan fazla fiyat teklifini analiz eden Consumer Reports ise araç kasko fiyatlarını sürücünün sürüş kayıtlarından ziyade finansal hayatının belirlediğini keşfetti.
Etik felsefeye dair meşhur tramvay açmazı, beş kişiyi kurtarmak için bir kişiyi öldürür müsünüz sorusunu sorar. Bu soruda, kontrolden çıkmış bir tramvay rayların üzerinde hızla ilerlemektedir. İlerlediği yöndeki rayların üzerinde tramvayın farkında olmayan beş işçi çalışmaktadır. Tam bulunduğunuz noktada raylar makas yapmakta ve bir manivela ile tramvay başka bir yöne giden raylara aktarılabilmektedir. Ancak bu rayların üzerinde de diğer rayların üzerindeki arkadaşları kadar tramvayın gelişinden habersiz bir işçi çalışmaktadır. Tramvayın doğruca üstlerine gittiği beş işçiyi kurtarmak için, manivela kolunu çekip tramvayın yönünü tek bir işçinin çalıştığı raylara yönlendirir misiniz?
Bu açmaz, 1967 yılında Philippa Foot tarafından geliştirilmiş daha sonra da pek çok düşünür tarafından uyarlanmıştır. İnsanın bir eyleme karar verirken nasıl düşündüğüne ilişkin bu sorunun elbette ki doğru ve ahlaki olan tek bir yanıtı yok. Ama yine de pek çok insanın bu soruya “evet, manivela kolunu çekerim, beş işçinin hayatını kurtarmak için bir işçinin ölümüne sebep olabilirim” yanıtını verdiği tahmin edilir. Ayrıca bu yanıt pek çok insan tarafından da ahlaki bulunabilir.
Günümüzde bu açmaz felsefenin dışında, yapay zekâya uyarlanarak çokça gündeme geliyor. Henüz insan gibi düşünebilen ve ahlaki yargılarda bulunan yapay zekâ uygulamaları olmasa da, buna yaklaşıldığı bilim insanları tarafından sıklıkla ifade edilirken, elbette bu açmazların yapay zekalar tarafından nasıl çözümleneceği de son derece önem kazanıyor. Özellikle de sürücüsüz arabaların önümüzdeki on yıl içerisinde trafiğe çıkacağı düşünülürse, kendilerinden beklenmese de yapay zekâların bazı kararlar almaları ve ahlaki sonuçlara ulaşmalarının gerekebileceği düşünülüyor. Öte yandan yapay zekâ uygulamaları ve yapay zekâ ile donatılmış robotların insanları işsiz bırakmaktan daha büyük bir tehlikeye yol açması olasılığından sıkça bahsediliyor. Bu tehlike yapay zekânın alacağı kararların ırkçı ve cinsiyetçi yanlılıklar, önyargılar taşıması. Bir takım deneyler ve karar alma süreçlerinde kullanılan yapay zekâ algoritmalarının ürettiği sonuçlar konusunda yapılan araştırmalar bu tehlikenin büyüklüğü konusunda fikir verir nitelikte.
Bu araştırmaların, özellikle son dönemde en dikkat çekenlerinden birisi MIT’de yapılan bir araştırma. Bu araştırmada, kendisine yüklenen bin fotoğrafı tanıması ve cinsiyetlerine göre ayırması beklenen yapay zekâ uygulaması beyazları mükemmele yakın bir biçimde ayırt ederken, siyahlar söz konusu olduğunda büyük oranda hata yapmaya başlıyor. Yapay zekâ uygulaması tarafından, siyah kadın fotoğrafları neredeyse yarıya yakın bir oranla yanlış olarak sınıflandırılıyor.
Bir diğer örnek ise yine yapay zekâ ile güçlendirilmiş olan Google Translate’in çeviri yaparken gösterdiği cinsiyetçi yanlılıklar. Geçtiğimiz günlerde Google Translate’in Türkçeden İngilizceye yapılan çevirilerde mesleklere, durumlara bağlı olarak bir takım meslek ve durumları erkeklere göndermeyle, diğer bazılarını ise kadınlara göndermeyle çevirmesi ( örneğin “o bir aşçı” cümlesini “she is a cook”, “o bir mühendis” cümlesini ise “he is an engineer” olarak çevirdi) ve elbette ki bu çeviri içeriklerinin cinsiyetçi yanlılıkları tartışma konusu oldu. Google ise yaptığı açıklamada, Google Translate’in web’den topladığı milyonlarca çeviriden öğrendiğini ve bu öğrenilenlerin bu tür etkilere neden olduğunu belirtti, “Bu etkileri nasıl azaltacağımız konusunda araştırmalarımız sürüyor” dedi.
2016 yılında ProPublica’nın yayınladığı bir araştırma Amerika’da hükümlülerin gelecekte suç işleme olasılığını öngörmek üzere kullanılan COMPAS isim yapay zekâ sisteminin siyahları beyazlardan daha fazla riskli olarak tanımlama eğiliminde olduğunu ortaya koydu. Bir diğer yanlılık örneği ise, Consumer Reports’un, 2015 yılında otomobil sigortası fiyatlandırmasına ilişkin iki yıllık bir soruşturma sonucunu yayınlaması ile açığa çıktı. Yaklaşık 700 şirketin yapay zekâ algoritmalarını kullanarak verdiği 2 milyardan fazla fiyat teklifini analiz eden Consumer Reports, araç kasko fiyatlarını sürücünün sürüş kayıtlarından ziyade finansal hayatının belirlediğini keşfetti. Yoksullukla ilgili faktörlerden etkilenen, ancak sürüşle ilişkili olmayan kredi puanları, bu algoritmalara dahil edildiğinde düşük kredi puanlarına sahip mükemmel sürücüler, çoğunlukla yüksek kredi puanlarına sahip kötü sürücülerden daha fazla araç kasko ücreti ödüyorlar.
Bu örneklerden en bilineni ise Microsoft’un geliştirdiği bir yapay zeka uygulaması. 2016’da Microsoft yapay zekâ algoritmalarını kullanarak insan davranışlarını öğrenen ve bu öğrendikleri ile Twitter’da diğer kullanıcılarla etkileşime giren Tay isimli sohbet uygulamasını başlattı. Tay Twitter’da diğer kullanıcılardan sağladığı verilerle insanlarla iletişim kurmayı öğrenmek ve tweetler atmak üzere tasarlanmıştı. 16 saatlik süre içerisinde Twitter kullanıcılarından topladığı verilerle oluşturduğu tweetler cinsiyetçi ve Hitler yanlısı bir hal aldı. 25 Mart 2016’da Microsoft bu istenmeyen saldırgan tweetler için tüm kullanıcılardan özür dileyerek Tay’ı kapatmak zorunda kaldı.
Microsoft’un yazdığı özür metninde “yapay zekânın insanlarla kurduğu hem olumlu, hem de olumsuz etkileşimlerle öğrendiğini” ve bu nedenle de “sorunun teknik olduğu denli, toplumsal olduğunu” belirtti. Aslında bu, bütün bir tartışmanın en vurgulanması gereken yanı gibi görünüyor. Ayrıca Tay’a insan davranışlarını taklit edebilmesi çok iyi bir biçimde öğretilmiş olmasına rağmen, doğru bir biçimde davranmanın öğretilemediği de açıkça görülebiliyor.
HRW: Çin'de yapay zeka tahminiyle gözaltılar başladı
Bütün bu örneklerde açığa çıkan yapay zekânın ürettiği ırkçı, cinsiyetçi ya da bazı durumlarda statü ile ilgili yanlılıkların kaynağında ise kullanılan veriler var. Yapay zekâ algoritmalarının kullandığı veri setleri elbette ki en büyük kaynak olan internetten toplanıyor. Örneğin tweet atmayı ve bu yolla insanlarla etkileşim kurmayı öğrenmeye çalışan Microsoft’un Tay’ı ya da Google Translate kelimeleri, bunların nasıl ve hangi diğer kelimelerle birlikte kullanıldığını öğrenmeye çalışıyor, böylece hem anlamaya hem de anladığı şeye karşı doğal dili kullanarak yanıtlar üretmeye çalışıyor.
Yapay zekâ, internetten sağlanan veri setlerinde istatistiksel olarak hangi kelimelerin kullanıldığı, bu kelimelerin nasıl ve hangi başka kelimelerle kullanıldığını öğrendiğinde, algoritması aracılığı ile bazı ilişkisellikler kuruyor. Bunlar bazen nedeni insanlar tarafından anlaşılamayan ilişkisellikler olabiliyor. Ama her koşulda yapay zekânın kendi ürettiği değil, kullandığı veri setinde varolan ilişkisellikler. Kadın zamirleri aşçılık, sekreterlikle, erkek zamirleri mühendislikle eşleştirebiliyor. Yani mesele yapay zekânın önyargıları değil, algoritmaların öğrenme süreçlerinde kullanılan veri setleri olarak beliriyor. Daha doğrusu bu verilerin toplandığı internet içeriğinin ırkçı ve cinsiyetçi olması yapay zekâyı da yanlılıklar üretir hale getiriyor.
Microsoft açıklamasında söylendiği gibi, sorun teknik olduğu kadar da toplumsal bir sorun. Yapay zekâ gerçek insanların ürettiği verilerle öğrenirken, insan gibi davranmayı öğrenebiliyor, verileri insan zihnine göre çok daha hızlı bir şekilde çözümleyebiliyor, ama son kertede bu davranışın doğru mu yanlış mı olduğunu henüz öğrenemiyor. Ama diğer yandan gerçek dünyada da insanlar her zaman “iyi” ve “doğru” davranmıyor. Bu yanlılık tartışmalarında yapay zekanın yanlı olmadığını iddia edenlerin söylediği gibi, belki de yapay zeka gerçekliğe en uygun sonuçları üretiyor, ama beklenti ideal dünyaya en uygun sonuçları üretmesi. Yaşadığımız dünyada eşitsizliklerin ve önyargıların olduğu, tarihsel olarak üretilen verilerin önyargılı olduğu düşünüldüğünde, yapay zekâ uygulamalarının da önyargılı kararlar vermesinde, gerçek dünyadaki yanlılıkları barındırmasında şaşıracak bir yan kalmıyor. Diğer yandan “beş kişiyi kurtarmak için bir kişiyi öldürür müsünüz” sorusunu yanıtlamaya kalkışacak bir yapay zekanın, bu beş kişinin ırk ve cinsiyetlerini ya da statülerini de hesaba katması, yani açmazı daha derin bir hale de getirmesi de hiç beklenmeyecek bir şey gibi görünmüyor.
Bu durumda belki de yapay zekânın insanlardan öğrenmesi çok da iyi bir fikir değil. Öğrenmenin başka yolları, titizlikle hazırlanmış, önyargılardan ve yanlılıklardan olabildiğince temizlenmiş veri setleri ya da yapay zekânın hangi sonuca nasıl vardığını da göstermesini içeren algoritma değişikliklerinin bu sorunlar konusunda yol kat edilebilmesine olanak vereceği uzmanlar tarafından belirtiliyor. Eğer bunlar mümkün olursa, belki insanların yapay zekâlardan öğreneceği bazı şeyler olabilir. İşte belki o zaman, tramvay açmazını ve bunların varyasyonlarını yapay zeka ile müzakere etmek de mümkün olabilir.