Yapay zekanın kusurları yüzünden bir sonraki arabanız ırkçı olabilir

Tesla’nın sürücüsüz araçlarının karıştığı kazalar, yapay zekanın, yazılım alanında öngörülmemiş kimi olaylar karşısında ne kadar çaresiz kalabileceğini ortaya koyuyor.

Abone ol

Theodore Kim*

Geçtiğimiz günlerde, Tesla, kullandığı yazılımın federal bir kurumun soruşturmasına konu olan acil durum müdahale araçlarının karıştığı bir düzine kazada rol oynamasının sonrasında, sürücüsüz araç yazılımının en yeni versiyonunu piyasaya duyurdu. Kazalar çeşitli sebeplerle yaşanmış olsa da, bu olaylardaki önemli etkenlerden biri, aracı süren yapay zekanın ikaz ışıklarını ve emniyet şeridine çekilen araçları görmeye alışkın olmaması ve altta yatan algoritmaların bunlara öngörülemeyen ve en kötü şekillerde tepki vermesi olabilir.

Günümüzün yapay zeka sistemleri, farklı kaynaklardan elde edilen büyük fotoğraf ve video görüntüsü veri kümeleri aracılığıyla “eğitiliyor” ve bu eğitimi duruma uygun davranışı saptamak amacıyla kullanıyor. Buna karşın, görüntüler, eğer acil durum müdahale araçlarının yakınlarında nasıl yavaşlayacağı gibi belirli davranışlarla ilgili birçok örneği içermiyorsa, yapay zeka, gereken davranış biçimlerini öğrenemez. Hâl böyle olunca da örneğin ambulanslara çarparlar.

ALTTA YATAN SEBEPLER

Bunun gibi feci başarısızlıklar hesaba katıldığında, makine öğrenimi alanındaki son eğilimlerden biri, bu tür ihmal edilen vakaları tanımlamak ve yapay zekanın öğrenmesine yardım etmek amacıyla ‘sentetik/yapay’ eğitim verileri kurgulamak oldu. Hollywood’un meşhur 'The Avengers: Endgame' filminde ‘Yeşil Dev’ Hulk’ın, birlerin ve sıfırların akışından oluşturmak için kullandığına benzer algoritmaları kullanarak, gerçek hayatta henüz rastlanmamış olan acil müdahale araçlarının foto-gerçekçi görüntüleri dijital ortamdan çağrılır ve yapay zeka bunlarla beslenir.

Harry Potter ve Felsefe Taşı’ndaki ‘seçmen şapkayı’ yaratmak için kullanılan yazılımdan beridir, geçmişte kıdemli bir araştırma bilimcisi olduğum Pixar’ın son filmlerine dek, son 20 yıldır bu algoritmaları tasarlıyor ve kullanıyorum.

Yapay zekaları eğitmek için bu algoritmaların kullanılması aşırı derece tehlikeli olabilir; zira özellikle de beyaz insanları tasvir edecek biçimde tasarlanmışlardır. Bu yazılımın temelinde yatan karmaşık fiziğin tamamı, bilgisayar bilimi ve istatistikler, soluk, beyaz bir cildin dağınık ışıltısı ile uzun ve düz saçlardaki pürüzsüz parıltıları gerçekçi bir biçimde tasvir etmek amacıyla tasarlandı. Diğer yandan, bilgisayar grafik araştırmacıları, koyu ve siyah bir teni karakterize eden parlaklığı ve ışıltıyı ya da Afro saçların özelliklerini sistematik biçimde araştırmadılar. Netice itibariyle, Hollywood algoritmalarında bu görsel olguların fiziği kodlanmadı.

ÖNEMSENMEYEN FARKLAR BÜYÜK SONUÇLAR DOĞURABİLİR

Tabii ki, Pixar’ın geçen yıl seyirciyle buluşan Soul’u gibi filmlerde ‘sentetik’ Siyah insanlar tasvir edildi. Ne var ki sahnelerin arka planında, ışıklandırma sanatçıları yazılımı varsayılan ayarların dışına çıkmak için zorlamak durumunda kaldıklarını ve bu karakterleri yaratmak için yeni aydınlatma tekniklerini öğrenmek zorunda kaldıklarını fark ettiler. Kullandıkları araçlar beyaz olmayan insanları tasvir etmek amacıyla tasarlanmamıştı; dünyanın teknik açıdan en yetenekli sanatçıları dahi onları etkili bir şekilde kullanabilmek hususunda fazlasıyla zorlandılar.

Ne olursa olsun, şu anda ‘Datagen’ ve ‘Synthesis AI’ gibi yeni kurulan şirketler, yarının yapay zekaları tarafından kullanılması için özel olarak kapsamlı insan veri kümeleri oluşturmak doğrultusunda aynı beyaz insan tasarım algoritmalarını kullanıyorlar. Bir takım sonuçlar üzerinde yapılan eleştirel bir inceleme, yine aynı kalıpları ortaya koyuyor. Beyaz ten aslına uygun biçimde tasvir edilirken, Siyah tenin karakteristik parlaklığı ya rahatsız edici, ya noksan ya da üzüntü verici biçimde aşırı aydınlık.

Bu hatalı algoritmalardan sağlanan veriler yapay zekalar tarafından alındıktan sonra, arızaların kaynağını teşhis etmek neredeyse olanaksız hale gelir. Tesla’nın Roadster adlı araçları beklenmedik bir biçimde Siyah sağlık görevlilerinin ya da doğal saç stilleri [Afro] olan Oakland sakinlerinin üzerinden geçmeye başladığı zaman, bu arabalar “hiç kimse bana Siyah bir tenin gerçek yaşamda nasıl göründüğünü söylemedi” diye geri bildirimde bulunmaz. Yapay sinir ağlarının davranışlarının, eğitim kümelerinde var olan belirli sorunları gözden geçirmesi çok güç ve bu durum da sorunun kaynağını aşırı derece görünmez hale getiriyor.

Sentetik eğitim verileri, bilgileri gerçek dünyadan toplamak aşırı masraflı olduğunda kullanışlı bir kestirme yol olabilir. Bununla birlikte, yapay zeka uygulayıcıları kendilerine şu soruyu sormalı: Muhtemel sonuçlar hesaba katıldığında, buna değer mi? Eğer yanıtınız ‘hayır’ ise, işleri zor yoldan, yani gerçek dünyadaki verileri toplayarak yürütmeniz gerekir.

Hollywood üzerine düşen sorumluluğu yerine getirmeli ve bütün bir insanlık yelpazesini hassasiyetle, ölçülü ve aslına uygun biçimde tasvir edebilen algoritmaların araştırılmasına ve geliştirilmesine yatırım yapmalı. Bu, yalnızca anlatılabilecek hikaye yelpazesini genişletmekle kalmaz, aynı zamanda kelimenin tam anlamıyla birilerinin hayatını da kurtarabilir. Bu yapılmazsa, Siyahların hayatının önemli olduğunun farkında olsanız bile, yakın gelecekte arabanız bunun farkında olmayacak.

Yazının orijinali LA Times sitesinden alınmıştır. (Çeviren: Tarkan Tufan)