Yapay zeka 'aklını yitiriyor': Veriler, modelin beynini yakıyor
Bilim insanları, yapay zeka tarafından üretilen içerikle beslenen yapay zeka modellerinin 'aklını yitirdiğini' tespit etti. Yapay zekayı besleme için, 'taze gerçek veriler' gerektiği belirtildi.
DUVAR - Yapay zekanın kriptoniti* bir diğer yapay zeka olabilir. Rice ve Stanford Üniversitesi’nde görevli bilim insanları, yapay zeka tarafından üretilen içerikle beslenen yapay zeka modellerinin çıktı kalitelerinde aşınma yaşandığını duyurdu. Üretken yapay zeka modellerini yapay zeka ile eğittiğinizde bu ‘ouroboros’** benzeri öz-tüketim, modelin dijital beynini yakıyor. Ya da bu bilim insanlarına bakılırsa, modeli ‘delirtiyor.’
Araştırmacılar, “Görüntü, yazı ve öteki veri türleri alanında üretken yapay zeka yazılımlarında yaşanan sarsıcı ilerlemeler, yeni nesil modelleri eğitmek için yapay verileri kullanma fikrini çekici hale getirdi” diyor: “Bu işlemi yinelemek, özellikleri kesin biçimde anlaşılamayan ‘otofajik’ (kendi kendini tüketen) bir döngü oluşturuyor.”
“Senaryoların tamamında ulaştığımız öncelikli sonuç, otofajik bir döngünün her bir neslinde yeterince taze ve gerçek veri olmadığında, geleceğin üretken modellerinin kalitesinin (kesinliklerinin) ya da çeşitliliğinin (hafızasının) git gide azalmaya mahkûm olduğuydu” diye ekliyorlar: “Bu duruma ‘Model Otofaji Bozukluğu’ (MAD) [DELİ] ismini verdik.”
Başka bir deyişle, canavarı beslemek için “taze gerçek veriler” -yani, yapay zekanın etrafına saçtığı şeylerin aksine, orijinal insan ürünü bilgi- yoksa, çıktılarının büyük oranda hasarlı olmasını bekleyebiliriz. Araştırmacılar, yapay içerik konusunda tekrar tekrar eğitildiğinde, bir modelin eğitim verileri dahilinde uzaklarda kalan, daha az görünür olan bilgilerin kaybolmaya başlayacağını ifade ediyorlar. Model daha sonra giderek kanıksanan ve daha az çeşit içeren verilerden bilgi edinmeye başlayacak ve neticede, kısa süre içinde kendi içine çökmeye başlayacak. Araştırmacıların kullandığı ‘MAD’ terimi, işte bu kendi kendini yutma sürecini betimliyor.
Makale henüz hakem denetiminden geçmediği için, ulaşılan sonuçlara şüpheci bakmakta fayda var. Her ne olursa olsun, ulaştığı sonuçlar fazlasıyla zorlayıcı. Makalede ayrıntılı biçimde aktarıldığı kadarıyla, testten geçirilen bir yapay zeka modeli, çıktılardaki çatlaklar açığa çıkmaya başlamadan önce, beş defa sadece yapay içerikli eğitimden geçirildi. Ve eğer yapay zekanın yaptığı şey aslında yapay zekayı kırmaksa, bunun gerçek dünya da sonuçları olacaktır.