Microsoft'tan Kate Crawford: 'Yapay Zeka ne yapay ne de akıllıdır'

Yapay zeka araştırmacısı, doğal kaynakların ve insan emeğinin makine öğrenimini nasıl yönlendirdiğini ve algoritmalarına eklenen gerileyen klişeleri araştırıyor.

Kate Crawford , yapay zekanın sosyal ve politik sonuçlarını inceliyor. Güney Kaliforniya Üniversitesi'nde iletişim, bilim ve teknoloji çalışmaları alanında araştırma profesörü ve Microsoft Research'te kıdemli baş araştırmacıdır . Yeni kitabı, Yapay Zeka Atlası, dünyamızı yeniden şekillendirirken yapay zeka yapmak için nelerin gerektiğine ve neyin tehlikede olduğuna bakıyor.

Yapay zekayı eleştiren bir kitap yazdınız ancak dağıtımında liderler arasında yer alan bir şirket için çalışıyorsunuz. Bu daireyi nasıl karelersiniz?

Ürün geliştirmeden ayrı, ayrı bir organizasyon olan Microsoft'un araştırma kanadında çalışıyorum. Alışılmadık bir şekilde, 30 yıllık tarihi boyunca, teknolojilerin nasıl inşa edildiğine eleştirel bir şekilde bakmaları için sosyal bilimcileri işe aldı. İçeride olduğumuz için, genellikle sistemler geniş çapta dağıtılmadan önce olumsuzlukları görebiliriz. Kitabım herhangi bir yayın öncesi incelemeden geçmedi - Microsoft Research bunu gerektirmez - ve laboratuvar liderlerim, cevaplar mevcut teknolojik uygulamaların eleştirel bir değerlendirmesini içerse bile zor sorular sormayı destekliyor.

Kitabın amacı ne?

Genellikle soyut ve önemsiz olan bu yapay zeka vizyonuyla karşılaşırız. Yapay zekanın daha geniş bir anlamda nasıl yapıldığını göstermek istedim - doğal kaynak maliyetleri, emek süreçleri ve sınıflandırma mantığı. Bunu gözlemlemek için, bir algoritmik yönetim sistemi altında olmanın işçiler üzerindeki fiziksel ve psikolojik yükünü görmek için yer kabuğundan gerekli olan çıkarmayı ve bir Amazon lojistik merkezini görmek için madenler de dahil olmak üzere yerlere gittim. Umuyorum ki, yapay zeka sistemlerinin nasıl çalıştığını göstererek – üretim yapılarını ve maddi gerçekleri ortaya koyarak – etkileri daha doğru bir şekilde anlatacağız ve daha fazla insanı konuşmaya davet edeceğiz. Bu sistemler, güçlü düzenlemeler, rıza veya demokratik tartışmalar olmaksızın çok sayıda sektöre yayılıyor.

İnsanlar AI ürünlerinin nasıl yapıldığı hakkında ne bilmeli?

Bu sistemleri çevresel maliyetler açısından düşünmeye alışık değiliz. Ancak, “Hey, Alexa, bana biraz tuvalet kağıdı sipariş et” demek, gezegenin her tarafına yayılan bu çıkarma zincirinin varlığını çağrıştırıyor… Bu yeşil teknoloji olmadan önce daha gidecek çok yolumuz var. Ayrıca, sistemler otomatik görünebilir, ancak perdeyi kaldırdığımızda, verileri kategorize eden kalabalık işlerden, Amazon kutularını karıştırmanın bitmeyen zahmetine kadar çok miktarda düşük ücretli emek görüyoruz. AI ne yapay ne de akıllıdır. Doğal kaynaklardan yapılır ve sistemlerin özerk görünmesini sağlamak için görevleri yerine getiren insanlardır.

Önyargı sorunları AI teknolojisinde iyi belgelenmiştir. Daha fazla veri bunu çözebilir mi?

Önyargı, bahsettiğimiz türden sorunlar için çok dar bir terimdir. Bu sistemlerin tekrar tekrar hatalar ürettiğini görüyoruz - kadınlar kredibilite algoritmaları tarafından daha az kredi verildi, siyah yüzler yanlış etiketlendi - ve yanıt şu oldu: "Sadece daha fazla veriye ihtiyacımız var." Ama bu daha derin sınıflandırma mantığına bakmaya çalıştım ve siz sadece sistemlerin uygulandığı zaman değil, aynı zamanda nasıl inşa edildikleri ve dünyayı görmek için eğitildikleri konusunda da ayrımcılık biçimlerini görmeye başlıyorsunuz. Makine öğrenimi yazılımı için kullanılan eğitim veri kümeleri insanları gelişigüzel bir şekilde iki cinsiyetten birine kategorize etmek; İnsanları ten rengine göre beş ırk kategorisinden birine etiketleyen ve insanların nasıl göründüğüne bağlı olarak ahlaki veya etik karakter atamaya çalışan. Bu tespitleri görünüşe göre yapabileceğiniz fikri karanlık bir geçmişe sahip ve ne yazık ki sınıflandırma siyaseti yapay zekanın alt katmanlarına işlendi.

Nesne tanıma için halka açık büyük bir eğitim veri seti olan ImageNet'i seçiyorsunuz…

20.000'den fazla kategoride yaklaşık 14 milyon görüntüden oluşan ImageNet, makine öğrenimi tarihindeki en önemli eğitim veri setlerinden biridir. Nesne tanıma algoritmalarının etkinliğini test etmek için kullanılır . 2009'da, web'den muazzam miktarda görüntü kazıyan ve kalabalık çalışanların bunları 1980'lerde oluşturulan sözcüksel bir veritabanı olan WordNet'teki isimlere göre etiketlemesini sağlayan bir dizi Stanford araştırmacısı tarafından başlatıldı.

2017'den başlayarak, insanların nasıl etiketlendiğine bakmak için sanatçı Trevor Paglen ile bir proje yaptım . Kadın düşmanı, ırkçı, güçlü ve aşırı derecede yargılayıcı olan korkunç sınıflandırma terimleri bulduk. İnsanların resimleri, kleptoman, alkolik, kötü insan, dolap kraliçesi, telekız, sürtük, uyuşturucu bağımlısı gibi kelimelerle eşleştiriliyordu ve burada söyleyemeyeceğim çok daha fazlası. ImageNet şimdi açıkça sorunlu insan kategorilerinin çoğunu kaldırdı - kesinlikle bir gelişme - ancak sorun devam ediyor çünkü bu eğitim setleri hala [dosyaların eşler arasında paylaşıldığı] torrent sitelerinde dolaşıyor.

Ve halka açık olduğu için sadece ImageNet'i inceleyebilirdik. Teknoloji şirketleri tarafından tutulan ve tamamen gizli olan devasa eğitim veri kümeleri var. Fotoğraf paylaşım servislerine ve sosyal medya platformlarına yüklediğimiz görüntüleri talan edip özel sistemlere çevirmişler.

Duygu tanıma için AI kullanımını çürüttünüz ama AI duygu tanıma teknolojisi satan bir şirkette çalışıyorsunuz . Duygu tespiti için yapay zeka kullanılmalı mı?

Birinin yüzünden ne hissettiğini görebileceğiniz fikri derinden kusurludur. Bunun mümkün olduğunu düşünmüyorum. Düzenleme için en acil ihtiyaç duyulan alanlardan biri olduğunu savundum . Bugün çoğu duygu tanıma sistemi, psikolojide 1970'lerde - özellikle de Paul Ekman tarafından geliştirilen - doğru teknikler kullanılarak okunabilen, hepimizin yüzümüzde gösterdiğimiz altı evrensel duygu olduğunu söyleyen bir düşünce çizgisine dayanmaktadır . Ancak en başından beri bir geri dönüş vardı ve daha yakın tarihli çalışmalar, aralarında güvenilir bir ilişki olmadığını gösteriyor.Yüzdeki ifadeler ve gerçekte ne hissettiğimiz . Yine de , insanların yüzlerinin videolarına bakarak duyguların kolayca çıkarılabileceğini söyleyen teknoloji şirketlerimiz var . Hatta araba yazılım sistemlerinde yerleşik olarak görüyoruz .

Yapay zekanın etiğine daha az, güce daha çok odaklanmamız gerektiğini söylerken ne demek istiyorsun?

Etik gereklidir, ancak yeterli değildir. Bu yapay zeka sisteminden kimin yararlandığı ve kimin zarar gördüğü gibi sorular daha yararlı olabilir. Ve gücü zaten güçlü olanın eline veriyor mu? Yüz tanımadan işyerlerinde izleme ve gözetlemeye kadar tekrar tekrar gördüğümüz şey, bu sistemlerin zaten güçlü olan kurumları (şirketler, ordular ve polis) güçlendirdiğidir.

İşleri daha iyi hale getirmek için ne gerekiyor?

Eğitim veri kümelerinin nasıl oluşturulduğu konusunda çok daha güçlü düzenleyici rejimler ve daha fazla titizlik ve sorumluluk. Ayrıca bu tartışmalarda farklı seslere ihtiyacımız var - bu sistemlerin olumsuz taraflarını gören ve yaşayan insanlar dahil. Ve bir teknoloji inşa edilebildiği için kullanılması gerektiği anlatısına meydan okuyan yenilenmiş bir reddetme politikasına ihtiyacımız var.

İyimserlik var mı?

Bana umut veren şeyler oluyor. Bu Nisan ayında AB, AI için ilk çok amaçlı düzenleme taslağını hazırladı. Avustralya ayrıca AI'yı düzenlemek için yeni yönergeler yayınladı. Yamalanması gereken delikler var - ancak artık bu aletlerin çok daha güçlü korkuluklara ihtiyacı olduğunu anlamaya başlıyoruz. Ve bana düzenlemedeki ilerleme kadar iyimserlik vermek, değişim için ajite eden aktivistlerin işidir.

AI etik araştırmacısı Timnit Gebru , yöneticilerin araştırmasını eleştirmesi üzerine geçen yılın sonlarında Google'dan ayrılmaya zorlandı . Endüstri liderliğindeki eleştirinin geleceği nedir?

Google'ın Timnit'e yaklaşımı hem endüstri hem de akademik çevrelerde şok dalgaları gönderdi. İyi haber şu ki, sessizlik görmedik; bunun yerine, Timnit ve diğer güçlü sesler konuşmaya devam etti ve teknik sistemlerin tasarlanması ve dağıtılması için daha adil bir yaklaşım için bastırdı. Kilit unsurlardan biri, endüstrideki araştırmacıların kurumsal müdahale olmadan yayın yapabilmelerini sağlamak ve üniversitelerin sağlamaya çalıştığı aynı akademik özgürlüğü teşvik etmektir.

Kate Crawford'un Yapay Zeka Atlası, Yale University

Avatar
Adınız
Yorum Gönder
Kalan Karakter:
Yorumunuz onaylanmak üzere yöneticiye iletilmiştir.×
Dikkat! Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, müstehcen, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen Üye/Üyeler’e aittir.