Makinelerin Ne Öğreneceğini Yaşayarak Göreceğiz… Big Data analitiği, makine öğrenimi ve diğer gelişmekte olan yapay zeka (AI) teknolojileri, şirketlerin kaçırdıkları veri modellerini görmelerine ve bunlara tepki vermelerine çok kısa sürede şaşırtıcı bir şekilde iyi gelir. Bununla birlikte, bu yeni modeller gittikçe zorlu etik tercihler taşıyor. Veri noktaları arasındaki her bağlantı yapılmamalı, her yeni içgörünün kullanılması gerekmiyor. Bu utanç verici gerçek dünya örneklerini göz önünde bulundurun ‘:

Bir şirket, hamileliklerini açıklamaya hazır olmayan kadınlara “yeni bebeğiniz için tebrikler” duyuruları gönderdi.
Bir başka şirket, orantısız bir şekilde, alıcının, azınlık etnik gruplarına ait olduklarını ima eden isimler taşıyanlara tutuklama kaydının bulunduğunu ima eden reklamları hedef aldı.
Bir gezinti şirketi, müşterilere, geceleri ve geç saatlerde bir adrese gitmiş müşterilerin kayıtlarını, ertesi sabah erken saatlerde kendi evlerine götürdüklerini, neydi ve nazik bir öneri ile konuklarını gösterdi. Arasında yapıyor olabilir.
Teknolojinin gelişimi kaçınılmaz olarak hatalar içerir, ancak bu algoritmik başarısızlıkların kasıtsız olduğu gerçeği onları daha az acı çekmez hale getirmiştir. Aynı zamanda onları etik açıdan şüpheli hale getirmedi. Bunun için algoritmaları suçlayamayız. Onlar sadece yaptıklarını yapıyorlardı.
Benzer şekilde, Microsoft, konuşma dilini anlamak için bir AI eğitiminde eğlenceli bir deney olması amaçlanan bir “sohbet botu” olan “Tay” ile 2016 yılının başında moral bozucu bir deneyime sahipti. Bununla birlikte, troller Twitter’daki ve mesajlaşma uygulamalarında GroupMe ve Kik’teki çabalarını koordine ettiğinde Tay’a onlara ırkçı bir şekilde tepki vermelerini ve böylece Microsoft’u yalnızca 16 saat sonra çevrimdışı duruma getirmelerini öğretebiliyorlardı.

Yapay zeka, daha şimdiden yalnızca iş süreçlerini değil, etik seçimleri otomatikleştirmesini de istiyoruz. Bununla birlikte, Tay olayı gösterdiği gibi, hala insan istihbaratının ve sezgilerinin bağlamından ve empatisine sahip değildir. Çoğu zaman, AI kullanan organizasyon ya da kararlarından etkilenen insanlar, sonuçlarına ne şekilde geldiklerini ya da yanlış olduğunda bu sonuçları düzeltmek için başvuruda bulunabileceklerini açıkça anlıyorlar.

ETİK KENAR ÜZERİNDE AI

AI, katlanarak ilerledikçe, teknolojinin imkânlarına rağmen değil, onlardan dolayı etik risklerini acilen anlamalı ve hafifletmeliyiz. Zaten AI’ya sadece sonuç değil potansiyel olarak yaşamı değiştiren kararlar üzerinde AI’ya büyük bir güç veriyoruz. Buradakiler sadece birkaç örnek:

Başlangıçta borç verme riskini değerlendirmek için kullanılan kredi puanlama algoritmaları, artık birisinin iş teklifi alması veya bir daire kiralaması konusunda karar vermek için yaygın olarak kullanılmaktadır. Sigorta poliçesi algoritmaları, başvuranın kabul etmediği az bir başvuru ile, birisinin kapsama alanını, ne kadarını ve ne maliyetini alabileceğini belirler. Bir sigortacı ya da potansiyel bir işveren, sağlık algoritmalarını, gelecekte bir noktada hasta olabilecekleri için asla cezalandırmak için kullanabilir. Ve veri bilimcisi Cathy O’Neil, en çok satan kitabı “Matematiksel İmha Silahlarında” araştırırken, polis teşkilatına odaklanacağı yerden kolluk kararları verildi ve ırkçı önyargılardan dolayı meşhur oldu.

 

Bu sorunlar yeterince karmaşık değilse, kendinden tahrikli otomobillerde çalışan mühendisler tarafından karşı karşıya kalacak olan “araba arabası problemi” var: her olası sonuç kötü olduğunda bir kaza durumunda arabaya ne talimat veriyorlar? (Bu görevin ne kadar zor olabileceği konusunda, kendiliğinden çalışan bir otomobilin karşılaşabileceği birden fazla senaryo arasından seçim yapmanıza izin veren bir MIT web sitesi olan Moral Machine’i ziyaret edin.) Bu kararları nasıl vereceklerini hafifçe söylemek gerekirse zor soru. Makineler yaşamı değiştiren veya hatta yaşamı biten seçimler yapmaya başladıklarında toplum nasıl tepki vermeli, katlanarak daha fazla.

KESİNTİSİZ KUSURSUZ MUHALEFET?

AI’nın matematik denklemlerine dayandığı için hatalı olduğunu hemen bilmesini bekleyemeyiz. Bunun yanlış bir şey yapmamızı engelleyeceğini bile varsayamayız. Yanlış sebeplerden ötürü zaten AI kullanmanın çok kolay olduğu ortaya çıkıyor.

Örneğin, öğrencilerin üniversitedeki ilk yıllarında sıklıkla mücadele ettiği bilinmektedir. Austin Üniversitesi, Austin’de flört eden yeni öğrencileri belirlemenize yardımcı olan ve onlara çalışma kılavuzları ve çalışma ortakları gibi ek kaynaklar sunan bir algoritma uyguladı. O’Neil, kitabında onaylanmış bir şekilde bu projeyi onayladı; çünkü öğrencilerin derslerini geçme, çalışma alanlarında ilerleme ve en sonunda mezun olma şansını arttırdı.

Peki ya bir okul benzer bir algoritma kullanarak farklı bir amaç kullandı? Ortaya çıktıkça, biri yaptı. 2016 yılının başında, ABD’deki bir özel üniversite, zayıf notlarla risk altındaki yeni öğrencileri belirlemek için bir matematik modeli kullandı; daha sonra bu öğrencileri, okulun saklama sayılarını ve dolayısıyla akademik sıralamasını iyileştirmek için yılın erken saatlerinde okuldan ayrılmalarını önerdi. Plan sızdırıldı, öfke çıktı ve üniversite düzeldi.

Bu, rahatsız edici bir şekilde, insanların proaktif bir şekilde tutuklandığı gelecekteki bir dünyayı öne sürdüğü 2002 Film Azınlık Raporu’nu anımsatıyor olabilir; çünkü bilgisayarlar, gelecekte yasayı çiğereceğini öngörüyor. O distopik noktada değiliz, ancak gelecekte neler olacağına dair spekülasyonlar yaparak bir kariyer yapmış olan fütüristler, keşfedilmemiş sularda zaten derin olduğumuzu ve AI etiği hakkındaki düşüncelerimizi derhal geliştirmemiz gerektiğini söylüyor.

GEÇMİŞ DÜŞÜNME, GELECEK PLANLAMA

Bunun hiçbir yolu yoktur: Tüm makine öğrenimi yerleşik varsayımlara ve önyargılara sahip olacaktır. Bu AI’nın bilerek çarpık veya önyargılı olduğu anlamına gelmez; Sadece algoritmaların ve onları sürükleyen verilerin insanlar tarafından yaratıldığı anlamına gelir. Kendi varsayımlarımızı ve önyargılarımızı bilinçsiz olsa bile yardımcı olamayız, ancak iş dünyası liderleri bu basit gerçeğin farkında olmalı ve ona karşı önlem almalılar.

AI’nın muazzam bir potansiyeli var, ancak eğer insanlar güvenebileceklerini düşünmezse, evlatlık edinirler. Sadece risklerden kaçınırsak faydaları da kaybederiz. Bu nedenle işletmeler, üniversiteler, hükümetler ve diğerleri, AI ile ilgili endişeler, ilkeler, kısıtlamalar, sorumluluklar, istenmeyen sonuçlar, yasal konular ve şeffaflık gereksinimleri konusunda araştırmalar başlatıyor ve diyaloga giriyor.

Ayrıca, AI kaynaklı geleceğimizde, en iyiyi maksimize etmek ve kötüyü en aza indirmek için etik en iyi uygulamaların ilk keşiflerini görmeye başlıyoruz. Örneğin, algoritmaları, önyargı öğrenmediklerinden emin olmak için izlemek için yeni bir hareket ortaya çıkıyor ve daha da önemlisi, tarafsızlık için değil, olumlu hedefleri ilerletme yetenekleri için onları denetlemek için. Buna ek olarak, 2014 yılında başlatılan ve AI tarafından yönetilen karar vermenin ayrımcılık yapılmaması, anlaşılabilir olması ve yükümlülüklerin yerine getirilmesi konularında yoğunlaşan zorluklara odaklanan yıllık bir akademik konferans, Adalet, Hesap Verebilirlik ve Makine Öğrenmesinde Şeffaflık (FATML) var. süreci.

Fakat makine öğrenmeyi daha adil, hesap verebilir ve şeffaf hale getirmek bekleyemez. AI alanı büyümeye ve olgunlaşmaya devam ederken, şu adımlarla hemen hareket etmemiz gerekiyor:

Öncelikle, AI algoritmalarının hangi teşviklerin teşvik edildiğini düşünmemiz ve doğru yönlendirmemizi sağlamak için onları değerlendirmek ve iyileştirmek için süreçler inşa etmekteyiz – ki bu da etik yönü demektir.

Ayrıca AI kararlarından etkilenen insanlara yönelik insan odaklı geçersiz kılma yöntemleri, yardım başvuru yolları ve resmi şikayet prosedürleri oluşturmalıyız.

 

Anti-bias yasalarını algoritmaları da içerecek şekilde genişletmeliyiz. Uygar ülkeler silahlara kontroller koydular; Veriler bir silah olarak kullanıldığında, yanlış kullanımdan korumak için hükümet denetimlerine ihtiyaç duyarız.

En önemlisi, AI ve ahlak sorununu, toplumsal bir sorun olmaktan çok, teknolojik bir mesele olarak görüyor olmalıyız. Bu, AI sistemlerini oluşturan teknologlardan, bunları kuruluşlara pazarlayan satıcılara pazarlayan herkes için, örgün eğitim ve istihdam eğitiminin bir parçası olarak etik eğitimi vermek anlamına geliyor. Bu, geliştiricilerin ve veri bilimcilerinin, AI projelerinde ortaya çıkan etik sorunları gördüklerinde muhalefeti ifade edebilecekleri yollar geliştirmek anlamına geliyor. Bu, değerleri sistem tasarımına dahil eden metodolojiler yaratmak ve kullanmak anlamına gelir.

Esasen, AI sadece bir araçtır. Bunu etik standartları belirlemek için kullanabiliriz, yoksa bunları atlatmanın bahanesi olarak kullanabiliriz. Doğru seçimi yapmak bize kalmıştır.

Yürütücü kısa metni Okuma Kitapçılarını Hatalı Yoldan okuyun.