Yapay zekâ ve algoritmik sorumsuzluk: Makinenin içindeki Şeytan…
1995 yapımı kült film “The Usual Suspects”, Kevin Spacey’nin canlandırdığı Roger “Verbal” Kint‘in polis sorgusu etrafında şekillenir. Kint, Charles Baudelaire’in “Şeytan’ın şimdiye kadar yaptığı en büyük hile, dünyayı kendisinin var olmadığına inandırmasıdır.” sözlerine atıfta bulunur. Bunun anlamı, Şeytan’ın insanlara ne yapmaları gerektiğini söylemek yerine görünmeden manipüle ederek ve davranışları koşullandırarak faaliyet göstermesinin daha etkili olduğudur. Filmin anlatısında, onun rolü muhakemeyi bulandırmak ve ahlaki sorumluluk duygumuzu terk etmemiz için bizi ikna etmektir.
Araştırmamızda, bu durum ile yapay zekanın (YZ) 21. yüzyıldaki rolü arasında paralellik olduğunu öngördük. Neden mi? Yapay zekâ aynı şekilde insanları muhakeme ve ahlaki sorumluluktan vazgeçmeye teşvik ediyor. Bilinçli zihinlerimizden bir dizi seçeneği çıkararak şaşırtıcı bir insan faaliyetleri yelpazesinden muhakemeyi uzaklaştırıyor. Dahası, bunu nasıl yaptığını tam olarak anlamadan olumsuz etkilerinin önüne geçmemiz mümkün değildir.
YZ’nin rolü bugün o kadar yaygın bir şekilde kabul görmüştür ki çoğu insan özünde bunun tamamen farkında değildir. Diğer şeylerin yanı sıra, bugün YZ algoritmaları kiminle flört edeceğimizi, tıbbi tanılarımızı, yatırım stratejilerimizi ve aldığımız sınav notlarını belirlemeye yardımcı oluyor.
Konu Başlıkları
Ciddi avantajlar, gizli etkiler
Sosyal medyadan toplanan insan davranışlarına ilişkin ayrıntılı verilere yaygın erişim sayesinde yapay zekâ, çoğu gelişmiş ekonominin kilit sektörlerine nüfuz etmiş durumda. Belgeleri analiz etmek gibi izlenebilir konularda, genellikle daha yavaş ve hataya daha açık olan insan alternatiflerine kıyasla olumlu bir performans sergileyerek onu kullananlar için muazzam verimlilik artışları ve maliyet düşüşlerine öncülük etmektedir. Hayat arkadaşı seçimi gibi daha karmaşık sorunlarda ise YZ’nin rolü daha belirsizdir: Seçimleri şekillendirir ve seçim yapanları “yönlendirir”.
İşte bu tür karmaşık sorunlarda, YZ’nin karar verme sürecindeki yükselişinin önemli riskler içerdiğini görüyoruz. Her insan seçimi mutlaka girdilerin (ilgili bilgiler, duygular vb.) çıktılara (yargılar) aktarımını içerir. Ancak her seçim kaçınılmaz olarak bir yargı da içerir; yargı olmadan bir seçimden ziyade bir tepkiden bahsedebiliriz. Seçimin yargılayıcı yönü, insanların sorumluluk yüklemesine olanak tanıyan şeydir. Ancak YZ tarafından daha karmaşık ve önemli seçimler yapıldıkça ya da en azından bu seçimler güdülendikçe, insanlara sorumluluk atfetmek daha zor hâle gelmektedir. 1 Hem kamu hem de özel sektör aktörlerinin bu muhakeme erozyonunu benimsemesi ve kendilerini suçlamalardan yalıtmak için tam olarak YZ algoritmalarını benimsemesi riski de vardır.
Yakın tarihli bir araştırmada, sağlık politikasında YZ‘ye güvenmenin önemli ahlaki tartışmaları nasıl gizleyebileceğini ve böylece sağlık sektöründeki aktörleri nasıl “sorumsuzlaştırabileceğini” ele aldık. 2
Muhakemenin ve sorumluluğun erozyona uğraması
Araştırmamızın temel çıkarımları daha geniş bir faaliyet yelpazesi için de geçerlidir. Yapay zekânın yol açtığı muhakeme erozyonunun sorumluluk duygumuzu körelttiğini, hatta ortadan kaldırdığını savunuyoruz. Bunun nedenleri şunlardır:
YZ sistemleri kara kutular olarak çalışır
Bir YZ sisteminin girdisini ve çıktısını bilebiliriz; ancak çıktıların girdilerden nasıl çıkarıldığını takip etmek fevkalade zordur. Görünüşe göre bu içinden çıkılmaz belirsizlik bir dizi ahlaki sorun yaratmaktadır. Bir kara kutu, bir karar veya eylemden nedensel olarak sorumlu olabilir, ancak bu yargıya nasıl ulaştığını veya bu eylemi nasıl yaptığını açıklayamaz. Uzmanlar kara kutuyu açıp içerdiği uzun hesaplama dizilerini analiz etseler bile, bunlar insani bir gerekçe veya açıklamaya benzeyen herhangi bir şeye dönüştürülemez.
Kişiliksiz kural sistemlerini sorumlu tutmak
Kurumsal akademisyenler, bürokrasilerin bireyleri en kötü suçlardan nasıl aklayabildiğini uzun zamandır inceliyorlar. Klasik metinler arasında Zygmunt Bauman’ın Modernity and the Holocaust ve Hannah Arendt’in Eichmann in Jerusalem adlı kitapları sayılabilir. Her ikisi de normalde makul olan insanların nasıl olup da suçluluk hissetmeden vahşete katılabildikleriyle ilgilenmişlerdir. Bu olgu bireylerin sorumluluğu ve suçu kişisel olmayan bürokrasilere ve onların liderlerine yüklemesi sayesinde ortaya çıkmıştır. YZ’nin devreye girmesi bu olguyu daha da güçlendirdi; çünkü artık liderler bile sorumluluğu politika önerileri yayınlayan ve politika tercihlerini belirleyen YZ sistemlerine yükleyebiliyor.
Sorumluluğun temel nedenler yerine yapay zekâya atfedilmesi
YZ sistemleri örüntüleri anlamak üzere tasarlanmıştır. Ancak, insanların aksine, bu kalıpların anlamını kavramazlar. Dolayısıyla, bir şehirdeki suçların çoğu belirli bir etnik grup tarafından işleniyorsa, YZ sistemi bu korelasyonu çabucak tespit edecektir. Ancak, bu korelasyonun daha derin, daha karmaşık nedenlerin bir eseri olup olmadığını dikkate almayacaktır. Dolayısıyla, bir YZ sistemi polise potansiyel suçlular arasında ten rengine göre ayrım yapması yönünde telkinde bulunabilir; ancak ırkçılığın, polis şiddetinin ve yoksulluğun ilk etapta suç davranışına neden olmada oynadığı rolü anlayamaz.
Kimsenin suçlanamayacağı, kendi kendini gerçekleştiren kehanetler
Yaygın olarak kullanılan yapay zekâların çoğu geçmiş verilerden beslenir. Bu, cilt kanserleri gibi fizyolojik durumların tespit edilmesi durumunda işe yarayabilir. Ancak sorun, YZ’nin sosyal kategorileri sınıflandırmasının uzun vadede kendi kendini gerçekleştiren bir kehanet olarak işleyebilmesidir. Örneğin, YZ tabanlı cinsiyet ayrımcılığı araştırmacıları, kadınlara, transseksüellere ve çift cinsiyetli bireylere karşı önceden var olan sosyal ön yargıları hiç ortaya koymadan abartan algoritmaların içinden çıkılmaz olduğunu kabul etmektedir.
Biz ne yapabiliriz?
Elimizde YZ’nin sorumsuzlaştırıcı eğilimlerine karşı kullanabileceğimiz sihirli bir değnek yoktur ve akademisyenler ve bilim insanları, YZ temelli verilerin ne zaman kabul edilip bunlara ne zaman itiraz edilmesi gerektiğine karar vermek bizim görevimiz değildir. Bu, en iyi demokratik müzakereye bırakılmış bir karardır. Ancak bizim görevimiz, mevcut durumda yapay zekâ temelli hesaplamaların, ahlaki karar vermeyi kolaylaştırmak yerine daha da zorlaştıran kara kutular olarak çalıştığını anlayabilmektir.
Bu makale Sosyolog Ömer Yıldırım tarafından www.felsefe.gen.tr için, Ismael Al-Amoudi’nin “Artificial intelligence and algorithmic irresponsibility: the devil in the machine?” isimli makalesinden Türkçeye çevrilip derlenerek hazırlanmıştır. Alıntılanması durumunda kaynak gösterilmesi, ahlaklıca olanıdır.
Çeviri ve Derleme: Sosyolog Ömer Yıldırım
KAYNAKÇA
- Al-Amoudi, I. ve Latsis. J. (2019). Anormative black boxes. Philosophy of Human Nature, – (-), 119-142, http://dx.doi.org/10.4324/9781351233477-7
- Al-Amoudi, I. ve Lazega, E. (2019). Post-Human Institutions and Organizations Confronting the Matrix. https://www.routledge.com/Post-Human-Institutions-and-Organizations-Confronting-the-Matrix/Al-Amoudi-Lazega/p/book/9780815377948