Yapay öğrenme ve adalet üzerine

Shutterstock

Sayısallaşan dünya ile yapay zekânın bir alt dalı olan yapay öğrenmenin (makine öğrenmesi)[1]Editör notu: İngilizcedeki machine learning Türkçede yapay öğrenme veya makine öğrenmesi olarak kullanılıyor. Sarkaç’ta yapay öğrenmeyi tercih ediyoruz. gündelik hayatımızın birçok yerinde kilit rol oynadığı bir toplum düzenine doğru ilerliyoruz. Özellikle son yıllarda sağlık, hukuk ve ulaşım gibi alanlarda hayatımızı etkileyecek kararları almada sıklıkla yapay öğrenme yöntemlerine başvurulduğunu biliyoruz.

Temel olarak yapay öğrenme algoritmaları, girdi olarak verilen eğitim veri kümelerini kullanarak, yeni olaylar için tahmin yapma veya karar verme amacıyla bir model oluştururlar.

Örneğin, ABD’deki bazı eyaletlerde adli davalarda hakimler, sanığın yargı sürecinin tutuklu mu tutuksuz mu devam edeceği kararını verirken, sanığın adli geçmişi ile ilgili bilgileri kullanarak yeniden suça karışma riskini tahmin eden bir algoritma kullanıyor.[2]Equivant https://www.equivant.com/our-solutions/ Bu algoritma farklı sanıklara ait birçok sabıka kaydını inceleyerek, sanığın tekrar suç işleyip işlemeyeceğine dair bir risk tahmin modeli oluşturuyor. Benzer şekilde, yapay öğrenme yöntemlerinin sağlık hizmetlerinde de sıklıkla kullanıldığını görüyoruz. Örneğin yapay öğrenme algoritmaları, büyük bir radyolojik görüntü kümesi ile eğitilerek, yeni görüntüler üzerinde kanser teşhisinde bulunabiliyorlar. Bu sistemler üzerinde yürütülen çalışmalar, sistemlerin çeşitli kanser türleri için radyologlardan daha doğru tanılar koyabildiğini gösteriyor.[3]McKinney, Scott Mayer, et al. “International evaluation of an AI system for breast cancer screening.” Nature 577.7788 (2020): 89-94.

Yapay öğrenme algoritmaları adil midir?

Yapay öğrenme insanlar için kritik öneme sahip kararların verilmesinde kullanılması beraberinde ciddi etik sorumluluklar da getiriyor. Teoride çok iyi sonuçlar veren ve düzgün çalıştığı düşünülen yapay öğrenme yöntemlerinin gerçek hayatta kullanılmaları önceden kestirilmesi zor olan olumsuz sonuçlar doğurabiliyor. Yapay öğrenme algoritmaları yeni çıkarımlar yapmayı, eğitim verisini kullanarak öğrendiklerinden, eğitim verisinde bulunan önyargıları ve eşitsizlikleri devralabilirler.

Örneğin ABD’de, yargı alanında kullanılan ve yukarıda bahsedilen yöntemin, risk tahmini yaparken sanığın etnik köken bilgisini doğrudan kullanmamasına rağmen siyah ve beyaz sanıklar için farklı risk tahminlerinde bulunduğu görüldü.[4] https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing Tutuksuz yargılanmaları sırasında yeniden suç işlemeyen sanıklar arasında yapılan bir araştırmada, siyahi sanıkların sistem tarafından yüksek riskli olarak etiketlenme (yanlış pozitif) ihtimalinin beyaz sanıklara göre iki kat daha fazla olduğu gözlemlendi. Bunun sebeplerinden birinin eğitim verisindeki siyahların yeniden suç işleme oranının beyazlara göre daha yüksek olması olduğu düşünülüyor.

Hakimlerin sanıkların tutuklu mu tutuksuz mu yargılanacağına risk puanlarına göre karar verdikleri durumu ele alalım. Örneğin, risk puanı belirli bir eşiğin üstünde olan bütün sanıkların tutuklu yargılanacağına karar verilsin. Bu karar adil bir karar mıdır? Bu sorunun cevabı bizim adaleti nasıl tanımladığımıza bağlı.

Adaleti farklı etnik gruplara eşit davranmak olarak tanımladığımızı varsayalım. Bu durumda siyahların ve beyazların yanlış pozitif oranını eşitlemek adil olacaktır. Bir başka deyişle, algoritmamız yeniden suç işlemeyen sanıkları siyah ve beyaz olmalarından bağımsız olarak eşit oranda yüksek riskli olarak işaretleyecektir. Yani algoritmamız her iki grup için de yeniden suça karışmayanlar için eşit oranda hatalı işaretleme yapacaktır. Eğer hakimler belli risk puanının üstünde sanıkların tutuklu yargılanmasına karar veriyorsa, bu karar yöntemi bu adalet kriterine göre adil değil, çünkü yeniden suç işlemeyen siyahların daha yüksek oranda tutuklu yargılanmasına sebep oluyor.

Eğer adalet kriteri, verilen herhangi bir risk puanı için suç işleme oranının etnik kökenden bağımsız olması olarak tanımlansaydı, yukarıda açıklanan karar yöntemi bu adalet kriterine göre adil olacaktı. Çünkü veri üzerinde yapılan araştırmalar, aynı risk puanına sahip siyah ve beyaz grupların yeniden suç işleme oranlarının birbirine çok yakın olduğunu gösteriyor. [5]Flores, Anthony W., Kristin Bechtel, and Christopher T. Lowenkamp. “False positives, false negatives, and false analyses: A rejoinder to machine bias: There’s software used across the … Devamı

Sonuç olarak, yapay öğrenme algoritmaları önemli kararların verilmesinde kullanılacaksa, bu kararların doğuracağı adalet sorunlarının iyice araştırılarak, algoritmaların seçiminin ve eğitiminin o alanda kabul gören adalet kriterine uygun olarak yapılması gerekli. Bu hedefe veri bilimciler ile ilgili alandaki karar vericilerin iş birliği ile ulaşılabilir.

Eşitsizlikler eşitsizlikleri besleyebilir

Yukarıdaki örnekte bahsettiğimiz üzere, gerçek dünya verileri kullanılarak eğitilen yapay öğrenme modelleri, veri kümesinde önceden var olan önyargıları ve eşitsizlikleri devralabilir. Bu modeller insanları etkileyen kararlar almak için kullanıldıklarında cinsiyet ve etnik köken gibi hassas özniteliklere karşı ayrımcılık gösterebilir. Dahası, bu modeller tarafından önerilen kararlar, modelleri kullanan kişilerin eylemlerini etkileyebilir ve bu yüzden kararlardaki yanlılıklar gelecekteki modelleri eğitmek için kullanılan veri kümesine de işleyebilir. Bu kapalı geri besleme döngüsü kendi kendini güçlendirebilir.

Günümüzde, bu gibi problemler yapay öğrenmeye dayalı kullanıcı deneyimi sunan sanal asistan uygulamalarında da sıklıkla görülüyor. Örneğin, yakın zamanda Amazon Alexa ve Google Home gibi konuşma tanıma ürünlerinde aksan eğilimi olduğu gözlemlendi.[6]Amazon’s Alexa and Google Home show accent bias, with Chinese and Spanish hardest to understand, … Devamı Araştırmalar sonucunda, bu ürünlerin anadili İngilizce olan kullanıcıların sesli komutlarını yüksek doğrulukla algıladıklarının görülmesine rağmen, anadili İngilizce olmayan kullanıcıların sesli komutlarını aynı doğrulukla algılayamadıkları görüldü. Yani, ürünlerin servis kalitesi kullanıcının özelliklerine bağlı değişiklik gösterdi ve bu da kullanıcı memnuniyetinde gruplar arası farklılıklara neden oldu.

Bahsi geçen aksana bağlı eğilim, zaman içinde anadili İngilizce olmayan kullanıcıların ürünleri daha az kullanmasına ve bu kullanıcıların sayısının toplam kullanıcı sayısına oranının azalmasına sebep olabilir. Bu örnekten de görüldüğü üzere, modelin kullanımından doğan kullanıcı popülasyonundaki değişimler sonraki modellerin eğitilmesini etkiler ve bunun sonucunda anadili İngilizce olmayan kullanıcıların ürün deneyimlerinin sürekli daha kötüye gitmesi ve anadili İngilizce olan kullanıcıların deneyimlerinin sürekli daha iyiye gitmesi gibi tezat oluşturacak durumlar oluşabilir.

Kısa dönemde adil görünen modellerin uzun dönem etkileri

Yapay öğrenmede adalet sorunlarının çözümü için önerilen yöntemlerden birçoğu, modeller eğitilirken farklı demografik gruplar arasında belirli istatistiksel ölçütleri eşitleyen kriterleri kullanıyor. Bunlara adalet garantili modeller deniyor.

Örneğin, bir bankanın bireysel kredi sistemini ele alalım. Bu örnekte banka, başvuru sahibinin kredi başvurusunu kredi puanına dayalı olarak onaylayıp onaylamayacağına karar verecektir. Farklı etnik gruplar arasında aynı gerçek pozitif oranını (eşit fırsat) sağlayan kararlar, bankanın kararlarının daha adil görünmesini sağlayabilir. Yani bazı etnik gruplardaki bireylerin kredi puanları diğerlerine göre düşük olmasına rağmen, banka eşitliği sağlamak için onlara kredi verebilir (kredi kabulü oranını farklı etnik gruplar için eşitleyen bir kriter kullanır). Bu durum potansiyel olarak daha yüksek temerrüt riski olan gruptaki başvuru sahiplerine daha fazla kredi verilmesine neden olabilir. Bahsi geçen bireyler arasındaki düşük geri ödeme oranı, bireylerin kredi puanlarının gelecekte daha da düşmesine neden olur ve bunun sonucunda ilgili grubun puan dağılımı yüksek temerrüt riskine doğru kayar. Örnekten anlaşıldığı gibi kısa vadede adil görünen kararlar veren modeller uzun vadede belirli gruplara karşı önyargının artmasına ve istenmeyen sonuçların belirmesine neden olabilir.

Yapay öğrenmede adalet garantili modeller kullanıldığında zaman içinde grup temsilinin nasıl değişeceği ile ilgili önemli bir çalışmayı Bilkent Üniversitesi ve Michigan Üniversitesi işbirliğiyle gerçekleştirdik.[7]Zhang, X., Khaliligarekani, M., Tekin, C., Liu, M. (2019). Group Retention when Using Machine Learning in Sequential Decision Making: the Interplay between User Dynamics and Fairness. In Advances in … Devamı Çalışmada, kullanıcıların sisteme katılma ve sistemden ayrılma kararlarında modellerin başarısının etkili olduğu durumları inceledik. Kısa vadede adil gibi görünen kararların grup temsil eşitsizliğinin zamanla arttırdığı ve dezavantajlı grupların sistemden tümüyle ayrılmasına sebep olabildiğini gösterdik. Örneğin, yukarıda bahsedilen bireysel kredi sisteminde kısa dönemde her gruba eşit fırsat sunmak, bazı grupların kredi puanlarının dağılımını olumsuz yönde etkileyerek, uzun dönemde bu grupları tümüyle sistem dışına itebileceğini gösterdik.

Çalışmanın sonucuna göre, eğer adalet kriteri tarafından eşitlenen faktörler kullanıcının sistemde kalmasını tetikleyen faktörlerle uyuşmazsa, modelin başarısının kullanıcı grupları arasındaki dengesizliği nedeniyle zaman içinde temsil eşitsizliği artıyor. Bir başka deyişle, kısa dönemde adil olan modeller kullanılarak verilen kararlar, farklı kullanıcı gruplarını farklı şekillerde etkileyerek, bu kullanıcı grupların özelliklerini ve toplam nüfusa oranlarını değiştirebiliyor. Bu değişiklikler zaman içinde azınlık olan grubu negatif yönde etkileyerek, temsil eşitsizliğini arttırıyor.

Adalet ve temsil eşitsizliği ile ilgili sorunları nasıl giderebiliriz?

Yapay öğrenmede adilliği tanımlarken, modellerin hedef kitlesi olan kullanıcıların, modellerin verdiği kararlardan nasıl etkilendiğinin iyice anlaşılması önemli. Örneğin, bireysel kredi sistemi uygulamasında adalet kriteri, kredi onaylama algoritmasının çıktılarının farklı grupların kredi puan dağılımlarını ne şekilde etkileyeceği göz önüne alınarak tasarlanmalı. Bununla birlikte, eğer kullanıcıların sistemin kararlarından ne şekilde etkilendikleri, bir başka değişle kullanıcı dinamikleri, yeteri kadar biliniyorsa, modellerin eğitilmesinde bu dinamikleri ele alarak temsil eşitsizliğini azaltan uygun adalet kriterini bulmak da mümkün.

Yukarıdaki ifadeye örnek oluşturması için konuşma tanıma ürünlerini ele alalım. Bu ürünlerin sesli komutları doğru algılama yüzdesinin kullanıcı grupları arasında değişiklik gösterdiği biliniyor. Bunun en önemli sebeplerinden biri modeller oluşturulurken kullanılan eğitim veri kümesindeki temsil eşitsizliğidir. Temsil eşitsizliğinin geri besleme ile daha da artmasını engellemek, kullanıcı dinamiklerini hesaba katan adil modeller ile mümkündür. Örneğin, bu ürünleri kullananların sistemde kalma olasılıklarının, sistemin kullandığı modelin kullanıcıların sesli komutlarını doğru algılama yüzdesi ile doğru orantılı olduğu biliniyorsa, farklı kullanıcı gruplarının toplam nüfustaki oranlarını dengelemek için, yapay öğrenme yöntemleri eğitilirken farklı gruplar için sınıflandırma hatasının eşlenmesi sağlanabilir. Bu sayede azınlık olan grupların sistemin dışına itilmesi önlenebilir.

Yapay öğrenme yöntemlerinin gündelik hayatta kullanılması tıptan hukuka kadar birçok alanda karar vericilerin daha doğru ve objektif kararlar verebilmesine olanak sağlıyor. Bu yöntemlerin kullanılması ile oluşan verinin incelenmesi sayesinde, önyargıların ve eşitsizliğin hangi koşullarda oluşabileceği ve artabileceği hakkında önemli bilgiler edinebiliyoruz. Eğitim veri kümelerindeki önyargıların ve yapay öğrenme algoritmaları kullanılarak verilen kararların kullanıcılar üzerindeki etkilerini gözlemleyebiliyoruz. Bu bilgiler sayesinde, gelecekte daha eşit ve adil kararlar verilmesini sağlayacak yeni teknikler geliştirebiliyoruz.

Cem Tekin
Bilkent Üniversitesi, Elektrik ve Elektronik Mühendisliği (BAGEP 2019)

Notlar/Kaynaklar

Notlar/Kaynaklar
1 Editör notu: İngilizcedeki machine learning Türkçede yapay öğrenme veya makine öğrenmesi olarak kullanılıyor. Sarkaç’ta yapay öğrenmeyi tercih ediyoruz.
2 Equivant https://www.equivant.com/our-solutions/
3 McKinney, Scott Mayer, et al. “International evaluation of an AI system for breast cancer screening.” Nature 577.7788 (2020): 89-94.
4  https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
5 Flores, Anthony W., Kristin Bechtel, and Christopher T. Lowenkamp. “False positives, false negatives, and false analyses: A rejoinder to machine bias: There’s software used across the country to predict future criminals. and it’s biased against blacks.” Fed. Probation 80 (2016): 38.
6 Amazon’s Alexa and Google Home show accent bias, with Chinese and Spanish hardest to understand, https://www.scmp.com/magazines/post-magazine/long-reads/article/2156455/amazons-alexa-and-google-home-show-accent-bias, Erişim 21 Haziran 2021
7 Zhang, X., Khaliligarekani, M., Tekin, C., Liu, M. (2019). Group Retention when Using Machine Learning in Sequential Decision Making: the Interplay between User Dynamics and Fairness. In Advances in Neural Information Processing Systems (pp. 15243-15252).