Hukuk uygulaması hem dünyada hem de ülkemizde teknolojik çözümlere ve yardımcılara yabancı değil. Önce CD’ler, sonra veritabanları araştırmacıların ve uygulayıcıların işini oldukça kolaylaştırdı. Eskiden kütüphanelerde nadiren bulunan birçok önemli kaynağa bugün internetteki veritabanları üzerinden kolayca ulaşmak, sayfalar arasında boğulmadan kelime kelime arama yapmak mümkün. UYAP (Ulusal Yargı Ağı Bilişim Sistemi) elektronik ortamda adli işlemleri mümkün kılıyor. Sabıka kaydı almak için dilekçe doldurup savcılığa gitmeniz gerekmiyor, e-devlet üzerinden istediğiniz dilde bir kopyasını birkaç dakikada çıkartabiliyorsunuz.
Bütün bu ve benzeri uygulamalar çok kısa sürede hukuk uygulamasında büyük kolaylık sağladı, fakat yapay zekâ yazılımlarındaki yeni gelişmeler bize bundan ötesini vadediyor.
Önce halihazırda kullanılan uygulamalara bir göz atalım:
Estonya’da değeri yedi bin Euro’ya kadar davalara bu tip bir yazılımın hakimlik yapması planlanıyor [1].
Almanya ve İngiltere’de[2] polis, suçu önceden tahmin edip engellemeye yönelik yazılımlar kullanıyor. Yapay zekâ eldeki veriler ile hangi bölgelerde hırsızlık vakalarının yaşanabileceğini önceden haber veriyor. Fakat Max Planck enstitüsünün yaptığı çalışmaya göre Almanya’daki uygulama pek de başarılı değil.[3] PRECOBS ismindeki yazılım kırık camlar teorisine benzer bir mantığı temel alarak çalışıyor, kısa zaman diliminde, belli koşullar altında bir bölgede işlenmiş hırsızlık suçlarının yenilerini tetikleyeceği varsayılıyor. İşlenen suçlar yere, zamana, çalınan eşyalara, suçun işleniş biçimine göre puanlandırılıyor ve buna göre yeni vakalar önceden tahmin edilmeye çalışılıyor. Enstitünün raporuna göre yazılımın suçları önlemeye yönelik etkisini kanıtlayacak yeterli bulgu yok.
İngiltere’de AİHM kararları ile yapılan bir çalışmada yapay zekânın verdiği her beş karardan dördünün mahkeme kararıyla örtüştüğü görüldü.[4]
Amerika Birleşik Devletleri’nde mahkemeler bir süredir bazı eyaletlerde ceza süresinin ve failin tekrar suç işleme ihtimalinin belirlenmesinde yapay zekâ yazılımlarından faydalanıyor. Yazılım kendisine gösterilen örnek kararlar üzerinden öğrenip yeni davalar, failler hakkında hüküm kuruyor.
Bu konuda uygulamaya geçmiş en çarpıcı örnek ABD’de kullanılan ve failin tekrar suç işleme riskini hesaplayan Compas yazılımı. Yazılım basitçe, belli kıstasları değerlendirerek tekrar suç işleme ihtimaline 1 ila 10 arasında bir değer veriyor. Bunu yaparken yalnızca şahsın sabıkasına değil aynı zamanda yakınlarının sabıkaları, ailedeki alkol uyuşturucu kullanımına, çevresine, oturduğu muhite, öfke, saldırganlık durumuna vs. bakarak değerlendirmede bulunuyor. Yazılım Equivant isimli bir şirkete ait ve ticari sır olarak değerlendirildiğinden şirket algoritmayı paylaşmıyor. Yani süreçte bir hata olup olmadığını tam manasıyla kontrol edilebilir değil.
Böyle bir uygulama Avrupa’da düşünülemez, çünkü yargıda yapay zekâ kullanımına dair Avrupa sözleşmesi geçen yıl onaylandı ve sözleşmedeki ilkelerden bir tanesi de şeffaflık.[5] Buna göre veri işleme yöntemleri erişilebilir ve anlaşılır olmalı, dış denetimlere müsaade edilmelidir. Ayrıca fikri mülkiyet hakları ile şeffaflık ilkesi arasında bir denge kurulması gerektiği belirtiliyor. ABD’deki örnekte görüldüğü üzere ticari sırların korunması adına şeffaflıktan uzaklaşılması mümkün, bu nedenle alternatif olarak açık kaynak kodu gösteriliyor.
ProPublica’nın yayınladığı araştırma raporuna göre pek şeffaf olmayan Compas’a güvenmemek için yeterli sebebimiz var.[6] İncelenen örneklere göre siyahi sanıklara öngörülen risk beyazlara göre daha fazla. Yüksek riskli görüldüğü halde tekrar suç işlemeyen beyaz sanık oranı %23,5 iken siyahi sanık oranı %44,9. Düşük riskli görüldüğü halde tekrar suç işleyen beyaz sanık oranı ise %47,7, siyahilerde oran %28. Yani çalışmaya göre yazılımın siyahi insanlara yönelik bir önyargısı mevcut.
Peki bu önyargı nereden geliyor? Yapay zekâ karar verirken veriden öğrendiğini uyguluyor. Yani gerçek hâkimlerin verdiği kararları değerlendiriyor ve onları yapabildiği en mükemmel şekilde taklit ediyor. O halde bu önyargı da aslında örnek kararlarda karşısına çıkan, yargı sisteminin fark edip düzeltemediği önyargı. Yapay zekâ sorunlu hareket ediyor, çünkü bizim sorunlarımızı taklit ediyor.
Yapay zekâyı önyargılardan arındırmak mümkün. Şeffaf bir sistem ve algoritma ile kısa vadede yargılamaya yardımcı, uzun vadede belki yargılamayı tek başına yapan yapay zekâ teknolojisine ulaşabiliriz.
İnsan hakimlerin karar verirken etkilendikleri şeyler önyargılarından ibaret değil. 2011 yılında İsrailli hakimlerin verdiği kararlar üzerine yapılan bir araştırmada görüldü ki sabahın erken saatlerinde %65 olan şartlı tahliye oranı öğle arası yaklaştıkça neredeyse sıfıra düşüyor.[7] Öğle arasından sonra tekrar yükselen oran, yine vakit geçtikçe düşüyor. Yapay zekânın karar verme mekanizmasını etkileyen bu tip insani zayıflıkları olmadığı için insandan daha tutarlı karar vermesi olası.
Yapay zekâ yargıca ilişkin elbette başka şüpheler de mevcut. Kişinin karar mercii bir insana derdini anlatabilmesi önemli bir ayrıcalık. Ayrıca pek çok ülkenin Anayasa ya da Hâkimler Kanunu’nda belirtildiği üzere hâkim karar verirken hukuku, kanunu ve vicdanını göz önünde bulundurur. Bir yazılım kanuna ve hukuka pekâlâ uyabilir, fakat vicdan dediğimiz tam olarak nedir, yargılamada etkisi ne ölçüdedir, sadece insana mı mahsustur, öyle ise adil olmak bakımından bu bir avantaj mıdır yoksa dezavantaj mıdır, tartışılası konular.
Hukuk uygulamalarında kullanılan bu örneklerden ve teknolojinin ilerleme hızına bakılınca, vadedilen gelişmelerden heyecan duymamak mümkün değil. Şeffaf ve doğru kullanıldığı takdirde yargı düzenindeki çözümü zor olan adil ve hızlı yargılama gibi sorunları kısa zamanda ve etkin şekilde çözmek belki de mümkün olacak.
Fakat bu insan eliyle mümkün gözükmeyen adaleti vadeden sistem bir yandan da yine insan eliyle mümkün gözükmeyen adaletsizliği, ayrımcılığı da mümkün kılabilir.
Yalnızca Çin’de değil, ABD, Avrupa ve Türkiye’de de her köşe başında bulunan kameralar, yüz tanıma sistemleri ve bürokratik işlemlerin dijitalleşmesi ile sağlanan büyük veri, kullanımına ilişkin şeffaflık azaldıkça bunları işleyebilecek bir yapay zekâ ile büyük bir güç ve elbette büyük bir tehlike arz ediyor. Bir insan hâkimin, savcının bir araya getirebileceğinden çok daha fazla bilgiyi, kanıtı işleyip değerlendirebilir ve böylece doğru sonuca ulaşabilir, ama Compas örneğindeki gibi önyargılarımızı ona bilinçli ya da bilinçsiz aktardığımızda, dikkate almaması gereken bir bilgiden, kişinin kökeninden, çevresinden çıkarımda bulunarak yanlış sonuçlara da kolayca ulaşabilir.
Bu yüzden yapay zekâ teknolojisi ve yargısal alanda kullanımı bu kadar hızlı gelişirken, buna dair ilkelerin ve bilinçli ya da bilinçsiz kötü kullanımına karşı önlemlerin belirlenmesinde geç kalınmaması gerekiyor.
Kaan Canan
Münih Üniversitesi Hukuk Fakültesi, Ceza Hukuku ve Kriminoloji Anabilim Dalı
[1] Niiler, E. Can AI Be a Fair Judge in Court? Estonia Thinks So, https://www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so/ (Erişim tarihi: 20.11.2019).
[2] Burges, M. UK police are using AI to inform custodial decisions – but it could be discriminating against the poor https://www.wired.co.uk/article/police-ai-uk-durham-hart-checkpoint-algorithm-edit (Erişim tarihi: 20.11.2019)
[3] Raporu incelemek için: https://www.mpicc.de/de/forschung/projekte/predictive-policing/ (Erişim tarihi: 20.11.2019)
[4] Aletras N, Tsarapatsanis D, Preoţiuc-Pietro D, Lampos V. 2016. Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective. PeerJ Computer Science 2:e93 https://doi.org/10.7717/peerj-cs.93
[5] European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment, https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c (Erişim tarihi: 20.11.2019)
[6] Raporu incelemek için: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing, (Erişim tarihi: 20.11.2019)
[7] Danziger, S., Levav, J., & Avnaim-Pesso, L. (2011). Extraneous factors in judicial decisions. Proceedings of the National Academy of Sciences, 108(17), 6889–6892. doi: 10.1073/pnas.1018033108