Bilgisayarla görme ile yüz analizi

Shutterstock

Bir insan kaç kişinin yüzünü tanıyabilir? Bir bilgisayar yazılımı hangi koşullar altında yüz tanımada başarılı? Bir insanın yüzünü uzaktan inceleyerek kalp atış hızını kestirebilir miyiz? Sahte yüzleri, yani birtakım bilgisayar programlarını sentezlenen yüzleri tespit edebilir miyiz? Bu yazıda bu ilginç sorulara değineceğiz ve bunları başaran bilgisayar yazılımlarının nasıl çalıştığına dair ipuçlarını ele alacağız.

Yüz analizi ile öğrenilen bilgiler ve kullanım alanları

İnsan yüzü ve yüz ifadelerinin analizi psikoloji, sinirbilim ve mühendisliği içeren disiplinler arası bir araştırma alanıdır. İnsanların neredeyse hiç çaba harcamadan yapabildiği yüz algılama* bilgisayarlar için hala çözülmeyi bekleyen bir sorun. Özellikle ışık farklılıkları, düşük çözünürlük vb. zorlayıcı koşullar altında bilgisayarlar, yüz algılamada insan performansını yakalayamıyor.

*Yüz algılama insanlar için sosyal etkileşimin çok önemli bir parçasıdır ve karmaşık süreçler içerir. Karşıdaki kişinin kim olduğu (hatta dost mu? düşman mı? sorgusu), cinsiyeti, yaşı, ne düşündüğü, ne hissettiği, ve nasıl davranacağı gibi bilgiler sosyal etkileşimlerimizi yönlendiren ve hatta hayatta kalmamızı sağlayan önemli bilgilerdir.[1]Little, A. C., Jones, B. C., & DeBruine, L. M. (2011). The many faces of research on face perception. In Philosophical Transactions of the Royal Society B: Biological Sciences (Vol. 366, Issue 1571, pp. 1634–1637). The Royal Society. https://doi.org/10.1098/rstb.2010.0386

Bilgisayarla görme ile otomatik yüz analizi sırasında amaç, mümkün olduğu kadar çok bilgi edinmektir.[2]Ranjan, R., Sankaranarayanan, S., Bansal, A., Bodla, N., Chen, J.-C., Patel, V. M., Castillo, C. D., & Chellappa, R. (2018). Deep Learning for Understanding Faces: Machines May Be Just as Good, or Better, than Humans. In IEEE Signal Processing Magazine (Vol. 35, Issue 1, pp. 66–83). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/msp.2017.2764116 Yüzün yeri ve pozisyonu, bakış açısı ve yönü, kişinin cinsiyeti, yaşı, hangi ırka ait olduğu ve kim olduğu duygusal durumu (örn. mutlu mu, üzgün mü?), zihinsel durumu (örn. dikkatli mi?), fiziksel durumu (örn. acı hissediyor mu?), dudak okuma ile ne söylemeye çalıştığı kestirilmeye çalışılan bilgiler arasında yer alır. Hatta, günümüzde insanlar tarafından algılanması güç olabilen yüz görüntüsünün ya da videosunun sahte olup olmadığı ve fizyolojik sinyallerin (örn. kalp atış hızı, kan basıncı) yüz videolarından kestirimi de mümkün.

Yüzün otomatik analiz edilmesi ile elde edilen bilgiler, pek çok teknolojik uygulamada hali hazırda kullanılıyor. Bankacılık sektöründe yüz doğrulama, cihazlara ve binalara güvenli erişim için yüz tanıma/doğrulama, ya da uzaktan eğitimde katılımcıların dikkat seviyesinin takip edilmesi ve eğitim akışının kişiye özel düzenlenmesi, eğlence ve sağlık alanındaki uygulamalar bunlardan sadece birkaçı.

Bu yazıda yüz analizi kapsamında üç ana konuya değineceğiz:

  • yüz ifadesi tanıma,
  • yüz tanıma/doğrulama ve
  • yüz videolarından kalp atış hızı kestirimi

Fakat bu konulara değinmeden önce, her üç problem için de ön işleme adımları olan yüz saptama ve yüzdeki nirengi noktalarının saptanması üzerinde kısaca duracağız.  Sonra yüz tanıma/doğrulama sistemlerine yönelik yanıltma girişimlerinden ve son olarak da yüz analizi teknolojilerinin günümüzdeki uygulama alanlarından bahsedeceğiz.

Yüz Saptama

Yüz analizi yöntemlerinin ilk adımı yüz içeren sahnede insan yüzünün nerede olduğunun saptanması ve kutu içine alınarak belirlenmesidir. İnsan yüzleri görüntü içinde çok farklı çözünürlüğe, yüz pozuna, pozisyona, ışıklandırma seviyesine ve yüz ifadesine sahip olabileceği için, yüz tespiti çok çetin bir problemdir.

Çok küçük yüzleri de tespit etmek üzere derin öğrenme kullanan bir yönteme ait örneği Şekil 1’de görebilirsiniz.[3]Hu, P., & Ramanan, D. (2017). Finding Tiny Faces. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2017.166 Tespit edilen yüzler renkli kutular ile çerçevelenmiş ve sarı renk algoritmanın en yüksek güven derecesi ile kestirim yaptığını gösteriyor.

Şekil 1 Çok küçük yüzleri de tespit edebilen yöntem, resimdeki 1000 kadar yüzden 800 tanesini bulabilmiştir. En sağdaki renkler yüz tespitindeki güven seviyesini göstermektedir. Kaynak[4]Hu, P., & Ramanan, D. (2017). Finding Tiny Faces. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2017.166

Geçmişten günümüze yüz tespiti için pek çok yöntem önerildi. Bazı yöntemler resmin farklı büyüklükleri üzerinde pencere kaydırarak ve yüzü temsil eden örüntüleri (iki koyu göz bölgesi arasında açık tonda burun bölgesi gibi) arayarak, bazı yöntemler ise evrişimsel sinir ağlarının** farklı katmanlarından elde edilen bilgileri kullanarak tek seferde yüz tespiti yaparlar. Özellikle nesne tanımada da yüksek başarım sağlayan bölge tabanlı evrişimsel sinir ağları yüz tespiti için de kullanılmış ve yüksek başarımlar elde edilmiştir.[5]King, E. (2015) “Max-margin object detection,” arXiv:1502.00046.[6]Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.-Y. Fu, A. C. Berg, (2016) SSD: Single shot  multibox  detector, European  Conference  on  Computer  Vision, pp. 21–37.

**Evrişimsel sinir ağları, girdi olarak bir görüntüyü ya da vídeoyu alarak analiz eden, sınıflandırma ve nesne bulma gibi problemler için görüntüden uygun özellikleri elde etmeyi öğrenebilen derin yapay sinir ağlarıdır. Evrişimsel yapıda olması, görüntüdeki örüntüyü (örn. yüz) basitten karmaşığa doğru analiz etmesini sağlar ve ayrıca eğitim aşamasında öğrenilmesi gereken parametre sayısını azaltmak için de faydalıdır.

Şekil 2 Yüz üzerinde kırmızı yıldız ile işaretlenmiş 68 nirengi noktası[7]Kazemi, V., & Sullivan, J. (2014). One millisecond face alignment with an ensemble of regression trees. In 2014 IEEE Conference on Computer Vision and Pattern Recognition. 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2014.241 yöntemi ile kestirilmiştir. Resim UvA-NEMO veri kümesine[8]Dibeklioğlu, H., Salah, A. A., & Gevers, T. (2012). Are You Really Smiling at Me? Spontaneous versus Posed Enjoyment Smiles. In Computer Vision – ECCV 2012 (pp. 525–538). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-642-33712-3_38 aittir.

Yüzdeki önemli nirengi noktalarının saptanması

Yüzdeki belli başlı nirengi noktalarının saptanarak işaretlenmesi de yüz ve yüz ifadesi tanıma için önemli bir ön işleme adımıdır.[9]Çeliktutan, O., Ulukaya, S., & Sankur, B. (2013). A comparative study of face landmarking techniques. In EURASIP Journal on Image and Video Processing (Vol. 2013, Issue 1). Springer Science and Business Media LLC. https://doi.org/10.1186/1687-5281-2013-13 Bu noktalar, genellikle göz merkezleri ve göz kapağı kenarları, kaşlar, burun ucu, dudak köşeleri ve kenarları gibi belli başlı noktalardır. Şekil 2’de yüz üzerinde bulunan 68 nirengi noktası başarılı bir şekilde tespit edilmiş ve işaretlenmiş.[10]Kazemi, V., & Sullivan, J. (2014). One millisecond face alignment with an ensemble of regression trees. In 2014 IEEE Conference on Computer Vision and Pattern Recognition. 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2014.241 Yüzdeki noktalar tespit edildikten sonra yüz eğer yandan görünüyorsa, önden görünüme uygun olacak şekilde hizalamak için de kullanılabilir.

Yüz ifadesi tanıma

Yüz ifadeleri duygularımızı ve zihinsel durumumuzu ifade etmenin güçlü, doğal ve evrensel bir yoludur.[11]Li, S., & Deng, W. (2020). Deep Facial Expression Recognition: A Survey. In IEEE Transactions on Affective Computing (pp. 1–1). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/taffc.2020.2981446 Araştırmalar, insanların yüz ifadeleriyle ve kültürlerden bağımsız olarak evrensel şekilde gösterebildiği altı temel duygu olduğunu gösteriyor.[12]Ekman, P. (1994). Strong evidence for universals in facial expressions: A reply to Russell’s mistaken critique. In Psychological Bulletin (Vol. 115, Issue 2, pp. 268–287). American Psychological Association (APA). https://doi.org/10.1037/0033-2909.115.2.268  Bu duygular kızgınlık, iğrenme, mutluluk, üzüntü ve şaşırma olarak sınıflandırılıyor.

Daha fazla sayıda duygu ve zihinsel durumu (dikkatli, düşünceli vb.) ifade etmek için yüzümüzdeki kaslarla yaptığımız çok küçük hareketleri tanıyan yöntemler[13]Ekman, P. “Facial action coding system (FACS)”, A Human Face, 2002. ve altı temel duygu gibi sınıflara yerleştirmeden pozitif-negatif, az-çok gibi ölçeklerde sürekli olarak ifade etmeye çalışan modeller de mevcut.[14]Gunes, H., & Schuller, B. (2013). Categorical and dimensional affect analysis in continuous input: Current trends and future directions. In Image and Vision Computing (Vol. 31, Issue 2, pp. 120–136). Elsevier BV. https://doi.org/10.1016/j.imavis.2012.06.016

Yüz ifadesi tanıma için makine öğrenmesi yöntemlerinin eğitilmesi amacıyla farklı ifadelerde yüzler içeren erişime açık veri tabanları mevcut. Bunlardan bazıları deneklerden rol yapmaları istenerek kayıt ediliyor,[15]Lucey, P., Cohn, J. F., Kanade, T., Saragih, J., Ambadar, Z., & Matthews, I. (2010). The Extended Cohn-Kanade Dataset (CK+): A complete dataset for action unit and emotion-specified expression. In 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition – Workshops. 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPR Workshops). IEEE. https://doi.org/10.1109/cvprw.2010.5543262 bazıları da yarı-doğal yüz ifadelerini yakalamaya çalışıyor.[16]Li, S., & Deng, W. (2020). Deep Facial Expression Recognition: A Survey. In IEEE Transactions on Affective Computing (pp. 1–1). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/taffc.2020.2981446[17]Zhalehpour, S., Onder, O., Akhtar, Z., & Erdem, C. E. (2017). BAUM-1: A Spontaneous Audio-Visual Face Database of Affective and Mental States. In IEEE Transactions on Affective Computing (Vol. 8, Issue 3, pp. 300–313). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/taffc.2016.2553038 Şekil 3’te bazı duygusal ve zihinsel durumlara ait videolardan oluşan bir veri kümesinden örnek kareler gösteriliyor. Yüz ifadelerini tek bir fotoğraf yerine üç boyutta temsil eden ve derinlik bilgisini de algılayabilen cihazlar ile kayıt edilmiş veri kümeleri de mevcut.[18]Savran, A., Alyüz, N., Dibeklioğlu, H., Çeliktutan, O., Gökberk, B., Sankur, B., & Akarun, L. (2008). Bosphorus Database for 3D Face Analysis. In Lecture Notes in Computer Science (pp. 47–56). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-540-89991-4_6

Literatürde son yıllarda geliştirilen yüz ifadesi tanıma yöntemleri durağan resimlerden ya da dinamik videolardan yararlanarak evrişimsel sinir ağı kullanan programlarla, yani yapay zekâ eğitirler. Hatta, birden çok ağı birlikte kullanan yöntemlerin daha başarılı sonuçlar verdiği gözleniyor. Derin öğrenme kullanan yöntemlerin yüksek başarımda tanıma gerçekleştirebilmesi için çok sayıda ve farklı koşullarda kayıt edilmiş veriye ihtiyacı var.[19]Li, S., & Deng, W. (2020). Deep Facial Expression Recognition: A Survey. In IEEE Transactions on Affective Computing (pp. 1–1). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/taffc.2020.2981446

Şekil 3 Yarı-doğal olarak kayıt edilen yüz ifadesi videolarından örnek kareler:[20]Zhalehpour, S., Onder, O., Akhtar, Z., & Erdem, C. E. (2017). BAUM-1: A Spontaneous Audio-Visual Face Database of Affective and Mental States. In IEEE Transactions on Affective Computing (Vol. 8, Issue 3, pp. 300–313). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/taffc.2016.2553038. (a) Kızgınlık (b) Sıkıntı (c) Endişe (d) Konsantre olma (e) Aşağılama (f) İğrenme (g) Korku (h) Mutluluk (i) Nötr (j) Üzüntü (k) Şaşırma (l) Düşünceli (m) Kararsız.

Yüz tanıma / Doğrulama

Bilgisayarla yüz tanımanın tarihi 1950’lere ve 1960’lara kadar uzanıyor, ancak bu konudaki araştırmaların 1970’lerde başladığı söylenebilir. Donanımdaki gelişmeler ve güvenlikle ilgili uygulamalardaki artan önemle birlikte alandaki gelişmeler 1990’ların başından itibaren hız kazandı.[21]Taskiran, M., Kahraman, N., & Erdem, C. E. (2020). Face recognition: Past, present and future (a review). In Digital Signal Processing (Vol. 106, p. 102809). Elsevier BV. https://doi.org/10.1016/j.dsp.2020.102809[22]Belhumeur, P. N., Hespanha, J. P., & Kriegman, D. J. (1997). Eigenfaces vs. Fisherfaces: recognition using class specific linear projection. In IEEE Transactions on Pattern Analysis and Machine Intelligence (Vol. 19, Issue 7, pp. 711–720). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/34.598228

Literatürdeki yüz tanıma algoritmaları, görüntü tabanlı ve video tabanlı yöntemler olarak iki ana gruba ayrılıyor.[23]Taskiran, M., Kahraman, N., & Erdem, C. E. (2020). Face recognition: Past, present and future (a review). In Digital Signal Processing (Vol. 106, p. 102809). Elsevier BV. https://doi.org/10.1016/j.dsp.2020.102809 Görüntü tabanlı algoritmalar, fiziksel görünümü kullanarak bir kişiyi tanımaya çalışırken, video tabanlı algoritmalar ise fiziksel görünümün yanı sıra zamanla görünümde oluşan değişiklikleri veya yüzdeki hareket bilgilerini de yüz tanıma amacıyla kullanır.

Bilgisayarlar için yüz tanıma algoritmaları geliştirilmesi sürecinde insanların yüzleri nasıl tanıdığı üzerine birçok çalışma yapıldı. Modern toplumlarda insanların ortalama 5000 kişinin yüzünü tanıyabildiğini biliyoruz.[24]Jenkins, R., Dowsett, A. J., & Burton, A. M. (2018). How many faces do people know? In Proceedings of the Royal Society B: Biological Sciences (Vol. 285, Issue 1888, p. 20181319). The Royal Society. https://doi.org/10.1098/rspb.2018.1319 İnsan görme sisteminin, yüzleri tanımak için, yüzlerin statik ve dinamik özelliklerinin işlenmesi amacıyla karmaşık sinir yolları barındırdığı gösterilmiştir.[25]Vaina, L. M., Solomon, J., Chowdhury, S., Sinha, P., & Belliveau, J. W. (2001). Functional neuroanatomy of biological motion perception in humans. In Proceedings of the National Academy of Sciences (Vol. 98, Issue 20, pp. 11656–11661). Proceedings of the National Academy of Sciences. https://doi.org/10.1073/pnas.191374198

Son yıllarda bilgisayarla yüz tanıma araştırmalarında, insan görsel sistemindeki karmaşık sinir ağının modellenmesi çalışıldı. 2014’ten itibaren laboratuvarda değil de, herhangi bir kısıtlama uygulamadan doğal ortamlarda, yaşamın içinden çekilen yüz binlerce yüz resmi üzerinde gerçekleştirilen testler sonucunda, derin öğrenme ağlarına dayalı yüz tanıma sistemlerinin insan yüz tanıma başarımını yakaladığı ve hatta son zamanlarda da bu başarımın daha yukarıya taşındığı görüldü. Örneğin, DeepFace yöntemi,[26]Taigman, Y., Yang, M., Ranzato, M., & Wolf, L. (2014). DeepFace: Closing the Gap to Human-Level Performance in Face Verification. In 2014 IEEE Conference on Computer Vision and Pattern Recognition. 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2014.220 binlerce kişiye ait resimler içeren veri kümeleri ile gerçekleştirilen testlerde %97,35’lik yüz tanıma başarımı elde etti ve bu elde edilen değer insan performansına neredeyse eşit (%97,53). Daha sonraki çalışmalarda bilgisayar ile yüz tanıma başarımları %99,80’lere ulaştı.

Derin öğrenme kullanan algoritmaların yüz tanımadaki bu başarısını daha iyi anlamak için, eğitilen evrişimsel sinir ağlarının her katmanında farklı özelliklerin tespit edildiğini söylemeliyiz. İlk katmanlar ayrıtlar gibi basit yapıları; orta katmanlar göz, burun gibi yüz bileşenlerini ve son katmanlar da yüzü bütünsel temsil eden öznitelikleri çıkarmayı öğreniyor.[27]Wang, M., & Deng, W. (2021). Deep face recognition: A survey. In Neurocomputing (Vol. 429, pp. 215–244). Elsevier BV. https://doi.org/10.1016/j.neucom.2020.10.081

Öte yandan derin öğrenme temelli yüz tanıma yöntemlerinin bile performanslarının olumsuz koşullar altında (örneğin aydınlatma, kontrast değişimleri ve bulanıklık) önemli ölçüde azaldığı görülüyor.[28]Grm, K., Štruc, V., Artiges, A., Caron, M., & Ekenel, H. K. (2017). Strengths and weaknesses of deep learning models for face recognition against image degradations. In IET Biometrics (Vol. 7, Issue 1, pp. 81–89). Institution of Engineering and Technology (IET). https://doi.org/10.1049/iet-bmt.2017.0083[29]Mohapatra, J., Weng, T., Chen, P., Liu, S., & Daniel, L. (2019). Towards Verifying Robustness of Neural Networks Against Semantic Perturbations. ArXiv, abs/1912.09533. Bu tür durumlar karşısında daha dayanıklı sistemler oluşturmak amacıyla, farklı derin öğrenme mimarileri geliştirilmesi ya da yüz ifadelerinden elde edilen kişisel bilgilerin de yardımcı biyometrik veri olarak kullanıldığı hibrit yüz tanıma sistemlerinin oluşturulması söz konusu.[30]Taskiran, M., Kahraman, N., & Eroglu Erdem, C. (2020). Hybrid face recognition under adverse conditions using appearance‐based and dynamic features of smile expression. In IET Biometrics (Vol. 10, Issue 1, pp. 99–115). Institution of Engineering and Technology (IET). https://doi.org/10.1049/bme2.12006

Şekil 4’te de görülebileceği gibi yaş değişimleri de yüz tanıma sistemlerini zorlayan önemli bir etken.

Şekil 4 Aynı kişiye ait farklı yaşlardaki fotoğraflar. Yaş ve yüzdeki doku değişimleri yüz tanıma sistemlerini zorlayan önemli bir etkendir. Fotoğraflar FG-NET veri kümesine aittir. Kaynaklar:[31]Tripathi, R. K., & Jalal, A. S. (2021). A Local Descriptor for Age Invariant Face Recognition under Uncontrolled Environment. In 2021 2nd International Conference on Secure Cyber Computing and Communications (ICSCCC). 2021 2nd International Conference on Secure Cyber Computing and Communications (ICSCCC). IEEE. https://doi.org/10.1109/icsccc51823.2021.9478154[32]Lanitis, A. (2008). Comparative Evaluation of Automatic Age Progression Methodologies. In EURASIP Journal on Advances in Signal Processing (Vol. 2008, Issue 1, p. 239480). Springer Science and Business Media LLC. https://doi.org/10.1155/2008/239480

Yüz tanıma/doğrulama sistemlerini yanıltma girişimleri

Yüz tanıma sistemlerini yanıltmak amacıyla kullanılabilen sahte resim ya da videoları veya gerçekçi üç boyutlu yüz maskelerini tespit etmek amacıyla da yöntemler geliştiriliyor.[33]Li, H., He, P., Wang, S., Rocha, A., Jiang, X., & Kot, A. C. (2018). Learning Generalized Deep Feature Representation for Face Anti-Spoofing. In IEEE Transactions on Information Forensics and Security (Vol. 13, Issue 10, pp. 2639–2652). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/tifs.2018.2825949 ((F. Gündoğar, Ç. E. Erdem, “Presentation Attack Detection for Face Recognition using Remote Photoplethysmography and Cascaded Fusion”, Turkish Journal of Electrical Engineering and Computer Sciences, 2021, DOI: 10.3906/elk-2010-93.)) Örneğin, Şekil 5’da üst sıradaki resimlerde gerçek (canlı) insanlara ait görüntüler, alt sıradaki resimler ise yanıltma girişimlerinde kullanılan görüntüler, yani cansız fotoğraflar, videolar ya da üç boyutlu yüz maskeleri.  Amaç, başka bir kişinin fotoğrafını ya da videosunu yüz tanıma sistemine göstererek, sistemin yanlış onay vermesini sağlamak olduğundan gerçek ile yanıltıcı görüntülerin ayırt edilmesi, yüz tanıma sistemlerinin güvenliği açısından son derece önemli.

Şekil 5. Üst sırada yer alan resimler gerçek (canlı) yüzleri, alt sırada yer alan resimler ise yanıltma girişimlerinde kullanılan sahte (cansız) fotoğraf, video ya da üç boyutlu yüz maskesini gösteriyor. Resimler farklı veri kümelerinden alınmıştır: (a) Replay-attack[34]Chingovska,I., A. Anjos A., Marcel, S. (2012)  “On the effectiveness of local binary patterns in face anti-spoofing,” 2012 BIOSIG – Proceedings of the International Conference of Biometrics Special Interest Group (BIOSIG), pp. 1-7.  (b) Replay-mobile[35]Costa-Pazo, A., Bhattacharjee, S., Vazquez-Fernandez, E., & Marcel, S. (2016). The Replay-Mobile Face Presentation-Attack Database. In 2016 International Conference of the Biometrics Special Interest Group (BIOSIG). 2016 15th International Conference of the Biometrics Special Interest Group (BIOSIG). IEEE. https://doi.org/10.1109/biosig.2016.7736936 (c) 3DMAD[36]Erdogmus, N., & Marcel, S. (2013). Spoofing in 2D face recognition with 3D masks and anti-spoofing with Kinect. In 2013 IEEE Sixth International Conference on Biometrics: Theory, Applications and Systems (BTAS). 2013 IEEE 6th International Conference on Biometrics: Theory, Applications and Systems (BTAS). IEEE. https://doi.org/10.1109/btas.2013.6712688  (d) MSU-MFSD[37]Di Wen, Hu Han, & Jain, A. K. (2015). Face Spoof Detection With Image Distortion Analysis. In IEEE Transactions on Information Forensics and Security (Vol. 10, Issue 4, pp. 746–761). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/tifs.2015.2400395

Yüz videolarından kalp atış hızı kestirimi 

Yüz videolarının otomatik analizi ile kalp atış hızı ve solunum hızı gibi fizyolojik bilgilerin de kestirimi mümkün[38]Poh, M.-Z., McDuff, D. J., & Picard, R. W. (2010). Non-contact, automated cardiac pulse measurements using video imaging and blind source separation. In Optics Express (Vol. 18, Issue 10, p. 10762). The Optical Society. https://doi.org/10.1364/oe.18.010762[39]Demirezen, H., & Eroglu Erdem, C. (2021). Heart rate estimation from facial videos using nonlinear mode decomposition and improved consistency check. In Signal, Image and Video Processing (Vol. 15, Issue 7, pp. 1415–1423). Springer Science and Business Media LLC. https://doi.org/10.1007/s11760-021-01873-x ve son yıllarda derin öğrenme tabanlı yöntemlerin de kullanılması sayesinde oldukça başarılı sonuçlar elde ediliyor.[40]Liu, X., Fromm, J., Patel, S., McDuff, D. (2020)  Multi-task temporal shift attention networks for on-device contactless vitals measurement, NeurIPS Oral presentation.

Kalbimizin her atışında, deri altında yer alan kılcal damarlardaki kan hacmi artar. Kanımızda bulunan hemoglobin sayesinde deri üzerine düşen ışığın emilmesi arttığından cildimizden yansıyan ışığın miktarı her kalp atışı ile gözle fark edilemeyecek seviyede değişir. Yüz videolarındaki bu renk değişikliği verileri, bilgisayarla görme ve sinyal işleme yöntemleri ile analiz edilerek kalp atış hızı kestirimi mümkün olur.

Cilt ile temas etmeden kalp atışını kestirmenin özellikle yeni doğanlar gibi hassas ciltlere sahip hastaların takibi gibi pek çok uygulama alanı mevcut. Yüz videolarından kalp atış hızı kestiriminin diğer bir uygulama alanı ise derin öğrenme yöntemleri (çekişmeli üretici ağlar) ile üretilmiş ve son derece gerçekçi görünen fakat sahte olan yüz videoların tespit edilmesidir.[41]Ciftci, U. A., Demir, I., & Yin, L. (2020). FakeCatcher: Detection of Synthetic Portrait Videos using Biological Signals. In IEEE Transactions on Pattern Analysis and Machine Intelligence (pp. 1–1). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/tpami.2020.3009287[42]Erdem, A., Erdem, E. (2020) Yapay Zeka ile Gerçekliğin Üretimi”, Sarkaç,  https://sarkac.org/2020/09/yapay-zeka-ile-gercekligin-uretimi/

Yüz analizi teknolojilerinin kullanım alanları

Yukarıda yüz ifadesi tanıma, yüz tanıma ve doğrulama, yüz videolarından fizyolojik sinyallerin kestirilmesi gibi güncel araştırma konularına değindik.

Yüz binlerce yüz resmi kullanılarak gerçekleştirilen testler sonucunda bilgisayarlı yüz tanımada elde edilen yüksek başarımlar, yüz biyometrisi, güvenlik ve kolluk kuvvetleri, sağlık, eğitim, pazarlama, finans, eğlence ve insan-bilgisayar etkileşimi gibi birçok uygulama alanına sahip temel biyometrik özelliklerden biri olmasını sağlamıştır. Tablo 1’de yüz tanıma sistemlerinin ana uygulama alanları ve bu alanlarla ilgili özel uygulamalar listelenmiştir.

Tablo 1. Yüz Tanıma Sistemlerinin Uygulama Alanları

Yüz ifadesi analizinin sağlık ve eğitim sektörlerinde de önemli kullanım alanları var. Örneğin başka şekilde iletişim kuramayan bireylerde yüz ifadelerinden acı çekip çekmediği kestirilerek ağrı yönetimi daha etkin yapılabiliyor.[43]Hassan, T., Seus, D., Wollenberg, J., Weitz, K., Kunz, M., Lautenbacher, S., Garbas, J.-U., & Schmid, U. (2021). Automatic Detection of Pain from Facial Expressions: A Survey. In IEEE Transactions on Pattern Analysis and Machine Intelligence (Vol. 43, Issue 6, pp. 1815–1831). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/tpami.2019.2958341 Diğer bir örnek de çocuklara uygulanan psikoterapi sırasında yüz ifadelerinin otomatik takip edilmesi[44]Halfon, S., Doyran, M., Türkmen, B., Oktay, E. A., & Salah, A. A. (2020). Multimodal affect analysis of psychodynamic play therapy. In Psychotherapy Research (Vol. 31, Issue 3, pp. 313–328). Informa UK Limited. https://doi.org/10.1080/10503307.2020.1839141 ya da özellikle otistik çocukların yüz ifadelerinin analiz edilerek tedaviye ne kadar cevap verdiğinin ölçülmesidir.[45]Rudovic, O., Utsumi, Y., Lee, J., Hernandez, J., Castello Ferrer, E., Schuller, B., Picard, R. “CultureNet: A Deep Learning Approach for Engagement Intensity Estimation from Face Images of Children with Autism.” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2018). https://www.media.mit.edu/publications/culturenet-a-deep-learning-approach-for-engagement-intensity-estimation-from-face-images-of-children-with-autism/

Yeni gelişmekte olan yüz analizi teknolojileri sayesinde heyecan verici ve hayatımızı kolaylaştırıcı başka uygulama alanları da mutlaka ortaya çıkacaktır.

Çiğdem Eroğlu Erdem (Marmara Üniversitesi, Mühendislik Fakültesi, Bilgisayar Mühendisliği Bölümü)
Murat Taşkıran (Yıldız Teknik Üniversitesi, Elektronik ve Haberleşme Mühendisliği Bölümü)


Creative Commons LisansıBu eser Creative Commons Atıf-GayriTicari 4.0 Uluslararası Lisansı ile lisanslanmıştır. İçerik kullanım koşulları için tıklayınız.


Notlar/Kaynaklar

Notlar/Kaynaklar
1 Little, A. C., Jones, B. C., & DeBruine, L. M. (2011). The many faces of research on face perception. In Philosophical Transactions of the Royal Society B: Biological Sciences (Vol. 366, Issue 1571, pp. 1634–1637). The Royal Society. https://doi.org/10.1098/rstb.2010.0386
2 Ranjan, R., Sankaranarayanan, S., Bansal, A., Bodla, N., Chen, J.-C., Patel, V. M., Castillo, C. D., & Chellappa, R. (2018). Deep Learning for Understanding Faces: Machines May Be Just as Good, or Better, than Humans. In IEEE Signal Processing Magazine (Vol. 35, Issue 1, pp. 66–83). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/msp.2017.2764116
3, 4 Hu, P., & Ramanan, D. (2017). Finding Tiny Faces. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2017.166
5 King, E. (2015) “Max-margin object detection,” arXiv:1502.00046.
6 Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.-Y. Fu, A. C. Berg, (2016) SSD: Single shot  multibox  detector, European  Conference  on  Computer  Vision, pp. 21–37.
7, 10 Kazemi, V., & Sullivan, J. (2014). One millisecond face alignment with an ensemble of regression trees. In 2014 IEEE Conference on Computer Vision and Pattern Recognition. 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2014.241
8 Dibeklioğlu, H., Salah, A. A., & Gevers, T. (2012). Are You Really Smiling at Me? Spontaneous versus Posed Enjoyment Smiles. In Computer Vision – ECCV 2012 (pp. 525–538). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-642-33712-3_38
9 Çeliktutan, O., Ulukaya, S., & Sankur, B. (2013). A comparative study of face landmarking techniques. In EURASIP Journal on Image and Video Processing (Vol. 2013, Issue 1). Springer Science and Business Media LLC. https://doi.org/10.1186/1687-5281-2013-13
11, 16, 19 Li, S., & Deng, W. (2020). Deep Facial Expression Recognition: A Survey. In IEEE Transactions on Affective Computing (pp. 1–1). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/taffc.2020.2981446
12 Ekman, P. (1994). Strong evidence for universals in facial expressions: A reply to Russell’s mistaken critique. In Psychological Bulletin (Vol. 115, Issue 2, pp. 268–287). American Psychological Association (APA). https://doi.org/10.1037/0033-2909.115.2.268
13 Ekman, P. “Facial action coding system (FACS)”, A Human Face, 2002.
14 Gunes, H., & Schuller, B. (2013). Categorical and dimensional affect analysis in continuous input: Current trends and future directions. In Image and Vision Computing (Vol. 31, Issue 2, pp. 120–136). Elsevier BV. https://doi.org/10.1016/j.imavis.2012.06.016
15 Lucey, P., Cohn, J. F., Kanade, T., Saragih, J., Ambadar, Z., & Matthews, I. (2010). The Extended Cohn-Kanade Dataset (CK+): A complete dataset for action unit and emotion-specified expression. In 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition – Workshops. 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPR Workshops). IEEE. https://doi.org/10.1109/cvprw.2010.5543262
17 Zhalehpour, S., Onder, O., Akhtar, Z., & Erdem, C. E. (2017). BAUM-1: A Spontaneous Audio-Visual Face Database of Affective and Mental States. In IEEE Transactions on Affective Computing (Vol. 8, Issue 3, pp. 300–313). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/taffc.2016.2553038
18 Savran, A., Alyüz, N., Dibeklioğlu, H., Çeliktutan, O., Gökberk, B., Sankur, B., & Akarun, L. (2008). Bosphorus Database for 3D Face Analysis. In Lecture Notes in Computer Science (pp. 47–56). Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-540-89991-4_6
20 Zhalehpour, S., Onder, O., Akhtar, Z., & Erdem, C. E. (2017). BAUM-1: A Spontaneous Audio-Visual Face Database of Affective and Mental States. In IEEE Transactions on Affective Computing (Vol. 8, Issue 3, pp. 300–313). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/taffc.2016.2553038.
21, 23 Taskiran, M., Kahraman, N., & Erdem, C. E. (2020). Face recognition: Past, present and future (a review). In Digital Signal Processing (Vol. 106, p. 102809). Elsevier BV. https://doi.org/10.1016/j.dsp.2020.102809
22 Belhumeur, P. N., Hespanha, J. P., & Kriegman, D. J. (1997). Eigenfaces vs. Fisherfaces: recognition using class specific linear projection. In IEEE Transactions on Pattern Analysis and Machine Intelligence (Vol. 19, Issue 7, pp. 711–720). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/34.598228
24 Jenkins, R., Dowsett, A. J., & Burton, A. M. (2018). How many faces do people know? In Proceedings of the Royal Society B: Biological Sciences (Vol. 285, Issue 1888, p. 20181319). The Royal Society. https://doi.org/10.1098/rspb.2018.1319
25 Vaina, L. M., Solomon, J., Chowdhury, S., Sinha, P., & Belliveau, J. W. (2001). Functional neuroanatomy of biological motion perception in humans. In Proceedings of the National Academy of Sciences (Vol. 98, Issue 20, pp. 11656–11661). Proceedings of the National Academy of Sciences. https://doi.org/10.1073/pnas.191374198
26 Taigman, Y., Yang, M., Ranzato, M., & Wolf, L. (2014). DeepFace: Closing the Gap to Human-Level Performance in Face Verification. In 2014 IEEE Conference on Computer Vision and Pattern Recognition. 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. https://doi.org/10.1109/cvpr.2014.220
27 Wang, M., & Deng, W. (2021). Deep face recognition: A survey. In Neurocomputing (Vol. 429, pp. 215–244). Elsevier BV. https://doi.org/10.1016/j.neucom.2020.10.081
28 Grm, K., Štruc, V., Artiges, A., Caron, M., & Ekenel, H. K. (2017). Strengths and weaknesses of deep learning models for face recognition against image degradations. In IET Biometrics (Vol. 7, Issue 1, pp. 81–89). Institution of Engineering and Technology (IET). https://doi.org/10.1049/iet-bmt.2017.0083
29 Mohapatra, J., Weng, T., Chen, P., Liu, S., & Daniel, L. (2019). Towards Verifying Robustness of Neural Networks Against Semantic Perturbations. ArXiv, abs/1912.09533.
30 Taskiran, M., Kahraman, N., & Eroglu Erdem, C. (2020). Hybrid face recognition under adverse conditions using appearance‐based and dynamic features of smile expression. In IET Biometrics (Vol. 10, Issue 1, pp. 99–115). Institution of Engineering and Technology (IET). https://doi.org/10.1049/bme2.12006
31 Tripathi, R. K., & Jalal, A. S. (2021). A Local Descriptor for Age Invariant Face Recognition under Uncontrolled Environment. In 2021 2nd International Conference on Secure Cyber Computing and Communications (ICSCCC). 2021 2nd International Conference on Secure Cyber Computing and Communications (ICSCCC). IEEE. https://doi.org/10.1109/icsccc51823.2021.9478154
32 Lanitis, A. (2008). Comparative Evaluation of Automatic Age Progression Methodologies. In EURASIP Journal on Advances in Signal Processing (Vol. 2008, Issue 1, p. 239480). Springer Science and Business Media LLC. https://doi.org/10.1155/2008/239480
33 Li, H., He, P., Wang, S., Rocha, A., Jiang, X., & Kot, A. C. (2018). Learning Generalized Deep Feature Representation for Face Anti-Spoofing. In IEEE Transactions on Information Forensics and Security (Vol. 13, Issue 10, pp. 2639–2652). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/tifs.2018.2825949
34 Chingovska,I., A. Anjos A., Marcel, S. (2012)  “On the effectiveness of local binary patterns in face anti-spoofing,” 2012 BIOSIG – Proceedings of the International Conference of Biometrics Special Interest Group (BIOSIG), pp. 1-7.
35 Costa-Pazo, A., Bhattacharjee, S., Vazquez-Fernandez, E., & Marcel, S. (2016). The Replay-Mobile Face Presentation-Attack Database. In 2016 International Conference of the Biometrics Special Interest Group (BIOSIG). 2016 15th International Conference of the Biometrics Special Interest Group (BIOSIG). IEEE. https://doi.org/10.1109/biosig.2016.7736936
36 Erdogmus, N., & Marcel, S. (2013). Spoofing in 2D face recognition with 3D masks and anti-spoofing with Kinect. In 2013 IEEE Sixth International Conference on Biometrics: Theory, Applications and Systems (BTAS). 2013 IEEE 6th International Conference on Biometrics: Theory, Applications and Systems (BTAS). IEEE. https://doi.org/10.1109/btas.2013.6712688
37 Di Wen, Hu Han, & Jain, A. K. (2015). Face Spoof Detection With Image Distortion Analysis. In IEEE Transactions on Information Forensics and Security (Vol. 10, Issue 4, pp. 746–761). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/tifs.2015.2400395
38 Poh, M.-Z., McDuff, D. J., & Picard, R. W. (2010). Non-contact, automated cardiac pulse measurements using video imaging and blind source separation. In Optics Express (Vol. 18, Issue 10, p. 10762). The Optical Society. https://doi.org/10.1364/oe.18.010762
39 Demirezen, H., & Eroglu Erdem, C. (2021). Heart rate estimation from facial videos using nonlinear mode decomposition and improved consistency check. In Signal, Image and Video Processing (Vol. 15, Issue 7, pp. 1415–1423). Springer Science and Business Media LLC. https://doi.org/10.1007/s11760-021-01873-x
40 Liu, X., Fromm, J., Patel, S., McDuff, D. (2020)  Multi-task temporal shift attention networks for on-device contactless vitals measurement, NeurIPS Oral presentation.
41 Ciftci, U. A., Demir, I., & Yin, L. (2020). FakeCatcher: Detection of Synthetic Portrait Videos using Biological Signals. In IEEE Transactions on Pattern Analysis and Machine Intelligence (pp. 1–1). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/tpami.2020.3009287
42 Erdem, A., Erdem, E. (2020) Yapay Zeka ile Gerçekliğin Üretimi”, Sarkaç,  https://sarkac.org/2020/09/yapay-zeka-ile-gercekligin-uretimi/
43 Hassan, T., Seus, D., Wollenberg, J., Weitz, K., Kunz, M., Lautenbacher, S., Garbas, J.-U., & Schmid, U. (2021). Automatic Detection of Pain from Facial Expressions: A Survey. In IEEE Transactions on Pattern Analysis and Machine Intelligence (Vol. 43, Issue 6, pp. 1815–1831). Institute of Electrical and Electronics Engineers (IEEE). https://doi.org/10.1109/tpami.2019.2958341
44 Halfon, S., Doyran, M., Türkmen, B., Oktay, E. A., & Salah, A. A. (2020). Multimodal affect analysis of psychodynamic play therapy. In Psychotherapy Research (Vol. 31, Issue 3, pp. 313–328). Informa UK Limited. https://doi.org/10.1080/10503307.2020.1839141
45 Rudovic, O., Utsumi, Y., Lee, J., Hernandez, J., Castello Ferrer, E., Schuller, B., Picard, R. “CultureNet: A Deep Learning Approach for Engagement Intensity Estimation from Face Images of Children with Autism.” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2018). https://www.media.mit.edu/publications/culturenet-a-deep-learning-approach-for-engagement-intensity-estimation-from-face-images-of-children-with-autism/
Önceki İçerikCamın hikâyesi: Kuvars, tuzcul bitkiler, renkler ve izotoplar
Sonraki İçerikMeraklısına Bilim: İlişkilerin psikolojisi
Çiğdem Eroğlu Erdem

Çiğdem Eroğlu Erdem doktora derecesini Boğaziçi Üniversitesi’nden Elektrik-Elektronik Mühendisliği alanında 2002 yılında aldı. Doktora sonrası çalışmalarını Delft Teknoloji Üniversitesi ve Philips araştırma laboratuvarlarında yaptı. Halen Marmara Üniversitesi, Mühendislik Fakültesi, Bilgisayar Mühendisliği Bölümü’nde öğretim üyesi olarak görev yapmaktadır.

Araştırma alanları arasında sayısal görüntü ve video işleme, bilgisayarla görme ve örüntü tanıma yer almaktadır.

Google akademik sayfası: https://scholar.google.com/citations?user=5m6IrpgAAAAJ&hl=en
Marmara Üniversitesi web sayfası: https://avesis.marmara.edu.tr/cigdem.erdem
Kişisel web sayfası: https://mimoza.marmara.edu.tr/~cigdem.erdem/

Murat Taşkıran

Murat Taşkıran, Yıldız Teknik Üniversitesi (YTÜ)  Elektronik ve Haberleşme Mühendisliği Bölümü’nden 2013 yılında lisans, 2016 yılında yüksek lisans dereceleri almış ve şu anda aynı anabilim dalında doktora programında öğrenci olarak çalışmalarına devam etmektedir. 2014 yılından itibaren YTÜ Elektronik ve Haberleşme Mühendisliği Bölümü’nde araştırma görevlisi olarak çalışmaktadır. Araştırma alanları görüntü işleme, sinir ağları ve biyometrik sistem tasarımıdır.