Tadqiqotlarga ko‘ra, an’anaviy usullar va maxsus dasturlar yordamida dipfeykni aniqlash muvaffaqiyatining foiz miqdori yetarli darajada yuqoridir (95%, Marra et al). Misol uchun shunday dasturlarning birinchilaridan biri bo‘lgan Shallow videodagi odam yuzlarining tasvirini kadrma-kadr bo‘lib chiqadi , so‘ngra ularni dasturning ma’lumotlar bazasida saqlanayotgan tasvirlar bilan o‘xshashligini tahlil qiladi. Ya’ni dasturning kamchiliklaridan biri – bu tasvirlar miqdorining cheklanganligidir.
Dipfeylarni odamning o‘zi ham aniqlashi mumkin. Agar tikilib qarasa, generatsiya qilingan tasvirlarni chinakam tasvirlardan ajratib olish mumkin. Birinchi navbatda tasvirning o‘lchamiga e’tibor bering. Yuqori aniqlikdagi realistik tasvirlarni yaratish kichkinalariga nisbatan nacha murakkabdir, shuning uchun katta tasvirlarga hali ishonsa bo‘ladi. Tasvirning qatlamlarga ajralib ketishi, xiralashib qolishi, yuzning rangidan bo‘yin rangiga birdaniga tutashib ketishi, yuz chegaralarining ikkilanib qolishi va yana boshqa ko‘p mayda tafsilotlar – bularning barchasi dipfeykka ishora qiladi.
Ikkinchidan, tabiiy bo‘lmagan asimmmetriyani topib olish uchun odamlarning yuziga diqqat bilan qarang: ehtimol o‘ng ko‘zning qisiqligi chap ko‘znikiga to‘g‘ri kelmasligi, yoki boshning egilib turishi yuzning joylashuviga to‘g‘ri kelmasligi mumkin va hokazo. Uchinchidan, kiyim-bosh va aksessuarlarga e’tibor qarating, ular neyrotarmoqlarda yuzning tasviriga nisbatan ancha yomon ko‘rinadi.
Videoda esa vaqt o‘tishi bilan odamning chehrasi qanday o‘zgarayotganini kuzatib borish lozim. Agar siz videodagi odamlar juda ham kam ko‘zlarini uchirayotganini, yoki tabiiy bo‘lmagan holda ko‘zlarini uchirishayotganini yoki ko‘zlarini turli tomonlarga harakatlantirishayotganini yoki umuman ko‘zlarini uchirmayotganini sezib qolsangiz – bu aniq dipfeykning alomatidir
Manbalar:
1. Botha, J. and Pieterse, H., 2020, March. Fake News and Deepfakes: A Dangerous Threat for 21st Century Information Security. In ICCWS 2020 15th International Conference on Cyber Warfare and Security (p. 57). Academic Conferences and publishing limited
2. Guarnera, L., Giudice, O., Nastasi, C. and Battiato, S., 2020. Preliminary Forensics Analysis of DeepFake Images. arXiv preprint arXiv:2004.12626
3. F. Marra, D. Gragnaniello, D. Cozzolino, and L. Verdoliva, “Detection of gan-generated fake images over social networks,” in 2018 IEEE Conference on Multimedia Information Processing and Retrieval (MIPR). IEEE, 2018, pp. 384–389