2018 yilda FakeApp nomli yuz tuzilishini o‘zgartirib beradigan birinchi ommaviy dastur yaratildi va u oddiy foydalanuvchiga dipfeyk-instrumentlarni ishlatish imkonini berdi. Bunday kontentni yaratish bo‘yicha to‘plamlar hozirgacha erkin muomalada va ularni o‘zlashtirish oson hisoblanadi. Interneti, bo‘sh vaqti, maqsadlari va motivatsiyasi bor har qanday odam real vaqt rejimida qalbaki kontent yaratishi va u bilan ijtimoiy tarmoq kanallarini to‘ldirib tashlashi mumkin.
Birinchi soxta videoroliklar 2017 yildayoq paydo bo‘ldi. Avvaliga ko‘pchilik dipfeyk-kontentlar juda zavqli bo‘lib tuyulardi: ular asosan tekin instrumentlar yordamida yaratilgan va pornografik yozuvlar ustiga yozilgan mashhur insonlarning yuz tasvirlarini o‘zida saqlagan havaskorlik videofayllari bo‘lgan. Biroq bir necha yil ichida texnologiya shunchalik tez rivojlandiki, ularning yordamida yaratilayotgan materiallar qo‘rqitadigan darajada ishonchli bo‘lib ko‘rinardi. Reddit saytining Deepfakes nikneymli foydalanuvchilaridan biri kattalar uchun mo‘ljallangan filmdagi aktrisa ayolning yuzini aktrisa Gal Gadot yuziga muvaffaqiyat bilan almashtirilgan videoni o‘zining sahifasida joylashtirganidan keyin u ayniqsa keng ko‘lamda mashhur bo‘lib ketdi.
IT-tahlilchilar gapiga qaraganda, Deepfake texnologiyasi so‘nggi o‘n yilliklarda raqamli sohadagi eng xavfli texnologiyaga aylanishi mumkin. Dipfeyklar tarqalishi bilan “Internet” tarmog‘ida fotosuratlari ko‘p bo‘lgan taniqli odamlarni obro‘sizlantirish hollari yuzaga kelaboshladi. Siyosat dunyosida Deepfake texnologiyasi ijtimoiy qabul qilib olishni boshqarish,saylovlarga ta’sir ko‘rsatish maqsadida ayrim arboblarga va butun boshli partiyalarga nisbatan qurol sifatida ishlatilishi mumkin. Kuchli dipfeykka misol sifatida 2018 yilda amerika prezidenti Barak Obama qatnashgan qalbaki videoni nashr qilinishini ko‘rsatish mumkin. Bu videoda u go‘yoki o‘sha vaqtda amerika davlatining amaldagi rahbarini haqoratlayotgan bo‘ladi. Videorolik FakeApp va Adobe After Effects dasturlari yordamida yaratilgan.
Barcha aytib o‘tilganlarga qo‘shimcha ravishda ovozlarni ham soxtalashtiradigan texnologiyalar mavjud. Ovozli dipfeyklar ham kiberjinoyatchilar tomonidan qo‘llaniladi – xususan birorta kompaniyaning xodimlarini ruxsat etilmagan harakatlarni amalga oshirishga ishontirish.
Manba:
1. https://www.anti-malware.ru/analytics/Threats_Analysis/Deepfakes-as-a-information-security-threat