«Internet» tarmog‘ida bir oz vaqt oldin yangi hodisa yuzaga keldi— bu dipfeyk (deepfake) deb atalmish narsa bo‘lib, u sun’iy tafakkur texnologiyalarini qo‘llagan holda turli mazmundagi videomateriallarga taniqli odamlarning yuzini va ovozini ko‘chirgan holda qalbaki kontent yaratishni ko‘zda tutadi. Keling Deepfake nimaligi to‘g‘risida gaplashamiz? (Panasenko, 2020)
Deepfakeni Stenford universiteti talabasi Yan Gudfellou 2014 yilda sun’iy tafakkur ishlab chiqaruvchilari uchun o‘ylab topdi. Biroq texnologiya tezda olimlarning tor doirasidan chetga chiqib ketdi. Hozir undan ommaviy madaniyatda keng foydalanishadi: arxitekturadan tortib jurnalistikagacha. (iSpring, 2021)
Deepfake (ingl. deep learning — «chuqur o‘rgatish » va fake — «qalbaki») — sun’iy tafakkur yordamida audio va videomateriallar bilan chinakamiga manipulyatsiya qilishdir. Bu texnologiya insonni o‘zi hech qachon aytmagan narsalarni aytishga va o‘zi hech qachon bajarmagan ishlarni bajarishga majbur qiladi. Deepfake texnologiya ildizi bilan uzoq o‘tmishga kirib ketadi. U vaqtlarda faqtagina kinosanoatidagi maxsus effektlar bo‘yicha ekspertlar shunga o‘xshash vositalarga ega bo‘lishgan. Keyinchalik texnologiya internet-hamjamiyatda to‘ldirildi va dipfeyklarni yaratish bo‘yicha dasturiy ta’minotdan ochiq foydalaniladigan bo‘ldi. So‘nggi vaqtlarda Deepfake texnologiyasi undan moliyaviy maxinatsiyalarni amalga oshirishda,birovni aldashda va qalbaki yangiliklarni (fake news) yaratishda foydalanish mumkinligi sababli o‘ziga e’tibor qaratmoqda.
Deepfake inson tasvirini sintez qilish uchun sun’iy tafakkur imkoniyatlarini qo‘llaydi: inson turli ko‘rinishda va yuzining turli ifodasi bilan tasvirga tushgan birnechta suratlar birlashtiriladi va ulardan videooqim yaratiladi. Fotosuratlarni tahlil qilib, maxsus algoritm inson qanday qilib harakatlanishi mumkinligi va qanday ko‘rinishi mumkinligini o‘rganadi. Bunda ikkita neyrotarmoq ishlaydi. Ulardan bittasi tasvirlarni generatsiya qiladi, ikkinchisi esa ular bilan haqiqiy namunalar o‘rtasidagi farqlarni qidirib topish uchun javob beradi. Agar ikkinchi neyrotarmoq qalbaki holatni aniqlasa, tasvir qaytadan birinchisiga takomillashtirish uchun yuboriladi.
Manba:
1. iSpring, Б. (29 апрель 2021 г.). Эйнштейн вместо тренера: что такое дипфейк и почему это тренд в обучении. Получено из iSpring: https://www.ispring.ru/elearning-insights/dipfejk
2. Панасенко, А. (8 апрель 2020 г.). anti-malware. Получено из anti-malware: https://www.anti-malware.ru/analytics/Threats_Analysis/Deepfakes-as-a-information-security-threat