GIJN turli mazmun va shakldagi feyklarni qanday fosh qilish mumkinligi haqida maqolalarni ulashib boradi. Xususan, loyiha reportyori Rovan Filp ovozli fekylarni aniqlash vositalari haqida material tayyorladi.
Factchecknet.uz uning barcha uchun aktual qismlarini tarjima qilgan holatda taqdim etadi:
Ukrainaning StopFake.org sayti yaqinda top generalning prezident Vladimir Zelenskiyni qoralayotgani aks etgan soxta videoni fosh qildi va kuzatdi. Deepware Scanner vositasi va izchillik tahlilidan foydalangan holda ular GAN mashinani o‘rganish texnikasidan bir yil avval olingan ukrainalik generalning haqiqiy videosiga soxta tasvir va audio qo‘shish orqali feyk material yaratilganini aniqladilar. Boshqa tahlilchilarning aniqlashicha, deepfake birinchi bo‘lib “hazil kontent” bilan bo‘lishishga da’vo qiladigan Telegram kanali tomonidan joylashtirilgan.
StopFake’dan Olga Yurkovaning aytishicha, u shubhali multimedia kontentini tekshirish uchun oddiy teskari tasvir vositalaridan foydalangan, ammo “afsuski, bu usul har doim ham ishlamaydi” deb ogohlantiradi u. “Ovozli feyklarni fosh qilish uchun tajribamiz kam, deb tushuntiradi u, ko‘pincha bunday soxta kontentni oddiy tinglash yo‘li bilan ajratamiz, lekin bu asosan sifatsiz feyklarda ish beradi”.
Shubhali ovozli kontent bilan kurashish bo‘yicha texnik maslahatlar:
- Ovozni o‘sha tilda so‘zlashuvchilar (native-speakerlar) yordamida tekshiring. Olga Yurkova 2023-yilda AQSh prezidenti Jo Baydenning ovoziga taqlid qilingan, go‘yo u Vladimir Putinning yengilmasligini tan olgan audiochekni misol qilib keltirdi. Mazkur kontent Rossiya davlat OAV va ba’zi Telegram kanallari tomonidan keng tarqatilgan. StopFake audioyozuvni shunchaki amerikacha ingliz tilida so‘zlashuvchilar bilan bo‘lishdi, ular ma’lum so‘zlar soxta ekanligini, xususan, “patriot” so‘zi noto‘g‘ri talaffuz qilingaligini ta’kidladilar.
- Instrumentlarni sinab ko‘ring. Yurkovaning so‘zlariga ko‘ra, ovozli feyklarni aniqlash uchun vositalar orasida ElevenLabs’ning sun’iy intellekt nutq klassifikatori ancha samarali, ammo u faqat ElevenLabs vositalari yordamida yaratilgan kontentni tekshira oladi.
- Ixtisoslashgan mutaxassislar bilan kollaboratsiya. Jurnalistlar Reality Defender, Loccus.AI, Respeecher, DeepMedia va universitetning raqamli sud laboratoriyalari va axborot texnologiyalari bo‘limlari kabi tashkilotlardagi ekspert manbalaridan yordam so‘rashlari mumkin.
- Ovozdagi AI manipulyatsiyasining umumiy belgilarini aniqlash uchun PlayHT Classifier vositasini sinab ko‘ring. “Bu audio trek sun’iy intellekt yordamida yaratilgan yoki asl yozuv ekanligini tekshirish uchun yordam beradi. Shuningdek, Yurkova AIorNot instrumentini kontentdagi soxta tasvirlarni qidirish uchun mutlaqo bepul variant sifatida taklif qiladi. Yana bir mutaxassis Samanta Sunne jurnalistlarga sensity.ai kabi muqobil vositalarni sinab ko‘rishni taklif qiladi.
- Ko‘p tillarda ishlaydigan pullik detektorlarni ko‘rib chiqing. Xususan, AI Voice Detector avtomatlashtirilgan audio tekshiruvdan tashqari fon musiqasini olib tashlash uchun filtrlar va iz qoldirmasdan qidirish imkoniyati kabi qo‘shimcha funksiyalarni taklif etadi. “Dastur shaxsiy audio fayllarni saqlamaydi va tillarning keng tanloviga ega”, — deya tushuntiradi Yurkova. Shuningdek expert, 93% aniqlik darajasiga ega bo‘lgan DuckDuckGoose (har qanday tildagi sintetik tovush detektori) va ro‘yxatdan o‘tishni talab qiladigan real vaqt rejimida pullik audio tekshiruvi Resemble Detectni tavsiya qiladi
- Notabiiy yoki aytilishi ehtimoli bo‘lmagan so‘zlarni kuzatib boring. Oktyabr oyida Isroil hukumati G’azodagi al-Ahli kasalxonasi portlashi ortidan Hamas radiosi bilan suhbatlashgani da’vo qilingan audioyozuv e’lon qilindi va rasmiylar buni Hamas aybdorligi isboti deb da’vo qildilar. Biroq arab jurnalistlari ovozlarning shevasi, sintaksisi va urg‘usining haqiqiyligiga shubha bilan qarashgan, “Channel 4”ning boshqa hisoboti esa buni ikkita alohida yozuvdan bir-biriga yopishtirib tayyorlangan soxta dialog sifatida rad etgan.
- Audio tarqatilgan saytlarning metama’lumotlarini va domen tarixini tekshiring. “Jurnalistlar asl ijtimoiy tarmoq akkaunti yoki posterlardagi soxta ma’lumotlarni kuzatish uchun WHOIS kabi onlayn vositalardan foydalanishi mumkin”, — deb tushuntiradi Yurkova. RiskIQ va Crowdtangle kabi vositalar ham kontentning kelib chiqishini kuzatishga yordam beradi.
- Kadrma-kadr tahlil qilingan videolarda “o‘chirilgan” narsalarni qidiring. “Vizual nomuvofiqliklar kadrma-kadr tahlilli videolarda ko‘rinib qolishi mumkin”, — deydi Yurkova. Biz nutq davomida odamning yuz ifodasi kutilayotgan his-tuyg‘ularga mos keladimi-yo‘qligiga e’tibor beramiz. Og‘zaki va og‘zaki bo‘lmagan signallar o‘rtasidagi nomuvofiqlik so‘zlar va yuz ifodalari turli xil mazmunni berayotganini anglatishi mumkin.
- Kontentga qo‘shilgan matn va sarlavhalarda xatolar bor yoki yo‘qligini tahlil qiling. Jurnalistlar manipulyatsiyaga ishora qilishi mumkin bo‘lgan taglavhalar va unga qo‘shilgan matnda yashiringan siyosiy shiorlar yoki kampaniya matnlarini ham tekshirishlari kerak.
Manba: https://factchecknet.uz/2024/04/13/ovozli-feyklarni-qanday-farqlash-mumkin/