Süni intellekt texnologiyasına əsaslanan sintetik media texnologiyası informasiya təhlükəsizliyinin əsas təhdidlərindən birinə çevrilib. Dipfeyklər – saxta video, audio və şəkillər insanı heç vaxt baş verməmiş şeylər söyləyirmiş və ya edirmiş kimi təsvir etməyə imkan verir.
Bu texnologiyanın əsasında generativ-rəqabətli neyron şəbəkələr (Generative Adversarial Networks, GAN) yerləşir. Hansılar ki, böyük həcmdə məlumatları təhlil edir, onların əsasında yeni vizual və səs səhnələri yaradır və reallığı inandırıcı şəkildə təqlid edirlər. Xüsusi proqram təminatının əlçatanlığı, hesablama gücünün artması və onlayn generatorların ortaya çıxması aləti yalnız böyük studiyalara deyil, adi internet istifadəçilərinə də açqıdır. Bu gün hətta mütəxəssislər belə həmişə saxtanı orijinaldan ayıra bilmirlər.
Texnologiya kinoda və reklamda aktyorların əvəz edilməsi, ölmüş və ya əlçatan olmayan artistlərin iştirakı ilə səhnələrin və xüsusi effektlərin yaradılması üçün tətbiq olunur. Təhsildə və mədəniyyətdə dipfeyklər tarixi hadisələrin rekonstruksiyası, məşhur şəxsiyyətlərin nitqlərinin tədris materiallarında nümayişi, eləcə də müvafiq Sİ generasiya qeydi ilə sənət layihələri üçün istifadə edilir.
Şou aləmində bu texnologiya memlər, əyləncə videoları və oyun effektləri yaratmaq üçün istifadə olunur. Belə hallarda məzmun auditoriya üçün şəffafdır: süni intellektlə generasiya olunduğu göstərilir və konkret insanların həyatları, baş vermiş hadisələr və ya hərəkətləri haqqında saxta təəssürat yaradılmır.
Lakin bu texnologiya paralel olaraq cinayət məqsədli və destruktiv əməllər üçün aktiv istifadə edilir. Siyasətçilərin iştirakı ilə saxta videolar ictimai rəyi dəyişdirə və seçki proseslərinə təsir edə bilir. Sənədləşdirilmiş nümunələrdən Venezuelanın keçmiş prezidenti Nikolas Maduronun və digər dünya liderlərinin iştirakı ilə dipfeyk rolları var ki, orada onlar heç vaxt deyilməmiş bəyanatlar verir və ya iştirak etmədikləri hadisələrdə yer alır.

Belə materiallar sosial şəbəkələr və mesajlaşma proqramları vasitəsilə yayılır və beləliklə etibarlılıq illüziyası yaradır. Hətta bir şirkətin işçisinin rəhbərlərinin səsini saxtalaşdırıb milyonlarla avro vəsaiti cinayətkar şəbəkəyə köçürməklə ciddi maliyyə saxtakarlığına yol verdikləri faktı da qeydə alınıb.
Və yaxud məşhurların iştirakı ilə hazırlanan saxta reklam kampaniyaları istehlakçıları aldadır və mövcud olmayan məhsul və ya xidmətlər üçün ödəməyə məcbur edir. Misal üçün, Gal Gadot və Kollien Fernandes kimi aktrisaların razılıqları olmadan dipfeyk pornografiyası geniş rezonans oyatmışdı. Kompromat videolarından şantaj, təhdid və psixoloji təzyiq məqsədilə istifadə edilir.
İctimai şəxsiyyətlərin iştirakı ilə saxta məzmun dezinformasiyanın ən çox diqqət çəkən alətlərindən birinə çevrilib. Dünya səviyyəsində məşhur akyorlar mövcud olmayan məhsulları reklam edən və ya qalmaqallı bəyanatlar səsləndirən saxta rollarda əks olunurlar.
Bir çox tanınmış qadınlar dipfeyklə hazırlanmış açıq-saçıq vieolarla üzləşib ki, bu da medianın və geniş ictimaiyyətin diqqətini cəlb edib. Belə videolar yalnız məşhurların reputasiyasına deyil, saxtanı real kadrla qarışdırma riski ilə üz-üzə qalan geniş auditoriyaya da zərər vurur. Saxta videolar insanların bəyanatları və hərəkətləri haqqında yanlış təəssürat yaradır, tez-tez müqavilələrin ləğvi, maliyyə itkiləri ilə nəticələnir və daha geniş kontekstdə cəmiyyətin kəskin qütbləşməsini gücləndirir, ümumi media etibarını sarsıdır. Müxtəlif ölkələrin hüquqi sistemləri təhdidə reaksiya verməyə başlayıb, lakin tənzimləmə hələ asta templə inkişaf edir.
Deli Ali məhkəməsi (Hindistan) “Google”, “Meta” və “Amazon”u kriketçi Gautam Gambhirin razılığı olmadan hazırlanmış və yayılmış dipfeyk məzmununu silməyə məcbur edib. Bombey məhkəməsi isə aktyor Akşay Kumarın provokativ səhnələrdə təsvir olunduğu rolları silmə qərarı verib və ictimai təhlükəsizliyə təhdidi xüsusi vurğulayıb. Almaniyada Kollien Fernandesin işi dipfeyklə hazırlanmış açıq-saçıq filmlərinə qarşı qanunvericiliyin kəskin sərtləşdirilməsinin katalizatoru olub. ABŞ-də ayrı-ayrı ştatlar seçki kampaniyalarında texnologiyadan istifadənin tətbiqini məhdudlaşdıran qanunlar qəbul edir və təhlükəli məzmunu silməyən platformalara cəza tətbiqini dəstəkləyirlər.
Bu arada hüquqşünaslar dipfeyk müəlliflərinin müəyyənləşdirilməsi və yayılmasının qarşısının alınması çətinliyinə işarə edirlər: internet anonimliyi və yurisdiksiya fərqləri hüquqi “boz zona”lar yaradır ki, qanunvericilər bunu tədricən bağlamağa başlayıb.
Ekspertlər yalnız yoxlanılmış media və rəsmi mənbələrə etibar etməyi, videolardakı vizual uyğunsuzluqlara – dodaq hərəkətləri, kölgələr, göz rənginə diqqət yetirməyi və yoxlanılmamış sensasiya məzmununu yaymamağı tövsiyə edirlər.
Şəxsi foto və videoların açıq şəkildə yayımlanmasını məhdudlaşdırmaq və hesabların qorunması üçün ikiqat autentifikasiyadan istifadə etmək də vacibdir. Dipfeyklə üzləşdikdə sübutları saxlamaq və hüquq-mühafizə orqanlarına müraciət etmək lazımdır.
Ekspert qiymətlərinə görə, dipfeyk-saxtakarlığından illik zərər milyardlarla dollarla ölçülür. İnsanların saxtaları aşkarlama qabiliyyəti təsadüfi təxmin səviyyəsindən az üstündür, müasir generatorlar isə tez-tez avtomatik aşkarlama sistemlərini də aldadır.