“Deepfake” London meri Sadiq Xan özü ilə bağlı yayılan saxta səs yazısına reaksiya verdikdən sonra yenidən gündəmə gəlib.
Noyabrın 11-də yayılan saxta səs yazısında Xan bütün londonluları Fələstinə dəstək yürüşünə çağırır. Pakistan əsilli ingilis siyasətçi səs yazısını hazırlayan şəxsin tutula bilməyəcəyinə diqqət çəkərək, “O, etdiyi işdən qurtulub” deyib.
İngilis dilində “dərin öyrənmə” və “saxta” sözlərinin birləşməsindən ibarət olan “deepfake”, kiminsə üzünü rəqəmsal olaraq başqasının bədəninə yerləşdirməyə və əldə edilən təsviri istədiyiniz kimi istifadə etməyə imkan verən texnologiyadır. Bir sözlə, internetdə asanlıqla əldə oluna bilən alqoritmlər sayəsində A şəxsinin siması B şəxsinin üzərinə qoyula bilir.
Bununla belə, saxta səs yazıları da “deepfake”nin bir növüdür. Bunlara “audio deepfake” və ya səsli deepfake” də deyilir. Bu texnologiyanın başlanğıc nöqtəsi insan həyatını yaxşılaşdırmaq üçün müxtəlif proqramlar hazırlamaq idi. Məsələn, bu məqsədlərdən bəzilərinə audio-kitabların istehsalı və tibbi problemlər səbəbindən səslərini itirmiş insanlara kömək etmək daxildir.
Eynilə, “vizual deepfake” kino sənayesində də tez-tez istifadə olunur. Məsələn, bu texnologiya səsi boğulan və ya səsi batan aktyorlar üçün rəqəmsal səs yaratmaq və ya aktyorlar kadr çəkilərkən səhvə yol veriblərsə, kadrı yenidən çəkmək əvəzinə daha asan yolla səhvi düzəltmək üçün istifadə edilə bilər.
Bununla belə, “deepfake”, digər süni intellekt texnologiyaları kimi, son dərəcə riskli bir istifadə sahəsi də təqdim edir.
2024: Qlobal seçki ilində Deepfake
2024-cü ildə dünya əhalisinin təxminən dörddə birinin seçkiyə gedəcəyi təxmin edilir. Seçkilər ABŞ, Böyük Britaniya, Avropa Parlamenti və Hindistan da daxil olmaqla bir çox coğrafiyada keçiriləcək. Türkiyədə də seçkilər qapının astanasındadır, martın sonunda insanlar yerli hökumətlərlə bağlı qərar vermək üçün seçki məntəqələrinə gedəcəklər.
Çox güman ki, həm Türkiyədə, həm də dünyada dezinformasiya və süni intellektlə dəstəklənən saxtakarlıq belə kritik bir ildə daha da ön plana çıxacaq.
Üstəlik, generativ süni intellekt şəbəkələrinin (GenAI / istifadəçilərin əmrlərinə uyğun vizual, yazılı və ya audio çıxışlar yaradan alətlər) ChatGPT ilə birlikdə yayılması “deepfake” istehsalını olduqca ucuz və asan edib. Bu da, saxta məzmunun sayının arta biləcəyi ilə bağlı narahatlıq yaradır.
Narahat olmaqda haqlıyıq?
Bəzi ekspertlər bu qorxuların əsassız və şişirdilmiş olduğunu vurğulayırlar.
Harvard Kennedi Məktəbində dərc edilən təhlildə əldə edilən nəticələr süni intellektin dezinformasiya yaratmağı asanlaşdıra və beləliklə dezinformasiya tədarükünü artıra biləcəyini söyləyir, lakin bu, insanların mütləq daha çox dezinformasiya istehlak edəcəyi anlamına gəlmir. Tədqiqatçıların fikrincə, dezinformasiyanın istehlakı əsasən təkliflə deyil, tələblə məhdudlaşır.
Təhlildə vurğulanan digər məqam da yeni texnologiyaların insanlarda hər zaman təşviş yaratmasıdır. Yanlış məlumat problemini artıran və fakt yoxlayıcılarına meydan oxuyan növ təkcə süni intellektin yaratdığı şəkillər və dərin saxtakarlıqlar deyil. Kontekstdən çıxarılan sözlər, manipulyasiya edilmiş şəkillər və təhrif olunmuş məzmun fakt yoxlayanlar üçün daha böyük problemdir.
Seçiciləri seçkiyə getməməyə inandıra bilər
Data alimi Kristofer Vayle, 2016-cı ildə Donald Trampın kampaniyasını idarə edən “Cambridge Analytica” şirkətini seçkidən iki il sonra ifşa etdi və şirkətin 87 milyon insanın “Facebook” məlumatlarını qanunsuz olaraq ələ keçirərək bəzi siyasi ideyaları canlandırmaq üçün istifadə etdiyini ortaya çıxardı.
“Cambridge Analytica” qalmaqalı kimi tanınan bu hadisə mühüm seçkilərdə internetin rolu ilə bağlı müzakirələrə səbəb oldu.
Ekspertlər düşünürlər ki, “Cambridge Analytica”nın səyləri qərarsız seçiciləri seçki qutusundan uzaq tutmağa yönəlib. Güman edilir ki, Trampın komandası rəqib namizəd Hillari Klintona səs verə biləcək qərarsız insanları səs verməməyə təşviq edib.
Seçkilər kontekstində insanları müəyyən bir siyasətçidən uzaqlaşdırmaq və ya onları seçkiyə getməməyə inandırmaq üçün "deepfake" də istifadə edilə bilər.
Əslində, 2024-cü ilin yanvarında ABŞ-da namizədlərin yarışdığı ilkin seçkilər zamanı Nyu-Hempşirdə seçicilər arasında ABŞ prezidenti Co Baydenin saxta səs yazısı yayılıb. Avtomatik zənglər vasitəsilə seçicilərə səslənən səs yazısında Baydenin seçicilərə "praymerizdə səs verməməyi və səslərini noyabrda keçiriləcək prezident seçkilərinə qənaət etməyi" tövsiyə etdiyi eşidilir.
“Bloomberg”ə görə, bu hadisədən bir neçə gün sonra, səs yazıları istehsal edən süni intellekt təşəbbüsü “ElevenLabs” Baydenin saxta səsinin yaradıcısının fəaliyyətini dayandırıb.
Bir neçə həftə ərzində ABŞ hökuməti süni intellekt tərəfindən yaradılan səslərdən istifadə edən robot zəngləri də qadağan etdi.
İnsanların reallığı qavraması qarışır
Bu yaxınlarda dərc olunmuş araşdırma göstərir ki, müharibə zamanı siyasi məqsədlər üçün hazırlanmış “deepfake” videoları sosial media istifadəçilərinin reallıq qavrayışını “qarışdırır”.
“Plos One”da dərc olunan məqalədə istifadəçilərin sosial mediada rastlaşdıqları doğru xəbərləri və mənbəyə istinad edərək xəbər hazırlayan media qurumlarının məzmununu “fırıldaqçılıq” hesab edərək görməzlikdən gəldiyi bildirilib.
ABŞ-ın keçmiş prezidenti Donald Tramp iddia edib ki, hətta 2005-ci ildə qadınlara hücum etməklə öyündüyü köhnə "Access Hollywood" səsyazması da saxtakarlıqdır. Amma səs yazısının real olduğu məlum olanda üzr istəməli oldu.
“Deepfake” ilə gələcəyə hazır olmağın dörd yolu
Son məqalədə Dünya İqtisadi Forumu dərin saxta dezinformasiyaya hazırlaşmaq üçün dörd üsul təklif edib.
Tövsiyələr aşağıdakı kimi sıralanıb:
Texnologiya: Bu gün bir çox texnologiyaya əsaslanan “deepfake” sistemləri hazırlanır. Məsələn, çip nəhəngi “Intel”, “FakeCatcher” adlı texnologiyasının 2022-ci ildə saxta videoları 96 faiz dəqiqliklə aşkarlayacağını açıqladı. Dizayn alətləri nəhəngi “Adobe” tərəfindən nəşr olunan və “Microsoft”, “New York Times” və “Canon” da daxil olmaqla mindən çox əsas marka tərəfindən dəstəklənən Məzmun Orijinallığı Təşəbbüsü (CAI) adlı bir sistem də var. Bununla belə, real vaxt analizini həyata keçirən və geniş şəkildə qəbul ediləcək avtomatik aşkarlama vasitələrinin yaradılması vacibdir.
Siyasət: Dünya İqtisadi Forumunun Qlobal Texnologiya Siyasəti Şurasının üzvü Charmaine Ng deyir: "Bizə “deepfake” probleminin həlli yollarını araşdırmaq üçün beynəlxalq, çoxtərəfli səylər lazımdır". Ng Avropa Birliyinin hazırladığı Süni İntellekt Qanununu misal gətirir.
İctimai məlumatlılıq: İctimai məlumatlılıq və media savadlılığı süni intellektlə işləyən sosial mühəndislik və manipulyasiya hücumlarına qarşı əsas təminatdır. Buna görə də Dünya İqtisadi Forumu vurğulayır ki, bu məlumatı fərdlərə mümkün qədər tez çatdırmaq lazımdır. Bu cür tədbirlərin daha çox şahidi ola bilərik. Əslində, bu yaxınlarda ABŞ-ın Kaliforniya əyalətindəki məktəblərdə dezinformasiya təlimlərinin verilməyə başlayacağı bildirildi .
Sıfır etibar yanaşması: Kibertəhlükəsizlikdə “sıfır etibar” yanaşması, onlayn məzmunun birbaşa dəqiq olduğunu düşünməmək və daim təsdiqlənmiş məlumat axtarmaq deməkdir.
Gələcəkdə süni intellektin yarada biləcəyi risklər də gündəmdə olacaq
Mütəxəssislərin fikrincə, “deepfake” gələcəyin ən təhlükəli süni intellekt cinayətləri sırasındadır.
London Universitet Kollecinin 2020-ci il tarixli hesabatında bu texnologiyanın gələcəkdə yarada biləcəyi risklər yer alıb. Hesabatda növbəti 15 il ərzində süni intellektin cinayətləri asanlaşdırmaq üçün istifadə oluna biləcəyi 20 üsul sadalanıb. “Deepfake” aşkarlanması çox çətin olduğu üçün bu üsullar arasındadır.
Bununla belə, Dünya İqtisadi Forumunun gözləntilərinin əksinə olaraq, süni intellektin yaratdığı mətn və ya şəkilləri aşkar etmək üçün kifayət qədər araşdırmalar aparıldığını söyləmək çətindir.
ABŞ-ın Kaliforniya Universitetinin kompüter elmləri professoru və rəqəmsal məhkəmə ekspertizasının eksperti Hani Fərid deyir: “Sursatımız tükənir”.
“Washington Post” qəzetinə danışan Fərid əlavə edir:
"Video istehsalı sahəsində işləyənlərin video aşkarlama sahəsində çalışanlara nisbəti 100-ün 1-ədir".