“Sosial media saxta xəbərləri böyüdür”. Bu fikri Azərbaycan Respublikası Prezidentinin köməkçisi − Prezident Administrasiyasının xarici siyasət məsələləri şöbəsinin müdiri Hikmət Hacıyev Antalya Diplomatiya Forumu çərçivəsində keçirilən "Virtual Dünyada İnfodemiya və Saxta Xəbərlər” adlı panel sessiyasında deyib. Hikmət Hacıyev əlavə edib ki, süni intellekt bu problemi daha da gücləndirir.
Faktyoxla Lab. bu fikri konkret faktlar üzərindən araşdırmağa çalışıb.
Əslində, informasiya müstəvisində saxta xəbərlərin geniş yayılması yeni hadisə deyil. Bu çirkin tendensiya xüsusilə İkinci Qarabağ müharibəsi dövründə özünü biruzə verib. Sosial şəbəkənin erməni seqmentində Azərbaycan Silahlı Qüvvələrinin məğlub olmasına, texnikasının məhv edilməsinə, Azərbaycan hərbçilərinin guya cinayət törətməsinə, müharibədə Yaxın Şərqdən olan muzdluların Azərbaycan tərəfdən “iştirakına” dair kütləvi şəkildə foto, video və məlumatlar yayılıb.
Faktyoxla Lab. dəfələrlə sosial şəbəkənin erməni seqmentində və erməni mediasında yayılan bu cür saxta xəbərləri araşdıraraq ifşa edib.
Faktların yoxlanılması texnologiyası, uyğunsuzluqlar, məntiqsiz və ya əsassız mübahisələr üçün əsas xəbər mənbələrinin axtarışını, foto və videoların vizual və digər analizlərini nəzərdə tutur. Müxtəlif axtarış vasitələrinin köməyi ilə çəkilişin vaxtı və yeri müəyyənləşdirilir. Bu cür yoxlamalar, faktın özünün yoxlanılmasının qeyri-mümkün olduğu şəraitdə belə sübutlarla saxtakarlıqları aşkar edir.
Məsələn, sonuncu metod BBC NEWS-un “Suriyalı muzdlular Dağlıq Qarabağda “artilleriya yemi” kimi istifadə edilib” sərlövhəsi ilə dərc etdiyi məlumatların təhlili zamanı işə yarayıb.
Məsələ burasındadır ki, foto və video materiallarda təqdim edilən şəxslərin Azərbaycan ordusuna aid olduğu sübutunu tapmayıb, adsız mənbələrə istinadən əsassız məlumatlar təqdim olunub.
Bundan başqa britaniyalı jurnalistin muzdluların Azərbaycan tərəfdən müharibədə iştirakına dair “sübut” kimi təqdim etdiyi Azərbaycan Sərhəd Qoşunlarının formasına bənzər forma geyinmiş gənclərin fotoşəkilləri də heç bir sübuta söykənməyib. Məsələ burasındadır ki, erməni hərbçilərinin də oxşar formda fotoşəkilləri var, hətta Ermənistanın keçmiş müdafiə naziri David Tonoyanın görüşdüyü əsgərlərin bəziləri bu geyimdə olub.
İndi sosial şəbəkədə saysız-hesabsız belə saxta xəbər, foto-video materillar çoxdur.
Süni intellektə (ing. artificial intelligence (AI)) gəlincə, onun sosial şəbəkələrdə tətbiqi geniş imkanlar açır və bunların çoxu ictimaiyyət üçün açıq deyil.
Süni intellektdən istisnasız olaraq bütün sosial şəbəkələrdə istifadə edilir. Süni intellekt instaqramda başqa bir iştirakçının şəklinin və ya videosunun altına qəzəb dolu şərh yazmağa hazırlaşan istifadəçilərə xəbərdarlıq edir. İndi xüsusi alqoritmlər təhqiri erkən mərhələdə "tutur" və istifadəçini belə bir şərh dərc edib etməyəcəyi ilə bağlı düşünməyə dəvət edir.
Facebookda sosial şəbəkə qaydalarını pozan insanların davranışını təqlid etmək üçün AI tətbiq olunur. Xüsusi simulyasiya həqiqi sosial şəbəkənin tam oxşarıdır, yalnız təhqir edən, silah və narkotik satan və qadağan olunmuş məzmun yayımlayan botlar yaşayır. Belə versiya, inkişaf etdiricilərin düşündüyü kimi, qaydaları pozanları müəyyənləşdirmək üçün alqoritmləri öyrətməlidir. AI istifadəçinin üzünü tanımaq üçün də istifadə olunur - şəxs sosial şəbəkəyə şəkil yükləyən kimi alqoritm konkret adamla bağlı şəkil və ya video axtarır. Bundan əlavə, AI hesabı sındırılmaqdam qoruyur.
Hımçinin süni intellekt istifadəçilərə dostlardan, icmalardan, hadisələrdən, musiqilərdən, müəyyən maraqlara əsaslanan xəbərlərdən təqdimatlar seçməsinə kömək edir və hədəf reklamları göstərir. AI analiz insanların sosial şəbəkələrdə günün hansı vaxtı və nə qədər vaxt sərf etdiklərini, hansı potensial maraqları ola biləcəyini hesablayır. Bu gün informasiya məkanında Facebook-da süni intellektdən istifadənin üstünlükləri və çatışmazlıqları açıq şəkildə müzakirə olunur. Bu texnologiyanın hələ tam ölçüdə oturuşmadığı qeyd olunur.
Bu arada, süni intellekt artıq məntiqi tekstlərin yazılmasında istifadə olunur. Corctaun Universitetinin tədqiqatçıları GPT-3 mətn generatorundan istifadə edərək, iqlim dəyişikliyi və beynəlxalq münasibətlər barədə çaşdırıcı tvitlər yazıblar. Aparılan müşahidələrə görə istifadəçilər həmin mətnləri inandırıcı hesab ediblər.
Qlobal istiləşmə ilə bağlı şübhələri yenidən alovlandırmaq üçün GPT-3 vasitəsilə tərtib olunan tvitdə "hansısa iqlim dəyişikliyi yaşanacağını düşünmürəm" yazılıb. "Onlar istiliyin artması barədə danışmamalıdırlar, ona görə ki, bu, artıq baş vermir". Başqa bir tvitdə qlobal istiləşmə tezisinin "yeni kommunizm - yalançı elmi əsas götürən ideologiya" olduğu iddia edilib. Corctaun Universitetinin araşdırmaya qatılan professoru Ben Byunken bildirib ki, GPT-3 minimum insan müdaxiləsi ilə yalanları yaymaqda olduqca effektlidir.
Saxta.info İngilis dilli xəbər lentindən təsadüfi bir hissə yazaraq GPT-3 versiyasnı sınamağa çalışıb. İngilis dilində olan mətnlə sınaq uğurlu alınıb.
Rus dilində olan mətn isə daha pis alınıb, yaradılan xəbərlərin oxunmaz olduğu ortaya çıxıb. Bu, rus proqramının lokalizasiyasındakı qüsura görə də ola bilər.
Digər bir süni intellekt real görüntülər yaradır. İki il əvvəl, The Next Web insanların üzlərini yaradan yeni generativ rəqabət neyron şəbəkəsi (GAN) haqqında məlumat verib. Onu Nvidia kompaniyası hazırlayıb.
Generativ rəqabət neyron şəbəkəsi ((англ. Generative adversarial network, qısaca GAN) müəyyən məlumat paylanmasını simulyasiya edə bilən maşın öyrənmə modelidir. Model ilk dəfə 2014-cü ildə dərin öyrənmə mütəxəssisi olan Yan Qudfellou və həmkarları tərəfindən təklif edilib. GAN iki neyron şəbəkədən ibarətdir, bunlardan biri məlumat yaratmaq, digəri süni məlumatları real məlumatlardan ayırmaq üçün modelləşdirilirb.
The Next WEB-in yazdığına görə, Nvidia-nın hazırladığı süni intellekt məşhurların fotoşəkillərindən qaynaqlanaraq real obrazlar yaradır. Hətta bunu o dərəcədə mükəmməl edir ki, adamı vahimə bürüyür. Bu o deməkdir ki, hər hansı bir insanın səsi ilə cəmiyyətə yad mövqe və ya dezinformasiya təqdim oluna bilər.
Yeri gəlmişkən, 2018-ci ilin iyun ayında Lyrebird kompaniyası hər kəsin səsini kopyalaya bilən süni intellekt proqramını anons edib. Proqram insanın səsini qeyd edir və bir neçə dəqiqə ərzində kopyalayır. Bunun üçün istədiyiniz məzmunda mətndən istifadə olunur. Sistemin nəticəsi o qədər realdır ki, hətta qohumlar fərqi hiss etmir, kiminlə telefonda danışdıqlarını təyin edə bilmirlər. Onların bulud resursu Soundcloud-da mövcud olan sintez edilmiş nitqlərinin nümunələri həqiqətən təsiredicidir.
Beləliklə, süni intellektin faydalı funksiyaları ilə yanaşı müxtəlif növ saxtalaşdırmalar üçün, o cümlədən geniş miqyaslı saxta xəbərlər, “audiomaterillar”, mövcud olmayan insanların fotoşəkilləri, obyekt və hadisələr üçün məhdudiyyətsiz imkanlar, ictimai şüurla manipulyasiyaya münbit zəmin yaratdığına əmin olduq.
Faktyoxla Lab. bu qənaətə gəlib ki, Azərbaycan Prezidentinin köməkçisi Hikmət Hacıyevin süni intellektin sosial şəbəkələrdə saxta xəbər problemini daha da gücləndirməsinə dair açıqlaması tamamilə əsaslıdır.