Axtarış

Select theme:

Tədqiqat: Süni intellektin Vizual Aşkarlama Modelləri zamanla performansını itirir

Yeni bir araşdırma, süni intellekt tərəfindən hazırlanan vizualların passiv qarşılıqlı təsir yolu ilə yayıldığını və aşkarlama modellərinin zamanla bunu müəyyənləşdirə bilmədiyini ortaya qoyub.

Süni intellekt tərəfindən yaradılan alətlərin çoxalması ilə yalan və dezinformasiya ekosistemi də köklü bir transformasiyaya məruz qalır. Lakin məlumatlara əsaslanaraq bu transformasiyanın necə işlədiyini dəqiq müəyyən etmək çətin olsa da, bəzi tədqiqatlar bizə necə davranmalı olduğumuza dair ipucları təqdim edir.

Yunanıstandakı İnformasiya və Texnologiya Tədqiqatları Mərkəzindən (CERTH) üç tədqiqatçı, 2026-cı ilin aprel ayında dərc edilmiş bir məqalədə “X” platformasının "İcma qeydləri" sistemindən tərtib edilmiş 150.000-dən çox paylaşımı araşdırıb. CONVEX adlandırdıqları bu məlumat dəsti 2021-ci ilin yanvarından 2026-cı ilin yanvarına qədər olan dövrü əhatə edir. Məlumatlar tədqiqatçılara real istifadəçi davranışını və qarşılıqlı əlaqə nümunələrini sistematik şəkildə müşahidə etməyə imkan verib.

Tədqiqatın üç əsas tapıntısı süni intellekt tərəfindən yaradılan yalan məlumatla və dezinformasiyalarla bağlı bəzi ümumi fərziyyələrə meydan oxuyur.

Köhnə taktikalar hələ də hakimdir

Süni intellekt tərəfindən yaradılan məzmunun dezinformasiya ekosisteminə hakim olması təəssüratı məlumatlarda tam əks olunmur. Tədqiqatçılar tərəfindən araşdırılan vizual paylaşımların 60,2%-i "dekontekstualizasiya" kateqoriyasına, yəni real görüntünün əlaqəsiz və ya yanlış kontekstdə təqdim edilməsinə aiddir. Süni intellekt tərəfindən yaradılan vizuallar ümumi sayın 16,3%-ni təşkil edir. Videolar üçün bu nisbət 12,8%-ə düşür. Dekontekstualizasiya isə 75,6%-lə daha əhəmiyyətli çəkiyə malikdir.

Bu tapıntı, sənayenin "Süni intellekt təhlükəsi" ilə bağlı müzakirələrini bir qədər tarazlaşdırır. Süni intellekt tərəfindən yaradılan məzmunun həcmi artır. Tədqiqat bunu açıq şəkildə göstərir. Lakin dekontekstualizasiya və manipulyasiya həm istehsal asanlığı, həm də miqyas baxımından öz üstünlüklərini qoruyur.

Başqa sözlə, fotoşəkili yalan hadisə kimi təqdim etmək, süni intellekt tərəfindən yaradılan vizualların yaradılması və paylanmasından daha çox yayılmış bir taktikadır.

Süni intellekt məzmunu "bəyənilir", lakin müzakirə olunmur

Bəlkə də tədqiqatın ən təəccüblü tapıntısı süni intellekt tərəfindən yaradılan şəkillərin virus kimi necə yayılması ilə bağlıdır. CONVEX məlumatları göstərir ki, süni intellekt məzmunu digər kateqoriyalarla müqayisədə qeyri-mütənasib dərəcədə virusludur.

Tədqiqatçılar aktiv və passiv qarşılıqlı əlaqəni ölçən "cəlb indeksi" hazırlayıblar. Bu indeksdə dekontekstualizasiya kateqoriyası süni intellekt məzmunundan daim yüksək bal toplayır. Dekontekstualizasiya edilmiş məzmun müzakirə, cavablar və yenidən paylaşımlar yaradır. Digər tərəfdən, süni intellekt tərəfindən yaradılan şəkillər səssizcə "bəyənilir" və bu şəkildə yayılır.

Bu fərq mexanizm baxımından çox vacibdir. Məzmun müzakirə olunursa, sorğu-sual edilirsə və cavablandırılırsa, düzəliş mexanizmi də işə düşə bilər. Lakin məzmun sadəcə bəyənmələr vasitəsilə yayılırsa, bu, istifadəçinin nəyi təsdiqlədiyini tam olaraq sorğulamadığı deməkdir.

Aşkarlama alətləri geridə qalır

Tədqiqatın üçüncü tapıntısı mövcud narahatlığı konkret məlumatlarla gücləndirir. Süni intellekt tərəfindən yaradılan şəkilləri aşkar etmək üçün hazırlanmış ixtisaslaşmış modellər zamanla öz performansını itirir.

Tədqiqatçılar üç ixtisaslaşmış aşkarlama modelini (SPAI, RINE, BFree) və üç əsas vizual dil modelini (Gemma 3, Grok 4.1, GPT-5-mini) qiymətləndiriblər. 2023-cü ildən 2025-ci ilə qədər olan dövrü araşdırdıqda, bütün modellərdə düzgün aşkarlama nisbətlərində azalma müşahidə edilib.

Bu azalma xüsusilə ixtisaslaşmış modellərdə kəskin şəkildə müşahidə olunub: RINE 2023-cü ilin birinci yarısında 74,7% düzgün aşkarlama nisbətinə nail olub, lakin 2025-ci ilin ikinci yarısında bu göstərici 39,3%-ə düşüb. Əsas dil modelləri azalmaya qarşı müəyyən müqavimət göstərdilər, lakin zaman keçdikcə onlar da öz güclərini itiriblər.

Tədqiqatçılar bu tendensiyanı "generativ modellərin təkamülü nəticəsində yaranan paylanma dəyişikliyi" kimi təsvir edirlər. Başqa sözlə, köhnə nəsil süni intellekt vizuallarında izlər axtaran modellər yeni nəsil süni intellekt axınının realizmi qarşısında istinad nöqtələrini itirirlər.

Süni intellekt məzmununun ilk reytinqini almaq üçün daha uzun vaxt tələb olunur.

Tədqiqat göstərir ki, süni intellekt məzmununun ilk reytinqini "alması" üçün lazım olan vaxt digər kateqoriyalara nisbətən daha uzundur. Vizual dəstdə süni intellekt yazıları ilk reytinqini orta hesabla 11,7 saatdan sonra aldı, kontekstdən çıxarılan məzmun üçün isə bu müddət 9,4 saat idi. Lakin etiketləndikdən sonra süni intellekt vizualları icma konsensusuna daha sürətli və daha yüksək sürətlə çatıb. Video dəstində süni intellektlə bağlı paylaşımlar üçün konsensus ehtimalı 36,2 faiz olaraq ölçülmüş, kontekstdən kənar kateqoriyada isə bu nisbət 29,5 faiz olaraq qalmışdır.

Bu nə deməkdir?

Bu tədqiqatın ortaya qoyduğu mənzərə göstərir ki, eyni vaxtda tək bir narahatlıq deyil, bir neçə qarşılıqlı əlaqəli dinamikası işə düşür. Süni intellekt vizuallarının həcmi artır və bu məzmun qeyri-mütənasib şəkildə viral hala gəlir. Lakin onların yayılması müzakirə deyil, passiv qarşılıqlı təsirlə idarə olunur. Digər tərəfdən, bu məzmunu aşkar etmək üçün istifadə etdiyimiz vasitələr istehsal texnologiyasının sürətindən geridə qalır.

Əsl görüntünü səhv kontekstdə təqdim etmək hələ də ən əlçatan və geniş yayılmış metoddur. Bu isə bizə xatırladır ki, süni intellekt üzərində aparılan aşkarlama və maarifləndirmə tədqiqatları "ənənəvi" metodları görməzdən gəlməməlidir.

 

Mənbə: teyit.org

Oxşar məqalələr: