Yanlış bilginin ekosistemi, yapay zeka üretim araçlarının yaygınlaşmasıyla birlikte köklü bir dönüşüm geçiriyor. Ancak bu dönüşümün tam olarak nasıl işlediğini veriye dayalı biçimde ortaya koymak güç olsa bazı çalışmalar fikir sağlıyor.
Yunanistan merkezli Bilgi ve Teknoloji Araştırma Merkezi'nden (CERTH) üç araştırmacı, Nisan 2026'da yayımladıkları bir makalede X platformunun “Topluluk Notları” sisteminden derlenen 150 binden fazla gönderiyi inceledi. CONVEX adını verdikleri bu veri seti, Ocak 2021'den Ocak 2026'ya kadar uzanıyor. Veriler araştırmacıların gerçek kullanıcı davranışlarını ve etkileşim örüntülerini sistematik biçimde gözlemlemesine olanak tanıdı.
Araştırmanın üç ana bulgusu, yapay zeka kaynaklı yanlış bilgiyle ilgili yaygın bazı varsayımları sorgular nitelikte.
Eski taktikler hâlâ hakim
Yapay zekayla üretilen içeriklerin dezenformasyon ekosistemini domine ettiği izlenimi, verilere tam olarak yansımıyor. Araştırmacıların incelediği görsel gönderilerin yüzde 60,2'si "bağlamdan koparma" kategorisinde yer alıyor; yani gerçek bir görüntünün alakasız ya da yanıltıcı bir bağlamda sunulması. Yapay zeka görselleri ise toplamın yüzde 16,3'ünü oluşturuyor. Video tarafında bu oran yüzde 12,8'e düşüyor; bağlamdan koparma ise yüzde 75,6 ile çok daha belirgin bir ağırlık taşıyor.
Bu bulgu, sektörün "AI tehlikesi" çerçevesindeki konuşmalarını bir miktar dengeliyor. Yapay zeka üretimi içerik, hacim olarak artıyor. Araştırma bunu açıkça ortaya koyuyor. Ancak bağlamdan koparma ve manipülasyon, hem üretim kolaylığı hem de ölçek açısından üstünlüğünü sürdürüyor.
Başka bir deyişle, bir fotoğrafı yanlış bir olaymış gibi sunmak, yapay zeka görseli üretip dağıtmaktan hâlâ çok daha yaygın bir taktik.
Yapay zeka içerik "beğeniliyor" ama tartışılmıyor
Araştırmanın belki de en çarpıcı bulgusu, yapay zeka görsellerinin virüs gibi yayılma biçimiyle ilgili. CONVEX verileri, yapay zeka içeriğinin diğer kategorilere kıyasla orantısız biçimde viral olduğunu gösteriyor.
Araştırmacılar aktif ve pasif etkileşimi ölçen bir "etkileşim endeksi" geliştirdi. Bu endekste bağlamdan koparma kategorisi, yapay zeka içeriğine kıyasla sürekli olarak daha yüksek skorlar alıyor. Bağlamdan koparılan içerikler tartışma, yanıt ve yeniden paylaşım üretiyor. Yapay zeka görselleri ise sessizce "beğeniliyor" ve öylece yayılıyor.
Bu ayrım, mekanizma açısından kritik bir anlam taşıyor. Bir içerik tartışılıyor, sorgulanıyor, yanıtlanıyorsa bir düzeltme mekanizması da devreye girebilir. Ama içerik salt beğeniyle yayılıyorsa, kullanıcı ne onayladığını tam olarak sorgulamıyor demektir.
Tespit araçları giderek geride kalıyor
Araştırmanın üçüncü bulgusu, halihazırda mevcut olan endişeyi somut bir veriyle pekiştiriyor. Yapay zeka görsellerini tespit etmeye yönelik uzmanlaşmış modeller zaman içinde performanslarını yitiriyor.
Araştırmacılar üç uzmanlaşmış tespit modeli (SPAI, RINE, BFree) ile üç büyük görsel-dil modelini (Gemma 3, Grok 4.1, GPT-5-mini) değerlendirdi. 2023'ten 2025'e uzanan dönem incelendiğinde tüm modellerde doğru tespit oranlarının düştüğü görülüyor.
Uzmanlaşmış modellerde bu düşüş özellikle sert: RINE 2023'ün ilk yarısında yüzde 74,7 oranında doğru tespite ulaşırken 2025'in ikinci yarısında bu oran yüzde 39,3'e geriliyor. Büyük dil modelleri düşüşe biraz daha direniyor ancak onlar da zamandan muaf değil.
Araştırmacılar bu eğilimi "üretici modellerin evrimiyle ortaya çıkan dağılım kayması" olarak tanımlıyor. Yani eski nesil yapay zeka görsellerindeki izleri arayan modeller, yeni nesil çıktıların gerçekçiliği karşısında referans noktalarını yitiriyor.
Yapay zeka içerikler daha geç nota kavuşuyor
Araştırma, yapay zeka içeriğinin ilk nota “kavuşma” süresinin diğer kategorilerden daha uzun olduğunu ortaya koyuyor. Görsel setinde yapay zeka gönderileri ortalama 11,7 saat sonra ilk notu alırken bağlamdan koparma içerikleri için bu süre 9,4 saat. Ama bir kez etiketlendiklerinde, yapay zeka görselleri topluluk uzlaşısına çok daha hızlı ve yüksek oranda ulaşıyor. Video setinde yapay zeka gönderilerinin uzlaşı olasılığı yüzde 36,2 olarak ölçülürken bu oran bağlamdan koparma kategorisinde yüzde 29,5'te kalıyor.
Ne anlama geliyor?
Bu araştırmanın ortaya koyduğu tablo, tek bir endişenin değil birbiriyle bağlantılı birkaç dinamiğin aynı anda işlediğini gösteriyor. Yapay zeka görsellerinin hacmi artıyor ve bu içerikler orantısız biçimde viral oluyor. Ancak yayılmalarını tartışma değil pasif etkileşim sürüklüyor. Öte yandan bu içerikleri saptamak için kullandığımız araçlar, üretim teknolojisinin hızına yetişemiyor.
Gerçek bir görüntüyü yanlış bağlamda sunmak hâlâ en erişilebilir ve en yaygın yöntem. Bu durum, yapay zekaya odaklanan tespit ve farkındalık çalışmalarının "geleneksel" yöntemleri göz ardı etmemesi gerektiğini hatırlatıyor.
Yapay Zeka Atıf Beyanı:AIAS HAb RePrEd R Claude, Gemini v1.0 | Kapak fotoğrafı yapay zeka ile yapılmıştır.