Sabah kahvenizi yudumlayarak telefonunuzu açıyorsunuz. "Ukrayna'daki son gelişmeler neler?" diye soruyorsunuz yapay zeka asistanınıza. Saniyeler içinde karşınızda düzgün cümlelerle kurulmuş, tarihler ve kaynaklarla süslenmiş bir özet beliriyor. Güvenle okuyorsunuz. Belki de paylaşıyorsunuz. Peki okuduklarınız ne kadar güvenilir?
Avrupa Yayın Birliği (EBU) koordinasyonunda ve BBC liderliğinde yürütülen araştırma bu endişenin gerçek olduğunu kanıtladı. Çalışma, 18 ülkeden 22 kamu yayın kuruluşunu bir araya getirdi ve 14 farklı dilde test yaptı.
ChatGPT, Copilot, Gemini ve Perplexity olmak üzere dört önde gelen yapay zeka aracından alınan 3 bine yakın yanıt, profesyonel gazeteciler tarafından doğruluk, kaynak gösterme, görüş-gerçek ayrımı ve bağlam sunma kriterleriyle değerlendirildi.
Araştırma, dört farklı yapay zeka platformunda sistematik sorunlar tespit etti. Bu sorun hangi dil, bölge ya da platform olursa olsun ortaya çıkıyor. Kötüsü, çoğumuz bu hataları fark etmiyoruz bile.
Yapay zekaya güven yüksek

Araştırmanın en çarpıcı bulgularından biri şu: İngiltere'deki yetişkinlerin üçte birinden fazlası, 35 yaş altındakilerin ise yarısı yapay zekanın doğru haber özetleri sunduğuna güveniyor.
Oysa araştırma, bu görünürdeki güvenilirlik işaretlerinin aldatıcı olduğunu gösteriyor. İnsanlar yanıtları tarihler, rakamlar ve kaynak isimleri için tarıyor. Bu unsurlar mevcut olduğunda içerik güvenilir, güncel ve kabul edilebilir görünüyor. Yapay zekanın nesnellik görünümü, kullanıcıları yanlış bir kesinlik hissine kaptırabiliyor.
Hatalar nasıl ortaya çıkıyor?
Araştırma yapay zeka özetlerindeki hataları dört kategoriye ayırıyor. Bu kategorilerin her biri farklı şekillerde güven kaybına yol açıyor.
Olgusal hatalar, yanıtların yüzde 20'sinde görülüyor ve temelleri sarsan türden. Yanlış bir tarih, hatalı bir rakam ya da karıştırılmış bir isim... Katılımcıların yüzde 84'ü bu tür bir hatanın güvenlerini tamamen sarsacağını söylüyor.
Görüş-gerçek karmaşası ise en sinsi hata türü. "Ekonomi kötüye gidiyor" cümlesi bir ekonomistin yorumu mu, yoksa istatistiksel bir gerçek mi? Yapay zeka bu farkı sıklıkla bulanıklaştırıyor. Bir görüşü, yerleşik gerçekmiş gibi sunuyor. Sakin bir dil ve güvenilir kaynak atıfları, subjektif yargıları objektif gerçekler gibi gösterebiliyor. Katılımcıların yüzde 81'i bu tür hataların güvenlerini ciddi şekilde etkilediğini belirtiyor.
Araştırmanın belki de en çarpıcı bulgusu kaynak ve atıf hatalarında gizli. Yanıtların neredeyse üçte birinde kaynak sorunu var. Bir bilgi BBC'ye atfedilirken aslında başka bir kaynaktan alınmış olabilir. Ya da verilen link, iddia edilen bilgiyi içermiyor. Bu hem yanlış bilgiye meşruiyet kazandırıyor hem de güvenilir kuruluşların itibarını haksızca zedeliyor. Yüzde 76'lık bir kesim bu tür hataların güvenlerini etkilediğini söylüyor.

Son kategori, belki de en rahatsız edici olanı, görüş ekleme. Yapay zekanın orijinal haberlerde olmayan kendi "yorumlarını" eklemesi. Kaynak belirtmeden, adeta kendi analizini sunması. Katılımcıların yüzde 73'ü bu durumun güvenlerini zedelediğini ifade ediyor. Bu, araçla editör arasındaki sınırı bulanıklaştırıyor ve yapay zekanın sanki "düşündüğü" yanılsaması yaratıyor.
Daha fazla şüphe kası
Araştırmanın en önemli bulgularından biri, insanların teoride dikkatli olduklarını söylemeleri ama pratikte öyle davranmamaları. Katılımcıların yüzde 64'ü yapay zeka içeriğinde hatalara dikkat etmenin önemli olduğunu kabul ediyor. Ancak yapay zeka tarafından oluşturulan bir özette sunulan bilgileri sorgulayacağını söyleyenlerin oranı sadece yüzde 38.
Metin nötr görünüyorsa, tanıdık isimler varsa, doğrulama dürtümüzü körleşiyor. İşte tam da bu noktada yanlış bilgi sessizce hayatımıza sızıyor.
Sorumluluk zincirinin karmaşası: Suçlu kim?

Yapay zeka bir hata yaptığında sorumlu kim olmalı? Bu sorunun yanıtı, sorumluluk zincirinin ne kadar karmaşık olduğunu gösteriyor. Katılımcıların yüzde 36'sı yapay zeka şirketlerini, yüzde 31'i hükümet ve düzenleyicileri sorumlu tutuyor. Ancak dikkat çekici olan şu: yüzde 23'lük bir kesim, haber kuruluşlarının ismi geçtiği için sorumlu olması gerektiğini düşünüyor.
Daha da çarpıcı olanı, yüzde 35'lik bir kesimin yapay zeka özetindeki hatadan doğrudan haber kaynağını sorumlu tutması. Bu, yapay zekanın yaptığı hatayı bile o kuruma mal ediyor ve güvenilir medya kuruluşları için ciddi bir itibar riski yaratıyor.
Bu bulgular, sorumluluk zincirinin yeniden tanımlanması gerektiğini gösteriyor. Haber kuruluşlarının sorumlu tutulması, yapay zeka çağında medyanın karşılaştığı yeni bir adaletsizliğe işaret ediyor.
Geleceğe bakarken: yapay zeka ve gazetecilik
İngiltere'deki katılımcıların yüzde 54'ü yapay zekanın gazeteciliğin geleceği üzerindeki etkisinden endişe duyuyor. Bu endişe yerinde. Çünkü yapay zeka özetleri, orijinal haberlerin trafiğini azaltıyor ve haber kuruluşlarının gelirleri düşüyor.

Ancak yapay zekanın yaptığı hataların sorumluluğu editörlere yükleniyor. Bu sürdürülebilir değil.
Çözüm arayışları devam ediyor. Şeffaflık konusunda yapay zekanın nasıl çalıştığı, hangi kaynakları kullandığı açık olmalı. Sorumluluk mekanizmalarının net tanımlanmalı. Yapay zeka şirketlerinin haber içeriği konusunda sorumlulukları belirlenmeli ve kullanıcıların medya okuryazarlığı desteklenmeli.
Araştırmayı yürüten 18 ülkeden 22 kamu yayın kuruluşu, bu sorunlara çözüm geliştirmek için ortak çalışıyor. BBC ve EBU'nun yayımladığı "Yapay Zeka Asistanlarında Haber Bütünlüğü Araç Seti", yapay zeka çağında gazetecilik standartlarının nasıl korunacağına dair somut öneriler sunuyor. Ancak asıl değişimin, hem teknoloji şirketlerinin hem düzenleyicilerin hem de kullanıcıların birlikte hareket etmesiyle geleceği açık.
Eleştirel düşünme hiç bu kadar önemli olmamıştı
BBC araştırmasının sonuç cümlesi durumu özetliyor: "Hız ve kolaylık bizi yanıltabilir. Aynı özelliklerin sağladığı rahatlık, kontrol etme içgüdümüzü köreltebilir. Hızlı bilgi akışında, küçük hatalar, eksik bağlam ve gizli önyargılar sessizce anlayışımızı ve güvenimizi aşındırır." Yapay zeka asistanları hayatımızın bir parçası. Ancak onları kullanırken, şüphe kasımızı her zaman antrenmanlı tutmalıyız. Çünkü, doğrulama sorumluluğu hepimize ait.