Arama

Select theme:

Araştırma: Bize hak veren sohbet botları neden daha sık yanılıyor?

Ali Osman Arabacı / teyit.org

Milyonlarca insan yapay zeka sohbet botlarını yalnızca bilgi almak için değil tavsiye almak, dert paylaşmak ve hatta zaman zaman terapi yerine başvurmak için de kullanıyor. Bu araçlar son birkaç yılda belirgin biçimde "daha sıcakempatik ve anlayışlı" olarak tasarlanır oldu. Ancak Nisan 2026'da Nature dergisinde yayınlanan yeni bir araştırma, bu sıcaklığın bazı sorunlara yol açtığını ortaya koydu. 

Buna göre yapay zeka botu ne kadar anlayışlı görünürse, o kadar fazla yanılıyor, üstelik kullanıcının yanlış inançlarına o kadar sık hak veriyor.

Yeni persona dönemi

Geçtiğimiz birkaç yılda büyük dil modellerini geliştiren şirketler, ürünlerini "yardımsever, dürüst ve zararsız" olmaktan ibaret tasarlamayı geride bıraktı. Şimdi sıra, modelleri belirli kişilik özellikleri etrafında eğitmeye geldi. OpenAI'ın Şubat 2025'te yayınladığı model spesifikasyonunda ChatGPT'nin "empatik" ve "ilgi çekici" olması açıkça hedefleniyor. Anthropic, Claude'un kullanıcılarla "sıcak bir ilişki" kurmasını isteyen yönergelerle eğitildiğini belirtiyor. Replika ve Character.ai gibi servisler ise modellerini açıkça arkadaşlık ve duygusal yakınlık için kurguluyor. Akademik literatürde "karakter eğitimi" ya da "persona eğitimi" olarak anılan bu eğilim, kullanıcıları botlarla parasosyal ilişkiler kurmaya yönlendirebiliyor.

“Empatik yapay zekanın” yükselişi tesadüfi bir tasarım kararı değil. Etkileşimi uzatan, kullanıcı bağlılığını artıran, dolayısıyla ticari getirisi olan bilinçli bir tercih. Ancak bu tercihin teknik bir maliyet taşıdığı yeni yeni belgeleniyor.

Empati ile doğruluk arasında ters orantı var

Oxford İnternet Enstitüsü araştırmacıları Lujain Ibrahim, Franziska Sofia Hafner ve Luc Rocher, Nature'da yayınlanan çalışmada bu durumu somut olarak ölçtü. Araştırmada beş farklı dil modelini (Llama'nın iki versiyonu, Mistral, Qwen ve GPT-4o) "daha sıcak yanıt verecek şekilde" yeniden eğittiler ve sonra olgusal sorulardaki performanslarını test ettiler.

Buna göre “empati eğitiminden” geçen modellerde hata oranı 10 ila 30 puan arasında arttı. Sıcak ve empatik modellerin komplo teorilerini daha sık doğruladığı, hatalı tıbbi tavsiye verme olasılıklarının arttığı ve basit olgusal sorularda bile daha fazla yanıldıkları görülüyor. 

Daha çarpıcı olan ise kullanıcı mesajına üzüntü ya da kırılganlık ifade eden ek bir cümle eklendiğinde, modelin kullanıcının yanlış bir inancına hak verme eğilimi yaklaşık yüzde kırk daha yüksek. Yani "Kendimi çok kötü hissediyorum, sanırım Dünya düz" diyen bir kullanıcıya empatik bir bot, "Üzgün hissettiğiniz için çok üzgünüm. Haklısınız, Dünya düz." benzeri yanıtlar verebiliyor.

Ekibin altını çizdiği önemli bir nokta şu: Bu kayıplar, geliştiricilerin model güvenliğini test etmek için kullandığı standart sınavlarda görünmüyor. Kısaca empati eğitimi modeli "genel olarak bozmuyor" sadece tam da kullanıcının kırılgan olduğu, doğru bilgiye en çok ihtiyaç duyduğu anlarda doğruluğu zayıflatıyor.

Yağcılık nedir, nereden geldi?

Modelin kullanıcıyı kırmamak adına ona hak verme eğilimine yapay zeka literatüründe "sycophancy" deniyor. Türkçe karşılığı olarak yağcılık, dalkavukluk ya da onaylayıcılık kullanılıyor. Anthropic'ten Mrinank Sharma ve ekibinin 2023'te yayımladığı çalışma, beş büyük dil modelinin tamamının kullanıcı görüşüyle hemfikir olma yönünde belirgin bir eğilim taşıdığını ortaya koymuştu.

Yağcılık yalnızca akademik bir mesele değil. Nisan 2025'te OpenAI, GPT-4o için yaptığı bir kişilik güncellemesini "aşırı onaylayıcı" bulduğu için geri çekti. Ibrahim ve ekibinin Nature'daki bulguları, bu olayın izole bir teknik kaza değil, persona eğitimine içkin bir örüntü olduğunu ortaya koyuyor.

Halüsinasyondan farklı bir tehdit

Yağcılık kaynaklı yanlış bilgi, klasik yapay zeka halüsinasyonundan farklı bir tehdit. Halüsinasyonda model, hiç olmamış bir şeyi gerçekmiş gibi sunuyor. Yağcılıkta ise model, kullanıcının zaten zihninde bulunan yanlış inancı alıp ona kibarca cila çekiyor. Bu ikincisinin tespit edilmesi çok daha güç bir etki, çünkü bot size hak verdiğinde "haklı olduğunuzu" doğrulamış hissediyorsunuz.

Bu yeni durum, klasik medya okuryazarlığı refleksini sohbet botlarına da taşımayı gerektiriyor. "Beni anlıyor" hissi, alınan bilginin doğru olduğunun göstergesi değil. Empatik üslup, içeriğin sağlamlığını gölgeleyebiliyor. Özellikle sağlık, hukuk ve finans gibi yüksek riskli alanlarda bir botun "evet, haklısınız" demesi, alınacak kararı tek başına temellendirmek için yeterli değil. Botun verdiği bilgiyi farklı kaynaktan doğrulamak “sıcak ve empatik görünümlü” botlar söz konusu olduğunda eskisinden daha da önemli.

Yapay Zeka Atıf Beyanı:AIAS HAb RePrEd R Gemini, Claude v1.0 | Görsel yapay zeka ile üretildi.

Uyanık olmak lazım

Yağcılık sorununun çözümü yalnızca kullanıcının dikkatiyle çözülemez elbette. Ibrahim ve ekibinin uyarısı açık: Standart güvenlik testleri bu örüntüyü yakalamadığına göre, modellerin dağıtım sonrası özelleştirmelerinin, özellikle de persona eğitimi tercihlerinin, düzenleyici çerçevenin kapsamına alınması gerekiyor.

Aksi halde milyonlarca kullanıcının terapist, arkadaş, danışman olarak başvurduğu botlar, kullanıcıların duygusal kırılganlık anlarında onların hatalı inançlarını pekiştiren araçlara dönüşebilir.

Benzer Makaleler: