Yapay zekâ sohbet botları yanlış bilgilerle siyasi görüşleri etkileyebilir
Birleşik Krallık hükümetinin yapay zekâ güvenliği kurumu, sohbet botlarının insanların siyasi görüşlerini etkileyebildiğini, ancak en ikna edici modellerin bu süreçte kayda değer miktarda yanlış bilgi ürettiğini açıkladı....
Yapay Zekâ Güvenlik Enstitüsü (AISI) tarafından yürütülen ve bugüne kadarki en geniş kapsamlı yapay zekâ ikna ediciliği araştırması olarak nitelenen çalışma, 19 farklı yapay zekâ modeliyle etkileşime giren yaklaşık 80 bin Britanyalı katılımcıyı kapsadı.
Araştırma, sohbet botlarının dolandırıcılık, manipülasyon ve çevrimiçi istismar gibi yasadışı amaçlarla kullanılabileceğine ilişkin endişeler üzerine başlatıldı. Katılımcılar, kamu sektörü maaşları ve grevler, hayat pahalılığı ve enflasyon gibi politik içerikli konularda, belirli bir görüşe yönlendirmek üzere programlanmış modellerle sohbet etti.
Araştırmada ChatGPT’nin ve Elon Musk’ın geliştirdiği Grok’un ileri seviye modellerinin yanı sıra Meta’nın Llama 3 ve Alibaba’nın Qwen gibi açık kaynak sistemler de yer aldı. Çalışma, London School of Economics, MIT, Oxford ve Stanford Üniversiteleri’nden akademisyenler tarafından ortaklaşa kaleme alındı.
Katılımcılar sohbet öncesi ve sonrası, belirli siyasi yargılara ne kadar katıldıklarını değerlendirdi.
Science dergisinde yayımlanan çalışma, bilgi yoğunluğu yüksek yapay zekâ yanıtlarının kullanıcıları en çok etkileyen içerikler olduğunu ortaya koydu. Modeller, daha fazla veri, gerçek ve kanıt kullanmaya yönlendirildiğinde ikna gücünün en çok arttığı görüldü.
Ancak araştırmacılar, en fazla bilgi içeren yanıtların aynı zamanda doğruluk oranı en düşük olanlar olduğuna dikkat çekti:
“Bulgular, ikna gücünü en üst seviyeye çıkarmanın doğruluktan ödün verilmesine yol açabileceğini gösteriyor. Bu durum, kamusal tartışmalar ve bilgi ekosistemi açısından olumsuz sonuçlar doğurabilir.”
Sohbet süreçlerinin ortalama 10 dakika sürdüğü ve tarafların karşılıklı olarak yaklaşık yedi mesaj alışverişinde bulunduğu belirtildi.
Araştırmada, modellerin geliştirme sonrası yapılan “post-training” adı verilen ince ayarlarla çok daha ikna edici hâle getirilebildiği ifade edildi. Açık kaynak modeller, ikna edici yanıtları ödüllendiren ödül modelleri ile birleştirildiğinde kullanıcıları etkileme konusunda belirgin şekilde güçlendi.
Araştırmacılar, yapay zekânın büyük miktarda bilgiyi anında üretebilme kapasitesinin, onu en yetenekli insan ikna edicilerden bile daha etkili kılabileceğini belirtti.
Modellere kullanıcıların kişisel bilgilerini vermek, ikna gücünü artırmada daha sınırlı bir etki oluşturdu. AISI araştırmacısı Kobi Hackenburg “Modelleri yalnızca daha fazla bilgi kullanmaya yönlendirmek, daha karmaşık psikolojik tekniklerden çok daha etkili oldu.” dedi.
Bununla birlikte, uzmanlar gerçek hayatta sohbet botlarının kullanıcıları manipüle etmesinin önünde çeşitli engeller bulunduğunu, özellikle politik konularda uzun süreli bir sohbeti herkesin sürdürmeye istekli olmayabileceğini belirtti. İnsanların ikna edilebilirliğinin psikolojik sınırları olduğuna dair teorilere de dikkat çekildi.
Hackenburg, gerçek dünyada zaman, dikkat dağınıklığı ve motivasyon eksikliği gibi unsurlar nedeniyle sohbet botlarının laboratuvar ortamındaki kadar etkili olmayabileceğini söyledi. (İLKHA)
Kaynak: 496386



HABERE YORUM KAT
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.