Bursa
Çok Bulutlu
12.5°
Başka Gazete

Araştırmaya göre, yapay zeka ikna ediyor ama yalan söylüyor

2025.12.05 01:40 Son Güncellenme: 2025.12.05 01:42 - TEKNOLOJİ

Yeni bir araştırma, sohbet robotlarının (chatbot) insanların siyasi görüşlerini kolayca değiştirebildiğini ortaya çıkardı. Fakat yapay zeka, ne kadar ikna edici ve bilgili görünürse, verdiği bilgilerin doğruluk oranı o kadar düşüyor. Uzmanlar, bu durumun siyasi tartışmalar ve toplumsal bilgi kirliliği için büyük bir risk taşıdığını belirtiyor.

Araştırmaya göre, yapay zeka ikna ediyor ama yalan söylüyor

İngiltere hükümetinin Yapay Zeka Güvenlik Enstitüsü (AISI) tarafından, aralarında ChatGPT ve Elon Musk'ın Grok'u gibi gelişmiş modellerin de bulunduğu 19 farklı yapay zekâ modeli ve yaklaşık 80 bin İngiliz katılımcıyla dev bir çalışma gerçekleştirildi.

Araştırmada katılımcılar, "kamu sektörü maaşları ve grevler" veya "geçim krizi ve enflasyon" gibi siyasi konular hakkında, kendilerini belirli bir görüşe ikna etmeye programlanmış yapay zekâlarla sohbet etti.

Science dergisinde yayımlanan bu çalışmanın ana bulgusu netti: "Bilgi yoğun" yanıtlar veren yapay zeka modelleri en ikna edici olanlardı. Modelin, özellikle olay ve kanıt kullanmaya odaklanması istendiğinde ikna gücü en yüksek seviyeye çıktı.

Ancak çarpıcı bir şekilde, en fazla olaya ve kanıta başvuran modeller, diğerlerinden daha az doğru olma eğilimindeydi.

Araştırmacılar, sonuçların "İkna ediciliği optimize etmenin, doğruluktan feragat etme gibi bir maliyeti olabileceğini gösterdiğini" belirterek, bunun kamuoyu ve bilgi ortamı için kötü niyetli sonuçlar doğurabileceği uyarısında bulundu.

İnsanlardan daha manipülatif olma potansiyeli

Rapora göre, yapay zeka sisteminin anlık olarak büyük miktarda bilgi üretme yeteneği, onu en yetenekli insan ikna edicilerden bile daha manipülatif hale getirebilir.

Raporun yazarlarından AISI araştırmacısı Kobi Hackenburg, "Modellere sadece daha fazla bilgi kullanmalarını söylemenin, psikolojik olarak daha karmaşık ikna tekniklerinden daha etkili olduğunu görüyoruz," dedi.

Araştırmacılar, Meta'nın Llama 3 ve Alibaba'nın Qwen'i gibi açık kaynaklı modellerin bile, en ikna edici çıktıları öneren "ödül modelleri" ile birleştirilerek daha inandırıcı hale getirilebildiğini ekledi.

Ancak araştırmada, bir kullanıcının siyaset üzerine bir sohbet robotuyla 10 dakikalık uzun bir sohbete girmeye ne kadar istekli olacağı gibi gerçek dünyadaki dikkat dağıtıcı unsurların yapay zekânın manipülasyon yeteneğini sınırlayabileceği de belirtildi.