Yapay Zeka, Kim Olduğunuzu Bildiğinde Tartışmada Çok Daha İyi Hale Geliyor, Çalışma Buldu

Yeni bir araştırma, GPT-4'ün birebir görüşmelerde insan meslektaşlarına karşı tartışmaları güvenilir bir şekilde kazandığını gösteriyor. Ayrıca teknoloji, yaşınızı, işinizi ve siyasi eğilimlerinizi bildiğinde daha da ikna edici hale geliyor.
İsviçre'deki EPFL, Princeton Üniversitesi ve İtalya'daki Fondazione Bruno Kessler'deki araştırmacılar, 900 çalışma katılımcısını ya bir insan tartışma partneri ya da OpenAI'nin GPT-4'ü ile eşleştirdi. Bu, tasarımı gereği çoğunlukla insan istemlerine metin yanıtları üreten büyük bir dil modelidir (LLM). Bazı durumlarda, katılımcılar (hem makine hem de insan) cinsiyet, yaş, eğitim, istihdam, etnik köken ve siyasi bağlılık gibi muhataplarının temel demografik bilgilerine erişebildi.
Ekibin bugün Nature Human Behaviour'da yayımlanan araştırması, yapay zekanın, kişisel bilgiler verildiğinde insan rakiplerinden %64,4 daha ikna edici olduğunu; kişisel veriler verilmediğinde ise yapay zekanın performansının insan tartışmacılardan ayırt edilemez olduğunu buldu.
Ekip, "Son yıllarda sosyal medyanın ve diğer çevrimiçi platformların yaygınlaşması, kişiselleştirme veya 'mikro hedefleme'yi mümkün kılarak kitleleri ikna etme potansiyelini artırdı; bu, mesajların ikna ediciliğini artırmak için bir bireye veya gruba göre uyarlanması anlamına geliyor" diye yazdı.
GPT-4'ün argümanlarını kişiselleştirmesine izin verildiğinde, herhangi bir insandan önemli ölçüde daha ikna edici hale geldi - birinin fikrini değiştirme olasılığını insan-insan tartışmalarına kıyasla %81,2 oranında artırdı. Önemlisi, insan tartışmacılar bu kişisel bilgilere erişim sağlandığında o kadar ikna edici olmadılar.
Araştırmacılar, "İkna bağlamında uzmanlar, LLM'lerin çevrimiçi konuşmaları manipüle etmek ve yanlış bilgi yayarak, siyasi kutuplaşmayı şiddetlendirerek, yankı odalarını güçlendirerek ve bireyleri yeni inançlar benimsemeye ikna ederek bilgi ekosistemini kirletmek için kullanılması riski konusunda yaygın olarak endişelerini dile getirdiler" diye eklediler.
Araştırmacılar, GPT-4'ün sizinle tartışabileceğini ve sizinle ilgili bir dizi gerçek verildiğinde, bakış açınızı değiştirmeniz için sizi ikna etmede başarılı olabileceğini buldu. Ekip, makalenin tartışmasında, LLM'lerin daha önce nefret söylemi, yanlış bilgi ve propaganda üretmek ve yaymakla eleştirildiğini; büyük ölçekte, kullanıcıların kişisel bilgilerine sahip LLM'lerin kötü amaçlı amaçlar için kullanılabileceğini belirtiyor.
Ekibin araştırması, modelin daha fazla kullanıcı sohbetini (onların izniyle) hatırlamasını sağlayan yakın tarihli bir ChatGPT güncellemesiyle güzel bir şekilde örtüşüyor; bu da yapay zekanın kullanıcıları hakkında bir bilgi kataloğuna erişebileceği anlamına geliyor.
Ancak iyi haberler de var—ya da kötü haberler—nasıl gördüğünüze bağlı. GPT-4, rakiplerini daha az tartışmalı konularda ikna etmede çok etkiliydi, ancak daha yerleşik pozisyonlarda (araştırmada "fikir gücü" olarak anılır), botun insanların fikirlerini değiştirmeleri için ikna etmesi daha zordu. Başka bir deyişle, GPT-4'ün Şükran Günü tartışma masasında sizden daha başarılı olacağına dair hiçbir belirti yok.
Dahası, araştırmacılar GPT-4'ün daha mantıksal ve analitik bir dil kullanma eğiliminde olduğunu, insan tartışmacıların ise kişisel zamirlere ve duygusal çağrılara daha fazla güvendiğini buldular. Şaşırtıcı bir şekilde, kişiselleştirme GPT-4'ün tonunu veya stilini önemli ölçüde değiştirmedi; sadece argümanlarını daha hedefli hale getirdi.
Dört vakadan üçünde, insan katılımcılar rakiplerini AI olarak doğru bir şekilde tanımlayabildiler ve araştırmacılar bunu GPT-4'ün belirgin yazım stiline bağladılar. Ancak katılımcılar insan rakiplerini insan olarak tanımlamada zorluk çektiler. Buna rağmen, insanlar bir AI ile tartıştıklarını düşündüklerinde fikirlerini değiştirme olasılıkları, rakiplerinin insan olduğuna inandıklarından daha yüksekti .
Çalışmanın arkasındaki ekip, bu deneyin Reddit, Facebook veya X gibi tartışmaların ve tartışmalı konuların rutin olduğu ve botların çok yerleşik bir varlık olduğu platformlarda neler olabileceğine dair bir "kavram kanıtı" görevi görmesi gerektiğini söylüyor. Son makale, bir yapay zekanın insan zihnini değiştirmesi için Cambridge Analytica düzeyinde profillemeye ihtiyaç olmadığını gösteriyor; makineler bunu yalnızca altı tür kişisel bilgiyle başardı.
İnsanlar ezberci görevler, ödevler, dokümantasyon ve hatta terapi konusunda yardım için LLM'lere giderek daha fazla güvendikçe, insan kullanıcıların kendilerine verilen bilgiler konusunda dikkatli olmaları kritik önem taşıyor. Bir zamanlar dijital çağın bağlayıcı dokusu olarak tanıtılan sosyal medyanın, Mart ayında chatbot'lar üzerine yapılan iki araştırmanın da ortaya koyduğu gibi, yalnızlığı ve izolasyonu körüklemesinin ironik olduğu görülüyor.
Yani kendinizi bir LLM ile tartışırken bulsanız bile kendinize şunu sorun: Bu kadar karmaşık bir insan sorununu bir makineyle tartışmanın tam olarak anlamı nedir? Ve ikna etme sanatını algoritmalara devrettiğimizde ne kaybederiz? Tartışmak sadece bir tartışmayı kazanmakla ilgili değildir; özünde insani bir şeydir. Gerçek konuşmalar aramamızın bir nedeni var, özellikle de birebir konuşmalar: Kişisel bağlantılar kurmak ve ortak bir zemin bulmak, makinelerin tüm güçlü öğrenme araçlarına rağmen yapamadığı bir şey.
gizmodo