Estudo descobre que a IA melhora muito o debate quando sabe quem você é

Um novo estudo mostra que o GPT-4 vence debates contra seus equivalentes humanos em conversas individuais — e a tecnologia se torna ainda mais persuasiva quando sabe sua idade, trabalho e tendências políticas.
Pesquisadores da EPFL, na Suíça, da Universidade de Princeton e da Fundação Bruno Kessler, na Itália, parearam 900 participantes do estudo com um parceiro de debate humano ou com o GPT-4 da OpenAI, um modelo de linguagem de grande porte (LLM) que, por definição, produz principalmente respostas em texto a estímulos humanos. Em alguns casos, os participantes (máquina e humanos) tiveram acesso às informações demográficas básicas de seus colegas, incluindo gênero, idade, escolaridade, emprego, etnia e afiliação política.
A pesquisa da equipe — publicada hoje na Nature Human Behaviour — descobriu que a IA foi 64,4% mais persuasiva do que os oponentes humanos quando recebeu essas informações pessoais; sem os dados pessoais, o desempenho da IA foi indistinguível dos debatedores humanos.
“Nas últimas décadas, a difusão das mídias sociais e outras plataformas online expandiu o potencial de persuasão em massa ao permitir a personalização ou 'microsegmentação' — a adaptação de mensagens a um indivíduo ou grupo para aumentar sua capacidade de persuasão”, escreveu a equipe.
Quando o GPT-4 pôde personalizar seus argumentos, tornou-se significativamente mais persuasivo do que qualquer ser humano — aumentando as chances de mudar a opinião de alguém em 81,2% em comparação com debates entre humanos. É importante ressaltar que debatedores humanos não se tornaram tão persuasivos quando tiveram acesso a essas informações pessoais.
“No contexto da persuasão, especialistas têm expressado amplamente preocupações sobre o risco de os LLMs serem usados para manipular conversas online e poluir o ecossistema de informações ao disseminar informações incorretas, exacerbando a polarização política, reforçando câmaras de eco e persuadindo indivíduos a adotar novas crenças”, acrescentaram os pesquisadores.
O GPT-4 pode argumentar com você e, dado um conjunto de fatos sobre você, pode ser excelente em convencê-lo a mudar de ponto de vista, descobriram os pesquisadores. A equipe observa na discussão do artigo que os LLMs já foram criticados por gerar e difundir discurso de ódio, desinformação e propaganda; em larga escala, os LLMs com informações pessoais dos usuários podem ser utilizados para fins maliciosos.
A pesquisa da equipe combina perfeitamente com uma atualização recente do ChatGPT que permite que o modelo se lembre de mais conversas dos usuários (com a permissão deles), o que significa que a IA pode ter acesso a um catálogo de informações sobre seus usuários.
Mas também há boas notícias — ou más notícias — dependendo de como você as vê. O GPT-4 foi muito eficaz em persuadir seus oponentes em questões menos controversas, mas com posições mais arraigadas (chamadas na pesquisa de "força de opinião"), o robô teve mais dificuldade em convencer humanos a mudar de ideia. Em outras palavras, não há indicação de que o GPT-4 teria mais sucesso do que você na mesa de debate do Dia de Ação de Graças.
Além disso, os pesquisadores descobriram que o GPT-4 tende a usar uma linguagem mais lógica e analítica, enquanto os debatedores humanos se baseiam mais em pronomes pessoais e apelos emocionais. Surpreendentemente, a personalização não alterou drasticamente o tom ou o estilo do GPT-4 — apenas tornou seus argumentos mais direcionados.
Em três de cada quatro casos, os participantes humanos conseguiram identificar corretamente seu oponente como IA, o que os pesquisadores atribuem ao estilo de escrita distinto do GPT-4. Mas os participantes tiveram dificuldade em identificar oponentes humanos como humanos. Independentemente disso, as pessoas eram mais propensas a mudar de ideia quando pensavam estar discutindo com uma IA do que quando acreditavam que seu oponente era humano.
A equipe responsável pelo estudo afirma que este experimento deve servir como uma "prova de conceito" para o que poderia acontecer em plataformas como Reddit, Facebook ou X, onde debates e tópicos controversos são rotineiros — e os bots são uma presença bastante consolidada . O artigo recente mostra que não é necessário um perfil de nível Cambridge Analytica para que uma IA mude a mentalidade humana, algo que as máquinas conseguiram com apenas seis tipos de informações pessoais.
À medida que as pessoas recorrem cada vez mais a LLMs para auxílio em tarefas rotineiras, trabalhos de casa, documentação e até mesmo terapia, é fundamental que os usuários humanos sejam cautelosos quanto às informações que recebem. Continua sendo irônico que as mídias sociais — antes anunciadas como o tecido conjuntivo da era digital — alimentem a solidão e o isolamento, como constataram dois estudos sobre chatbots em março.
Portanto, mesmo que você se encontre em um debate com um mestre em Direito, pergunte-se: qual é exatamente o sentido de discutir uma questão humana tão complexa com uma máquina? E o que perdemos quando entregamos a arte da persuasão aos algoritmos? Debater não se trata apenas de vencer uma discussão — é algo essencialmente humano. Há uma razão pela qual buscamos conversas reais, especialmente individuais: para construir conexões pessoais e encontrar pontos em comum, algo que as máquinas, com todas as suas poderosas ferramentas de aprendizado, não são capazes de fazer.
gizmodo