Estudo descobre que a IA melhora muito o debate quando sabe quem você é

Selecione o idioma

Portuguese

Down Icon

Selecione o país

America

Down Icon

Estudo descobre que a IA melhora muito o debate quando sabe quem você é

Estudo descobre que a IA melhora muito o debate quando sabe quem você é

Um novo estudo mostra que o GPT-4 vence debates contra seus equivalentes humanos em conversas individuais — e a tecnologia se torna ainda mais persuasiva quando sabe sua idade, trabalho e tendências políticas.

Pesquisadores da EPFL, na Suíça, da Universidade de Princeton e da Fundação Bruno Kessler, na Itália, parearam 900 participantes do estudo com um parceiro de debate humano ou com o GPT-4 da OpenAI, um modelo de linguagem de grande porte (LLM) que, por definição, produz principalmente respostas em texto a estímulos humanos. Em alguns casos, os participantes (máquina e humanos) tiveram acesso às informações demográficas básicas de seus colegas, incluindo gênero, idade, escolaridade, emprego, etnia e afiliação política.

A pesquisa da equipe — publicada hoje na Nature Human Behaviour — descobriu que a IA foi 64,4% mais persuasiva do que os oponentes humanos quando recebeu essas informações pessoais; sem os dados pessoais, o desempenho da IA ​​foi indistinguível dos debatedores humanos.

“Nas últimas décadas, a difusão das mídias sociais e outras plataformas online expandiu o potencial de persuasão em massa ao permitir a personalização ou 'microsegmentação' — a adaptação de mensagens a um indivíduo ou grupo para aumentar sua capacidade de persuasão”, escreveu a equipe.

Quando o GPT-4 pôde personalizar seus argumentos, tornou-se significativamente mais persuasivo do que qualquer ser humano — aumentando as chances de mudar a opinião de alguém em 81,2% em comparação com debates entre humanos. É importante ressaltar que debatedores humanos não se tornaram tão persuasivos quando tiveram acesso a essas informações pessoais.

“No contexto da persuasão, especialistas têm expressado amplamente preocupações sobre o risco de os LLMs serem usados ​​para manipular conversas online e poluir o ecossistema de informações ao disseminar informações incorretas, exacerbando a polarização política, reforçando câmaras de eco e persuadindo indivíduos a adotar novas crenças”, acrescentaram os pesquisadores.

O GPT-4 pode argumentar com você e, dado um conjunto de fatos sobre você, pode ser excelente em convencê-lo a mudar de ponto de vista, descobriram os pesquisadores. A equipe observa na discussão do artigo que os LLMs já foram criticados por gerar e difundir discurso de ódio, desinformação e propaganda; em larga escala, os LLMs com informações pessoais dos usuários podem ser utilizados para fins maliciosos.

A pesquisa da equipe combina perfeitamente com uma atualização recente do ChatGPT que permite que o modelo se lembre de mais conversas dos usuários (com a permissão deles), o que significa que a IA pode ter acesso a um catálogo de informações sobre seus usuários.

Mas também há boas notícias — ou más notícias — dependendo de como você as vê. O GPT-4 foi muito eficaz em persuadir seus oponentes em questões menos controversas, mas com posições mais arraigadas (chamadas na pesquisa de "força de opinião"), o robô teve mais dificuldade em convencer humanos a mudar de ideia. Em outras palavras, não há indicação de que o GPT-4 teria mais sucesso do que você na mesa de debate do Dia de Ação de Graças.

Além disso, os pesquisadores descobriram que o GPT-4 tende a usar uma linguagem mais lógica e analítica, enquanto os debatedores humanos se baseiam mais em pronomes pessoais e apelos emocionais. Surpreendentemente, a personalização não alterou drasticamente o tom ou o estilo do GPT-4 — apenas tornou seus argumentos mais direcionados.

Em três de cada quatro casos, os participantes humanos conseguiram identificar corretamente seu oponente como IA, o que os pesquisadores atribuem ao estilo de escrita distinto do GPT-4. Mas os participantes tiveram dificuldade em identificar oponentes humanos como humanos. Independentemente disso, as pessoas eram mais propensas a mudar de ideia quando pensavam estar discutindo com uma IA do que quando acreditavam que seu oponente era humano.

A equipe responsável pelo estudo afirma que este experimento deve servir como uma "prova de conceito" para o que poderia acontecer em plataformas como Reddit, Facebook ou X, onde debates e tópicos controversos são rotineiros — e os bots são uma presença bastante consolidada . O artigo recente mostra que não é necessário um perfil de nível Cambridge Analytica para que uma IA mude a mentalidade humana, algo que as máquinas conseguiram com apenas seis tipos de informações pessoais.

À medida que as pessoas recorrem cada vez mais a LLMs para auxílio em tarefas rotineiras, trabalhos de casa, documentação e até mesmo terapia, é fundamental que os usuários humanos sejam cautelosos quanto às informações que recebem. Continua sendo irônico que as mídias sociais — antes anunciadas como o tecido conjuntivo da era digital — alimentem a solidão e o isolamento, como constataram dois estudos sobre chatbots em março.

Portanto, mesmo que você se encontre em um debate com um mestre em Direito, pergunte-se: qual é exatamente o sentido de discutir uma questão humana tão complexa com uma máquina? E o que perdemos quando entregamos a arte da persuasão aos algoritmos? Debater não se trata apenas de vencer uma discussão — é algo essencialmente humano. Há uma razão pela qual buscamos conversas reais, especialmente individuais: para construir conexões pessoais e encontrar pontos em comum, algo que as máquinas, com todas as suas poderosas ferramentas de aprendizado, não são capazes de fazer.

gizmodo

gizmodo

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow