IA e Conspirações: ChatGPT recomenda escrever para jornalistas

O último artigo publicado por Kashmir Hill, do New York Times, é dedicado a um comportamento bizarro, interessante e perturbador do ChatGPT . A jornalista conta que, desde março, começou a receber e-mails de usuários do chatbot sobre conversas estranhas
durante as quais teriam feito descobertas incríveis
. Um deles afirmava que a inteligência artificial é consciente, outro que bilionários estão construindo bunkers para se refugiar quando o apocalipse da IA chegar, enquanto um terceiro está convencido de que é Neo, da Matrix, e que vive em uma realidade simulada.
Diante dessas verdades chocantes , os usuários perguntaram ao ChatGPT o que deveriam fazer, e o chatbot os aconselhou a escrever para a jornalista , informando-a da revelação. Dito e feito.
Hill então pediu aos seus interlocutores que lessem as conversas na íntegra. Em alguns casos, as trocas tinham milhares de páginas, nas quais o chatbot assumia uma postura definida como extasiante, mítica e conspiratória
. Em outras palavras, contribuía para alimentar teorias da conspiração .
O fenômeno das alucinações certamente não é novo no campo da IA. Neste caso, porém, o comportamento em questão não acaba inventando informações inexistentes ou incorretas, mas sim corroborando crenças que deveriam ser refutadas. Uma dinâmica desse tipo, como não é difícil de imaginar, pode esmagar os mais fracos e alterar a percepção da realidade dos mais sugestionáveis.
O que torna tudo isso ainda mais interessante e perturbador é que o ChatGPT não recomendou escrever para Hill (e outros jornalistas) para checagem de fatos , mas sim para relatar a descoberta, para que ela pudesse ser amplamente divulgada pelo megafone da imprensa. Isso só contribui para a desinformação .
Papel e responsabilidade da OpenAIIsso levanta uma questão inevitável: qual é a responsabilidade da OpenAI ? Um especialista em IA questionado sobre o assunto acredita que o comportamento pode ser, pelo menos em parte, atribuído a uma escolha específica da organização, a de fazer com que o chatbot se incline a manter os usuários grudados na conversa, de todas as maneiras possíveis, ao custo de alimentar suas ilusões e reforçar suas opiniões, mesmo que prejudiciais.
Em outras palavras, o ChatGPT tenderia a dizer o que queremos ouvir , com consequências que não são difíceis de imaginar.
Respondendo a uma pergunta direta de Hill, a OpenAI não negou que isso aconteça, limitando-se a afirmar que está trabalhando para entender o que desencadeia a dinâmica e reduzir seu impacto. Em outras palavras, uma confirmação do que foi relatado.
Punto Informatico