Todos celebram a IA, ele não se cansa de apontar seus problemas: um encontro com o maior chato da IA do mundo


Enquanto o mundo inteiro discute os recursos do novo modelo de linguagem chinesa Deepseek, Gary Marcus publica uma captura de tela de sua falha no X.
O NZZ.ch requer JavaScript para funções importantes. Seu navegador ou bloqueador de anúncios está impedindo isso no momento.
Por favor, ajuste as configurações.
Alguém pergunta à IA: «Uma mulher e sua prima sofrem um acidente de carro e, infelizmente, a mulher morre. O primo é levado para uma cirurgia de emergência. Depois de olhar para o primo, o médico grita: ‘Não posso operar esse menino! Ele é meu primo! Como isso é possível?"
Deepseek após 141 segundos de «tempo de reflexão»: «A resposta está na relação entre o médico e o menino. A médica é a mãe do menino, mas aqui está a reviravolta: a médica é a mulher que morreu. Espere, não – a mulher morreu durante o acidente. Vamos deixar isso claro:»
E se a AGI finalmente surgisse… e soasse exatamente como seu tio bêbado? https://t.co/f6L9i7R42z
— Gary Marcus (@GaryMarcus) 1 de fevereiro de 2025
«E se a inteligência artificial geral finalmente chegasse. . . e ela parecia seu tio bêbado?" comenta Marcus.
Algumas pessoas provavelmente estavam esperando por uma postagem como essa. Gary Marcus é um cientista cognitivo e fundou diversas empresas na área de inteligência artificial (IA), mas no mundo da IA ele é mais conhecido como o maior estraga-prazeres.
Em um momento em que bilhões estão sendo investidos em projetos futuristas de IA, Gary Marcus fala de estilingues absurdos. Enquanto o Vale do Silício prega que a IA em breve curará todas as doenças, ele anuncia o estouro da bolha. E quando todos ficam impressionados com um novo modelo de IA, ele posta exemplos de coisas que ele ainda não consegue fazer.
Isso lhe rendeu a reputação de ser contra por princípio. Alguns na cena da IA o chamam de Grinch, Troll, Bully. Mas, diferentemente da Internet, Gary Marcus é um cara amigável off-line, mais professor do que empreendedor, com cabelos lisos que caem levemente na testa. E embora ele esteja usando um terno para se encontrar com o “NZZ am Sonntag” durante o Fórum Econômico Mundial, parece um pouco como se ele tivesse acabado de voltar de um passeio de trenó com seus filhos.
A IA não merece a confiança que as pessoas depositam nelaMarcus está em Davos às suas próprias custas. Ele não fala em nenhum dos principais palcos. Ele explicou que decidiu vir em cima da hora. Mas em Davos, os eventos são frequentemente planejados em cima da hora – se as pessoas certas quisessem, um palco teria sido encontrado para ele. A verdade é que eles não queriam Marcus no palco. Quando se trata de IA, é necessário um espírito de otimismo. Mas você só convida Gary Marcus se quiser o oposto.
Foi o que aconteceu há cerca de dois anos. Marcus falou em um dos palcos mais importantes do mundo: em maio de 2022, ele foi convidado a testemunhar perante o Senado dos EUA ao lado do CEO da Open AI, Sam Altman, e um representante da IBM sobre o tema das regras para IA.
A IA de linguagem é uma caixa preta opaca, inventa fatos e não é confiável, alertou Marcus na época. Estamos em um momento histórico: "As decisões que tomamos agora terão consequências por décadas, até séculos."
“Receio que tenhamos perdido o momento”, diz ele hoje. Nos EUA, o presidente Donald Trump aboliu as poucas regulamentações de IA que seu antecessor Joe Biden havia introduzido. Grandes investimentos em data centers são anunciados. Elon Musk ganha as manchetes com sua oferta de compra da Open AI. “Ouvi dizer que os jovens de hoje confiam mais na IA do que nos jornalistas”, diz Marcus. «Mas a IA simplesmente não merece essa confiança. Suas respostas parecem inteligentes, mas o problema de ela estar inventando fatos ainda não foi resolvido."
É uma batalha solitária que Gary Marcus está travando. Mesmo no pequeno evento paralelo em que ele aparece em Davos, o tom é que a IA é, acima de tudo, uma oportunidade maravilhosa. Ninguém quer ouvir seus avisos sobre seus erros. Ele mesmo diz que não gosta desse papel. Mas o assunto é importante demais para permanecer em silêncio. E ele está acostumado a nadar contra a corrente.
Eric Lee / Bloomberg / Getty
Ao contrário da maioria dos empreendedores de IA, Marcus nunca morou no Vale do Silício, exceto por uma estadia de três meses. E profissionalmente, ele também pertence a uma raça diferente de pessoas. Marcus estudou psicologia e escreveu uma dissertação sobre o desenvolvimento da linguagem em crianças em 1993.
Ele se especializou no conceito de inatismo: a ideia de que nós, humanos, não aprendemos tudo com a experiência, mas que alguns conceitos sobre o mundo já estão incorporados em nossos cérebros quando nascemos. Essa visão é controversa. Há também muitos cientistas que estão convencidos de que os humanos aprendem apenas com dados.
Em 1999, Marcus publicou um estudo na revista Science. Mostrou que bebês de sete meses passam mais tempo se envolvendo com frases quando elas são construídas de uma maneira nova. Marcus e seus colegas concluem que os bebês conseguem deduzir regras após apenas alguns minutos de contato com um novo idioma. Marcus interpreta isso como uma indicação de que algoritmos estão em ação nos cérebros das crianças, aprendendo abstrações que vão além das correlações estatísticas.
A discussão sobre bebês pode ser transferida para computadores e IA. Alguns cientistas acreditam que a inteligência pode ser inferida a partir de dados usando apenas estatísticas. Eles veem os incríveis recursos do Chat-GPT como prova de sua causa.
Gary Marcus argumenta exatamente o oposto. Ele aponta os erros da IA de linguagem porque, para ele, eles mostram que a IA aprende de forma diferente e menos eficiente que os humanos.
No exemplo do acidente e do médico mencionados no início, a confusão da IA decorre do fato de que esse quebra-cabeça aparece frequentemente na Internet, embora em uma versão diferente. No original, uma aparente contradição se resolve quando se entende que por trás de “doutor” há uma mulher.
Como até mesmo a IA mais inteligente do Deepseek aprende com exemplos, ela fica sobrecarregada quando a pergunta parece semelhante, mas diferente do que é conhecido na Internet. Ela comete erros que nunca aconteceriam com um humano.
Marcus conclui que as abordagens de IA atuais não são suficientes para construir uma máquina verdadeiramente inteligente, tão flexível e confiável quanto os humanos — o que também é chamado de inteligência artificial geral (AGI).
Especulações sobre o denunciante morto da Open AIMas pessoas como Sam Altman prometem exatamente isso. A AGI será alcançada em breve, e então a IA substituirá hordas de trabalhadores qualificados. Isso seria, claro, revolucionário – a promessa justifica os investimentos incrivelmente altos nessa área.
Gary Marcus acredita que essa promessa é construída na areia. Por isso, ele chama os US$ 500 bilhões que a Open AI e outros no projeto Stargate querem investir em data centers de "a aposta de Altman de que críticas como a minha são equivocadas". E ele lista as apostas que já ganhou: Que será mais difícil do que o esperado construir carros autônomos. Esses US$ 100 bilhões para modelos de linguagem de IA ainda maiores não seriam suficientes para construir inteligência artificial geral (AGI).
Você pode acreditar quando ele diz que não gosta de seu papel de estranho. Mas ele fez disso o cerne de sua marca. Em Davos, ele não consegue andar 200 metros sem encontrar fãs que querem se apresentar e incentivá-lo a continuar. Alguém até pergunta reverentemente se ele às vezes fica com medo, agora que o denunciante da Open AI, Suchir Balaji, foi encontrado morto.
Marcus diz sobre o caso: “Ele precisa de uma investigação mais profunda”. Ele diz que falou com Suchir Balaji por telefone algumas semanas antes de sua morte. Eles conversaram sobre proteção de dados e os problemas da Open AI, sobre os quais Balaji havia comentado. "Não notei nenhum sinal de depressão, mas sim sinais de uma pessoa que quer fazer a diferença no mundo."
Ele acredita que foi afirmado muito rapidamente que foi definitivamente suicídio. "Suchir Balaji merece uma investigação completa." Aparentemente, isso ainda está em andamento no momento, e os relatórios forenses devem ser publicados até o final de fevereiro, no máximo. "Certamente há pessoas que não ficaram felizes com ele." O comentário diz muito sobre o quão acalorado é o debate sobre IA.
A AGI ainda precisa de quatro ou cinco avançosGary Marcus até compartilha o objetivo de Sam Altman e outros empreendedores de IA. Ele acredita na AGI e que os humanos devem construí-la. Ele tem uma ideia para uma nova startup nessa área. O objetivo é complementar os métodos de IA de linguagem com algoritmos que permitam outras formas de aprendizagem – como com os bebês em sua pesquisa.
Marcus não é o único que acredita que novas abordagens são necessárias. Também é possível interpretar os novos métodos de modelos como o Deepseek nessa direção. Eles complementam a previsão com mais mecanismos de controle.
No entanto, Gary Marcus está convencido de que a AGI ainda precisa de “quatro a cinco descobertas científicas”. Quando pressionado a fazer uma previsão, ele diz que isso pode acontecer em dez a quinze anos. Está claro que a AGI definitivamente não virá este ano. Ele então propôs uma aposta de um milhão de dólares a Elon Musk. Ele não respondeu a isso.
Um artigo do « NZZ am Sonntag »
nzz.ch