“A IA faz coisas interessantes, mas ainda é fraca e não confiável”, diz Paul Romer, vencedor do Nobel de Economia

Monica Miglio Pedrosa, do FEBRABAN Tech
“O grande risco que temos com a IA é o de perder o poder da ciência que nos serviu há séculos”. A frase de Paul Romer, economista vencedor do Prêmio Nobel de Economia em 2018, foi um contraponto à visão dos entusiastas da inteligência artificial presentes no FEBRABAN Tech, principal evento de tecnologia e inovação do setor financeiro, que acontece até hoje em São Paulo.
Keynote speaker da manhã de hoje, Romer abriu sua palestra mostrando o número quase infinito de combinações possíveis para organizar um baralho de 52 cartas. A analogia serviu para ilustrar a complexidade dos sistemas e explicar por que os modelos de IA ainda não alcançaram a acurácia necessária.
Segundo ele, por séculos, a humanidade confiou em sistemas construídos coletivamente, como a ciência, o jornalismo e a Justiça, para estabelecer a verdade. Esses sistemas funcionam porque seguem regras e processos. “Uma das questões que quero levantar aqui é se esses sistemas continuarão existindo no futuro, com a IA”, alertou.
Romer recorreu a um exemplo institucional para reforçar sua preocupação: o Sistema Nacional de Transporte dos Estados Unidos, que opera de forma independente do órgão regulador e estabelece os fatos em casos de acidentes. Com base nas informações, outras instituições tomam decisões. Com os modelos de LLM, não fica claro como a decisão é tomada.
Ele usou o exemplo de um advogado da Anthropic, empresa que desenvolveu a IA Generativa Claude, que usou a própria ferramenta para redigir um processo judicial. Ao não encontrar uma informação, a IA “alucinou” e inventou uma declaração que não existia. O erro gerou retrabalho, arranhou a reputação do advogado e da empresa e gerou custos ao sistema judiciário.
Outro exemplo apresentado por ele foi o vídeo de um carro autônomo da Tesla que atropelou uma mulher quando o sol ofuscou a câmera do carro. “Estamos dispostos a pagar esse preço pelas alucinações da IA?”, questionou.
Romer afirmou que há anos o nível de precisão dos modelos varia entre 50% e 60% e ainda estamos longe de alcançar níveis próximos a 100%. Para ele, o problema está no fato de que grandes empresas de tecnologia querem monetizar os produtos criados apenas por cientistas da computação, profissionais que, segundo Romer, estão mais interessados no que podem criar do que na busca pela verdade científica.
A IA faz coisas interessantes, mas ainda é muito fraca. Temos que tomar muito cuidado para não nos deixar levar por empresas que querem ganhar dinheiro e nos fazem pagar por uma ferramenta que ainda é perigosa.”
Ele defende que as empresas tenham muito cuidado ao confiar em empresas cujo modelo de negócios é baseado na tecnologia e sugeriu não ouvir apenas os cientistas da computação que a desenvolvem. “Eles estão mais interessados no que podem criar, não na ciência e na verdade”, disse. Romer recomendou que as empresas devem testar e abrir o uso da tecnologia para todos. “Isso pode trazer valor mais rápido”, acredita.
O premiado economista entende que LLMs de código aberto, como o DeepSeek, permitem que as pessoas tenham transparência do que há por trás da tecnologia, oferecendo uma alternativa mais sólida às do ocidente. “As empresas de tecnologia são muito poderosas. Um dos objetivos de Musk no governo Trump era o de parar as investigações dos problemas dos carros Tesla. Algumas forças estão tentando negar a ciência e a verdade”. Ele acredita que empresas motivadas apenas por lucro podem ir contra a ciência e a verdade dos fatos.
-
Aumentar
-
Diminuir
-
Compartilhar