Um novo modelo de inteligência artificial chamado Centaur conseguiu prever decisões humanas com até 64% de acerto. Desenvolvido por uma equipe internacional de pesquisadores na Alemanha, o sistema foi treinado com milhões de decisões reais feitas por pessoas em experimentos psicológicos.
A capacidade da inteligência artificial de descrever padrões de linguagem é conhecida. Mas e quando o objetivo é prever como pensamos ou tomamos decisões? Essa é a proposta por trás do Centaur, modelo desenvolvido no Helmholtz Center for Human-Centered AI, em Munique, na Alemanha.
Testes com 60 mil pessoas e 10 milhões de decisões
A base do Centaur é um modelo de linguagem de código aberto da Meta AI. Para treiná-lo, os pesquisadores alimentaram a IA com os resultados de 160 experimentos comportamentais, que reuniram cerca de 60 mil voluntários.
Os participantes foram expostos a diferentes cenários de tomada de decisão, como categorizar objetos ou decidir apostas em jogos. Com isso, o Centaur analisou mais de 10 milhões de decisões.
Durante a fase de testes, os pesquisadores ocultaram 10% dos dados e avaliaram a capacidade do modelo de prever como os voluntários se comportariam. O resultado surpreendeu: em alguns casos, a IA acertou até 64% das escolhas humanas.
Previsões até em situações novas
Um dos pontos mais promissores do Centaur é sua capacidade de generalização. Mesmo quando os testes eram modificados — com perguntas ou estruturas diferentes das que ele já havia “visto” —, o modelo manteve um desempenho sólido.
Segundo Clemens Stachl, diretor do Instituto de Ciência e Tecnologia Comportamental da Universidade de St. Gallen, o diferencial do Centaur está na tradução de dados comportamentais para a linguagem, permitindo que a IA “entenda” como as pessoas tomam decisões.
Uso prático e preocupações éticas
Além das pesquisas em psicologia, o modelo pode ter aplicação prática em setores como varejo, educação, marketing, segurança e até no ambiente militar. Isso porque ele ajuda a prever comportamentos humanos, como preferências de compra, reações a estímulos e padrões de consumo.
Stachl destaca que empresas já utilizam sistemas semelhantes. Plataformas como TikTok, que personalizam o conteúdo de forma precisa, são exemplos de IA aplicada à previsão de comportamento. O mesmo vale para assistentes como ChatGPT e Copilot.
Contudo, o especialista alerta que o uso dessa tecnologia também traz riscos. “Esses modelos podem nos tornar previsíveis e levar à dependência digital ou até à ‘escravidão algorítmica’”, afirma.
Reflexão social e política
O avanço da IA em prever decisões humanas é, segundo Stachl, uma questão que extrapola a ciência. Ele defende que a sociedade — incluindo juristas, políticos e cidadãos — deve participar da discussão sobre os limites e a regulação desse tipo de tecnologia.
“Estamos diante de um novo patamar da inteligência artificial. A pergunta agora não é se ela pode prever o que faremos, mas como queremos que essa capacidade seja usada.”