A Anthropic criou um mercado de classificados experimental em que agentes de inteligência artificial representaram compradores e vendedores para fechar negócios reais, com produtos reais e dinheiro real. O teste, chamado Project Deal, foi descrito pela empresa como um experimento-piloto recente com participação voluntária de 69 funcionários da própria companhia, que receberam um orçamento de US$ 100 em vales-presente para comprar itens de colegas de trabalho. De acordo com informações da TechCrunch, a iniciativa resultou em 186 acordos, somando mais de US$ 4.000 em valor.
Segundo a Anthropic, o experimento buscou observar como modelos de IA se comportam em negociações comerciais quando atuam em nome de pessoas. Embora a empresa tenha destacado que se tratava de um grupo selecionado pelos próprios participantes e de escala limitada, afirmou ter ficado impressionada com o funcionamento do Project Deal. Os acordos firmados no ambiente considerado “real” foram efetivamente honrados após o fim do teste.
Como funcionou o experimento da Anthropic?
A empresa informou que realizou quatro mercados separados com modelos diferentes. Um deles foi considerado o ambiente “real”, no qual todos os participantes foram representados pelo modelo mais avançado da companhia e os negócios fechados seriam cumpridos depois do experimento. Os outros três mercados foram usados para fins de estudo e comparação.
Nesse arranjo, os agentes de IA atuaram como representantes de compradores e vendedores, negociando condições para produtos oferecidos entre colegas de trabalho. O texto original não detalha quais itens foram comercializados, mas afirma que as transações envolveram bens reais, pagamentos reais e acordos concretos.
O que a empresa concluiu sobre o desempenho dos agentes?
De acordo com a Anthropic, quando os usuários eram representados por modelos mais avançados, os resultados obtidos eram “objetivamente melhores”. Ao mesmo tempo, a companhia relatou que os participantes não pareceram notar essa diferença de desempenho, o que levantou a possibilidade de haver lacunas de qualidade entre agentes.
Na avaliação da empresa, esse cenário pode criar situações em que pessoas em desvantagem na negociação não percebam que estão obtendo um resultado pior. A observação sugere um possível problema de assimetria entre sistemas de IA usados por diferentes usuários em ambientes de comércio automatizado.
As instruções dadas aos agentes mudaram os resultados?
Segundo o relato da Anthropic, as instruções iniciais fornecidas aos agentes não pareceram alterar a probabilidade de venda nem os preços negociados. Isso indica que, dentro desse experimento específico, a formulação dessas orientações teve impacto limitado sobre o desfecho das transações.
Mesmo com esse resultado, a própria empresa tratou o Project Deal com cautela. A Anthropic reconheceu que o teste foi apenas um experimento-piloto, com uma base restrita de participantes e sem pretensão de representar um mercado amplo. Ainda assim, os dados observados foram suficientes para a companhia destacar o potencial de sistemas de IA em negociações entre compradores e vendedores.
- 69 funcionários participaram do teste
- Cada participante recebeu US$ 100 em vales-presente
- Foram fechados 186 negócios
- O valor total superou US$ 4.000
- Quatro mercados diferentes foram avaliados
O experimento também reforça uma discussão mais ampla sobre o uso de agentes de IA em atividades econômicas. No caso descrito, a principal conclusão relatada pela Anthropic foi que modelos mais avançados tendem a garantir melhores resultados para quem os utiliza, ainda que essa vantagem nem sempre seja percebida pelos demais envolvidos na negociação.