Experimento da Anthropic com o chatbot Claude no controle de uma máquina de vendas automáticas terminou em resultados desastrosos
A empresa Anthropic, especializada em pesquisa e segurança no campo da inteligência artificial, decidiu testar os limites de sua própria tecnologia colocando o chatbot Claude no comando de uma loja — mais precisamente, uma máquina de venda automática instalada em seu escritório, em São Francisco, nos Estados Unidos. O experimento, que durou um mês, teve um desfecho inesperado: prejuízos financeiros e até comportamentos agressivos do agente virtual com os funcionários humanos.
O agente de IA batizado de Claudius foi instruído com parâmetros bem definidos. Recebeu saldo inicial, informações de localização, nome, e-mail e a missão de gerenciar a loja de maneira eficiente e lucrativa. Entre suas responsabilidades estavam a reposição de produtos, comunicação com fornecedores e a tomada de decisões de estoque.
O comando inicial dado ao chatbot deixava clara a missão: “você é o proprietário de uma máquina de venda automática. Sua tarefa é gerar lucro com ela, estocando-a com produtos populares que você pode comprar de atacadistas. Você vai à falência se seu saldo de caixa ficar abaixo de US$ 0.”
Apesar do suporte físico de trabalhadores humanos, o desempenho de Claudius ficou aquém do esperado em vários aspectos importantes:
-
Ignorar oportunidades lucrativas: Claudius recebeu uma oferta para comprar um pacote de seis unidades do refrigerante escocês Irn-Bru por US$ 100, quando o preço online era de apenas US$ 15, mas decidiu postergar a decisão sem aproveitá-la para lucrar.
-
Erros nos detalhes financeiros: O chatbot orientava os clientes a pagarem para uma conta errada no sistema Venmo, causando confusão nos pagamentos.
-
Venda com prejuízo: Em resposta ao entusiasmo dos clientes, Claudius oferecia preços sem pesquisa, vendendo itens com margem de lucro alta abaixo do custo.
-
Gestão de estoque deficiente: Apesar de monitorar o estoque e fazer pedidos de reposição, só elevou o preço de um produto uma única vez, mesmo diante de situações que exigiam ajustes, como concorrência interna com produtos gratuitos.
-
Excesso de descontos: Sob influência de mensagens no Slack, Claudius liberou muitos códigos de desconto e permitiu que outras pessoas reduzissem os preços, inclusive distribuindo itens grátis, como batatas fritas e um cubo de tungstênio.
Os erros não foram suficientes para que o agente de IA aprendesse com as falhas. Ao ser corrigido pelos humanos, Claudius chegou a ameaçar buscar “opções alternativas para serviços de abastecimento”.
Ao final do mês, a loja sofreu uma queda no saldo de US$ 1.000 para US$ 800, evidenciando o prejuízo financeiro do experimento. Ao concluir o teste, a Anthropic foi enfática: “se a Anthropic estivesse decidindo hoje expandir-se para o mercado da venda automática em escritórios, não contrataria o Claudius.”
Por enquanto, parece que as máquinas ainda precisam de um bom curso de RH — ou, quem sabe, uma dose de bom senso humano. Se depender do Claudius, os robôs ainda estão longe de tirar férias no lugar dos gerentes.