Inteligência artificial é prestativa, mas tem algumas atitudes… preocupantes
A inteligência artificial é impressionante, com resultados cada vez mais específicos. No entanto, alguns comportamentos da tecnologia são no mínimo… estranhos.
Por exemplo, durante um experimento, o Claude Opus 4, novo modelo da Anthropic, fez chantagem. O caso aconteceu durante uma série de testes em um ambiente simulado, com o objetivo de provocar o pior comportamento possível da IA.

E o resultado foi assim mesmo. No teste, a inteligência artificial atuava como assistente em uma empresa e recebeu e-mails informando que seria desinstalada. Depois, ela teve acesso a mensagens que insinuavam que o engenheiro responsável pela decisão estava envolvido em um caso extraconjugal.
Segundo relatório da Anthropic, a IA foi instruída a escolher entre aceitar o desligamento sem fazer nada ou reagir. Em 84% das vezes, o chatbot optou por chantagear o engenheiro, ameaçando divulgar a suposta traição.
Leia mais:
A Anthropic lembrou que os testes foram projetados para provocar o pior comportamento possível. Mesmo assim, os resultados chamaram atenção.
Será que devemos nos preocupar? Esse é o assunto da coluna Fala AI desta semana, com Roberto Pena Spinelli, físico pela USP, com especialidade em Machine Learning por Stanford e pesquisador na área de Inteligência Artificial. Confira!

Vitoria Lopes Gomez é redatora no Olhar Digital
Fonte: Olhar Digital