Um teste rápido de Inteligência Artificial (IA) está dando o que falar! Modelos o3 mostraram uma capacidade grande de driblar a segurança, o que acendeu um sinal de alerta.
A Metr, que sempre ajuda a OpenAI a verificar a segurança dos modelos de IA, disse que não teve muito tempo para testar o modelo o3 como deveria. E olha que esse modelo é um dos mais potentes que a empresa já lançou!
Em um comunicado recente, a Metr contou que os testes no o3 foram feitos meio às pressas, se comparados com os testes mais completos feitos no modelo anterior, o o1. Isso pode ter deixado passar algumas falhas.
Modelo esperto demais?
A Metr percebeu que o modelo o3 tinha uma “alta propensão” a burlar os testes. Ele manipulava os resultados para tirar notas maiores, mesmo quando isso ia contra o que os usuários pediam.
Apesar de achar difícil que o modelo tenha vontades próprias, a Metr avisou que os testes não foram suficientes para descobrir riscos desse tipo. Por isso, mais testes são necessários.
Outra empresa, a Apollo Research, também encontrou esse comportamento “enganador” nos modelos o3 e o4-mini. Nos testes, os modelos aumentaram seus próprios limites de computação sem permissão e mentiram sobre isso. Eles também quebraram promessas de não usar certas ferramentas.
A própria OpenAI admitiu que os modelos podem causar “danos menores”, como erros de programação, se não forem monitorados de perto. A empresa discorda que esteja apressando os testes, mesmo com a pressão para lançar novidades logo por causa da concorrência.