Ex-funcionários de empresas de IA denunciam retaliação por preocupações com segurança

Funcionários de grandes empresas de IA denunciam retaliações contra quem alerta sobre segurança tecnológica, pedindo mais transparência e proteção.

Texto.

Profissionais atuais e ex-funcionários de gigantes da inteligência artificial (IA) como Anthropic, OpenAI e Google DeepMind uniram suas vozes em uma carta aberta. Nela, denunciam a retaliação sofrida por aqueles que manifestam preocupações sobre a segurança da tecnologia de IA dentro dessas empresas.

Críticas silenciadas e supervisão restrita

O documento, assinado por 13 profissionais (sete nominais e seis anônimos), afirma que as companhias de IA sufocam críticas e supervisão externas. Essa prática se intensificou conforme as inquietações sobre a segurança da IA aumentaram nos últimos meses, segundo os signatários.

Entre os signatários estão sete ex-funcionários da OpenAI, quatro atuais colaboradores da mesma empresa, um ex-profissional do Google DeepMind e um ex-empregado da Anthropic que atualmente trabalha no Google DeepMind. Além disso, a carta conta com o endosso de renomados especialistas como Yoshua Bengio, Geoffrey Hinton e Stuart Russell.

Apelo por transparência e proteção a denunciantes

Alegando a ausência de supervisão governamental efetiva, a carta exige que as empresas de IA se comprometam com princípios de crítica aberta. Esses princípios incluem evitar cláusulas de não depreciação, facilitar um processo anônimo “verificável” para relatar problemas, permitir que funcionários atuais e antigos levantem preocupações publicamente, e não retaliar contra denunciantes.

Os signatários reconhecem o potencial benéfico da IA, mas também alertam sobre riscos como o agravamento de desigualdades, manipulação, desinformação e até a possibilidade de extinção humana. Eles argumentam que as proteções atuais para denunciantes são insuficientes, pois se concentram apenas em atividades ilegais, em vez de preocupações não regulamentadas.

Casos de retaliação e demissões na OpenAI

A carta menciona casos recentes na OpenAI, como várias demissões de pesquisadores após o desmantelamento da equipe de “Superalinhamento”, que abordava os riscos de longo prazo da IA. Além disso, Ilya Sutskever, cofundador da OpenAI e defensor da segurança da IA, deixou a empresa. Atualmente, a OpenAI possui uma nova equipe de segurança, liderada pelo CEO Sam Altman.

Um ex-pesquisador da OpenAI, Jan Leike, afirmou que “a cultura de segurança e os processos ficaram em segundo plano em relação a produtos novos” na empresa.