OpenAI bloqueia tentativas de manipulação política via IA de Rússia e outros

OpenAI bloqueia operações de influência de Rússia, China, Irã e Israel que abusavam de IA para manipular opiniões e resultados políticos.

Texto

A OpenAI, responsável pelo revolucionário ChatGPT, revelou ter bloqueado uma série de operações secretas que buscaram manipular a opinião pública por meio do abuso de seus modelos de inteligência artificial (IA). Essas campanhas, originadas na Rússia, China, Irã e Israel, visavam influenciar resultados políticos, sem revelar suas verdadeiras identidades ou intenções.

Em um relatório divulgado na última quinta-feira (30), a startup afirmou que as operações foram interrompidas entre 2023 e 2024. No entanto, a OpenAI ressaltou que “em maio de 2024, essas campanhas não parecem ter aumentado significativamente o envolvimento ou o alcance do público como resultado de nossos serviços”.

A companhia trabalhou em colaboração com outras empresas de tecnologia, sociedade civil e governos para isolar os responsáveis por essas campanhas. Ben Nimmo, investigador principal da equipe de Inteligência e Investigações da OpenAI, explicou: “Durante o último ano e meio, houve muitas questões sobre o que poderia acontecer se as operações de influência usassem IA generativa. Com este relatório, queremos realmente começar a preencher algumas lacunas”.

Controle e segurança são prioridades

O caso destacou a importância de medidas de controle e segurança no desenvolvimento e utilização de tecnologias de IA poderosas, como os modelos de linguagem natural da OpenAI. A empresa demonstrou sua capacidade de detectar e bloquear tentativas de manipulação maliciosa, buscando garantir a integridade e a transparência em seus produtos e serviços.