Seu chat com ChatGPT pode ser espiado alertam pesquisadores e oferecem soluções

Pesquisa revela falha em chatbots de IA, incluindo ChatGPT, permitindo a hackers acessar conversas privadas.

Segurança

Em um mundo cada vez mais conectado, onde a conversa virtual se torna um pilar do nosso cotidiano digital, uma nova pesquisa revelou um potencial risco ligado ao uso de chatbots de inteligência artificial (IA), incluindo o renomado ChatGPT da OpenAI. A varredura cibernética nunca pareceu tão próxima, transformando um simples teclado em uma porta de entrada para hackers. Mas, como isso acontece? E, mais importante, o que podemos fazer para proteger nossas conversas virtuais?

Imagine um cenário onde um cibercriminoso seja capaz de observar o tráfego da sua internet, capturando cada informação que você envia para a nuvem, inclusive suas interações com chatbots de IA, como o ChatGPT. Através deste método, conhecido tecnicamente como “ataque de canal lateral”, esses invasores poderiam ler suas mensagens sem o mínimo esforço, transformando cada confidência em informação pública.

O risco foi identificado por pesquisadores do Offensive AI Research Lab na Universidade Ben-Gurion, em Israel. Eles descobriram que quase todos os modelos de linguagem extensa – com exceção do Google Gemini – estão vulneráveis a esses ataques. Conforme a busca incessante por eficiência e rapidez na resposta dos chatbots, surgiu inadvertidamente uma brecha de segurança que facilita o acesso dos criminosos a dados sensíveis.

Nos bastidores tecnológicos, a conversa se desenrola em pequenos blocos de informações conhecidos como “tokens”, que são enviados sequencialmente para tornar a comunicação mais ágil. No entanto, este método expõe uma lacuna de segurança: ao serem enviados individualmente, esses tokens podem ser interceptados e, com a análise correta, decifrados pelos cibercriminosos, revelando a conversa original quase em tempo real.

Diante deste cenário alarmante, os pesquisadores sugerem duas soluções principais para blindar essa vulnerabilidade. A primeira seria reverter a estratégia de enviar tokens individualmente, priorizando o envio de uma quantidade maior de dados de uma só vez, o que dificultaria a análise individual de cada token. Alternativamente, recomenda-se o uso de um método conhecido como “preenchimento”, que consiste em uniformizar o tamanho de cada pacote de dados enviado, eliminando pistas que possam facilitar a interceptação das mensagens.

Empresas como a OpenAI e a Cloudfare já estão adotando medidas baseadas nessas recomendações para proteger seus usuários contra esses ataques sofisticados. Este episódio ressalta a constante evolução das ameaças cibernéticas e a necessidade de uma vigilância contínua sobre as tecnologias que moldam nossa interação digital diária.