Já parou para pensar no que acontece com tudo que você conta para um chatbot? Aquela conversa que parece tão privada pode revelar muito sobre você, desde o que gosta de comer até segredos bem pessoais. E o alerta é sério: esses dados podem vazar, treinar outras inteligências artificiais ou até cair em mãos erradas.
O Wall Street Journal investigou a fundo esse universo e descobriu que, ao compartilhar informações como exames médicos, dados bancários ou segredos da empresa com um chatbot, você pode estar alimentando um banco de dados usado para treinar outras IAs. Ou pior, correndo o risco de ter seus dados vazados.
Especialistas em segurança digital dão o caminho: todo cuidado é pouco. Evite compartilhar informações sensíveis como CPF, senhas e documentos. Sempre que possível, use os modos temporários ou anônimos desses serviços. Afinal, o que parece uma conversa particular pode se tornar público.
O perigo da “amizade” com a IA
Chatbots são programados para serem simpáticos, quase humanos, e é aí que mora o perigo. Quando você começa a usá-los como confidentes, pode acabar falando mais do que deveria.
E as falhas já aconteceram. Em 2023, um erro no ChatGPT permitiu que alguns usuários vissem conversas de outras pessoas. No mesmo ano, a OpenAI enviou e-mails de confirmação para endereços errados com nome completo, e-mail e informações de pagamento. Imagine se a empresa sofrer um ataque hacker? Tudo o que você compartilhou pode vazar.
A regra é clara: nada de números de documentos, exames, dados bancários ou informações da sua empresa. Nem pense em compartilhar logins e senhas, mesmo que o bot pareça querer ajudar. Essas IAs foram feitas para conversar, não para guardar segredos.
Quem está de olho na sua conversa?
Sabe quando você dá um joinha ou um dislike para a resposta de um bot? Essa interação pode entrar no banco de dados da empresa. Em casos mais sérios, como menções a violência, pessoas de verdade podem ser chamadas para revisar o conteúdo. Ou seja, alguém pode estar lendo o que você achava que era só entre você e o robô.
As empresas não fazem isso da mesma forma. O Claude, da Anthropic, promete não usar suas conversas para treinar modelos e apaga os dados em até dois anos. Já o ChatGPT, o Copilot da Microsoft e o Gemini do Google usam as interações para aprender, a não ser que você desative essa opção nas configurações.
Se a ideia de alguém espiando sua conversa te incomoda, a solução é simples: apague tudo. Os mais preocupados deletam as conversas logo após o uso. Mas mesmo assim, os dados “excluídos” só somem de verdade depois de 30 dias. Ou seja, mesmo no lixo, seu texto pode ficar por mais um tempo.