Conheça 10 casos de vazamentos de conversas íntimas via ChatGP

A Inteligência Artificial generativa não cria o vazamento sozinha, apenas potencializa riscos já existentes quando não há governança, cultura de segurança e responsabilidade humana

  • Por Davis Alves
  • 21/12/2025 08h00
Emiliano Vittoriosi/Unsplash Notebook aberto no ChatGPT Uma dica para se manter seguro é não inserir dados pessoais sensíveis

O crescimento do uso do ChatGPT e outras ferramentas de Inteligência Artificial de processamento de textos, em contextos pessoais, profissionais e corporativos trouxe ganhos expressivos de produtividade, mas também revelou novos vetores de risco informacional. Importante destacar desde o início: os casos abaixo não caracterizam, em regra, falhas estruturais da plataforma ChatGPT, mas sim problemas de configuração, governança, comportamento humano e segurança do ambiente de uso.

A seguir, apresento 10 casos documentados de vazamento ou exposição de segredos associados a conversas no ChatGPT, explicando o que ocorreu e como o incidente poderia ter sido evitado.

1. Conversas do ChatGPT indexadas por mecanismos de busca

Usuários compartilharam links públicos de conversas sem compreender que esses links poderiam ser indexados por buscadores como o Google. Como resultado, diálogos contendo dados pessoais, relatos íntimos e informações profissionais tornaram-se acessíveis publicamente.

Como evitar:

  • Não compartilhar links de conversas com conteúdo sensível
  • Compreender claramente as opções de privacidade antes de gerar links públicos
  • Tratar chats como documentos potencialmente divulgáveis

2. Bug de sessão exibindo títulos de chats de outros usuários (2023)

Durante uma instabilidade técnica, alguns usuários visualizaram títulos de conversas pertencentes a terceiros. Embora o conteúdo não tenha sido exposto integralmente, os títulos já podiam revelar informações sensíveis.

Como evitar:

  • Medidas já adotadas pelo fornecedor (OpenAI)
  • Para usuários corporativos: evitar títulos com nomes, projetos ou dados sensíveis

3. Funcionários inserindo código-fonte confidencial (caso Samsung)

Colaboradores copiaram códigos proprietários e informações estratégicas para o ChatGPT buscando apoio técnico. O episódio levou à proibição do uso da ferramenta dentro da empresa.

Como evitar:

  • Política clara de uso de IA
  • Treinamento corporativo sobre o que pode ou não ser compartilhado
  • Ambientes internos de IA com controle e isolamento de dados

4. Vazamento por ausência de política corporativa de IA

Diversas empresas identificaram que funcionários inseriram contratos, dados de clientes, estratégias comerciais e documentos internos em conversas com IA, sem autorização formal.

Como evitar:

  • Implementar governança de IA
  • Classificação da informação (pública, interna, confidencial)
  • Termos internos de uso de ferramentas de IA
  1. Malware capturando sessões de usuários do ChatGPT

Infostealers instalados nos dispositivos capturaram cookies de sessão, permitindo que atacantes acessassem contas do ChatGPT e seus históricos de conversa.

Como evitar:

  • Uso de antivírus e EDR atualizados
  • Evitar uso de IA em dispositivos pessoais inseguros
  • Autenticação forte e monitoramento de sessões

6. Extensões de navegador coletando prompts e respostas

Extensões aparentemente inofensivas passaram a registrar todas as interações com o ChatGPT e enviar os dados para servidores de terceiros.

Como evitar:

  • Auditoria de extensões instaladas
  • Princípio do menor privilégio no navegador
  • Uso de navegadores dedicados para atividades sensíveis

7. Prompt Injection em sistemas integrados ao ChatGPT

Sistemas corporativos que integravam o ChatGPT via API foram manipulados por usuários para extrair informações internas, devido à falta de validação e controle de contexto.

Como evitar:

  • Filtros de entrada e saída
  • Isolamento de dados sensíveis
  • Arquitetura segura para aplicações com IA generativa

8. Compartilhamento voluntário de conversas sensíveis

Usuários divulgaram prints ou links de conversas contendo segredos pessoais, jurídicos ou empresariais em redes sociais, fóruns e grupos.

Como evitar:

  • Educação digital contínua
  • Cultura de segurança da informação
  • Consciência de que “chat não é confidencial por padrão”

9. Confusão sobre treinamento do modelo

Usuários acreditaram que qualquer conversa privada seria automaticamente usada para treinar o modelo, levando a decisões precipitadas e exposição indevida por terceiros.

Como evitar:

  • Letramento em IA
  • Leitura das políticas de privacidade
  • Comunicação clara sobre retenção e uso de dados

10. Uso de contas pessoais para assuntos corporativos

Informações estratégicas foram tratadas em contas pessoais do ChatGPT, sem controle organizacional, auditoria ou segregação de dados.

Como evitar:

  • Uso exclusivo de contas corporativas
  • Gestão centralizada de acessos
  • Separação entre uso pessoal e profissional

Checklist de segurança para evitar vazamento de segredos via ChatGPT

 

  • Não inserir dados pessoais sensíveis
  • Não colar códigos-fonte, contratos ou segredos comerciais
  • Evitar compartilhamento público de conversas
  • Usar apenas dispositivos seguros e atualizados
  • Auditar extensões de navegador
  • Implementar política corporativa de uso de IA
  • Treinar colaboradores sobre riscos da IA
  • Utilizar contas corporativas para uso profissional
  • Controlar integrações e APIs com IA
  • Tratar a IA como ferramenta de apoio, não como repositório de dados

 

A Inteligência Artificial generativa não cria o vazamento sozinha. Ela apenas potencializa riscos já existentes quando não há governança, cultura de segurança e responsabilidade humana.

Quer se aprofundar no assunto, tem alguma dúvida, comentário ou quer compartilhar sua experiência nesse tema? Escreva para mim no Instagram: @davisalvesphd.

*Esse texto não reflete, necessariamente, a opinião da Jovem Pan.