É seguro usar ChatGPT no computador de trabalho?
Por Bianca Moreira, mar 19 2026 0 Comentários

Se você já digitou alguma coisa no ChatGPT no seu computador de trabalho, parou para pensar: isso é seguro? Muita gente acha que é só um bate-papo rápido, mas por trás desse clique pode ter um risco enorme para a empresa - e até para você.

Em 2025, mais de 60% das empresas de tecnologia no Brasil já tiveram algum tipo de incidente relacionado ao uso não autorizado de IA generativa nos dispositivos corporativos. Não é só uma preocupação teórica. Empresas como Nubank, Magazine Luiza e Petrobras já bloquearam o acesso ao ChatGPT em suas redes internas por causa de vazamentos acidentais de dados confidenciais.

O que acontece quando você cola um documento no ChatGPT?

Quando você copia um e-mail, um relatório de vendas, um código-fonte ou até um cronograma interno e cola no ChatGPT, você está mandando essas informações para servidores nos Estados Unidos. O OpenAI não armazena seus dados para sempre - pelo menos é o que eles dizem. Mas há uma pegadinha: se você estiver usando a versão gratuita, seus dados podem ser usados para treinar modelos futuros. Isso significa que o seu contrato confidencial, a lista de clientes da sua equipe ou o plano de lançamento do novo produto podem acabar virando parte do treinamento do próximo GPT-5.

E isso não é só teoria. Em 2024, um analista de marketing de uma startup de São Paulo compartilhou um briefing de campanha com o ChatGPT para melhorar o texto. Dois meses depois, a concorrente direta lançou uma campanha quase idêntica. A investigação interna descobriu que o mesmo trecho havia sido usado por outros usuários em versões gratuitas do modelo.

Políticas de TI não são só burocracia - são proteção

Empresas que proíbem o uso de ChatGPT no computador de trabalho não estão sendo chatas. Elas estão seguindo diretrizes de segurança da informação da ABNT NBR ISO/IEC 27001, que exige que dados sensíveis sejam protegidos contra acesso não autorizado - e isso inclui qualquer serviço externo que não tenha sido auditado.

Se a sua empresa tem uma política clara dizendo que não pode usar ferramentas de IA externas, ignorar isso é como deixar a porta da sala de servidores aberta. E se você for pego, pode enfrentar consequências sérias: desde advertência formal até demissão por justa causa, dependendo do tipo de dado vazado.

Existem alternativas seguras?

Sim. E elas não são tão difíceis de usar.

  • Microsoft Copilot for Microsoft 365: integra direto com Word, Excel e Teams. Os dados ficam dentro da infraestrutura da Microsoft, que tem acordos de privacidade com empresas no Brasil.
  • Google Gemini for Workspace: funciona dentro do Gmail e do Drive. Todos os dados são criptografados e não saem do ambiente corporativo.
  • IBM watsonx: usado por bancos e hospitais no Brasil, permite que você treine modelos próprios com dados internos, sem enviar nada para fora.

Essas ferramentas não são perfeitas, mas têm uma vantagem crucial: elas não vendem seus dados. E se algo der errado, a empresa tem responsabilidade legal por eles - não você.

Comparação visual entre riscos do ChatGPT e ferramentas de IA corporativas seguras.

Como saber se a sua empresa permite?

Antes de usar qualquer ferramenta de IA no trabalho, faça isso:

  1. Consulte o manual de uso de TI da sua empresa - geralmente está no intranet ou no portal de RH.
  2. Procure por termos como “ferramentas de IA generativa”, “uso de serviços externos” ou “proteção de dados”.
  3. Se não encontrar, pergunte ao seu gestor ou ao setor de TI. Não diga “posso usar o ChatGPT?”. Diga: “existe uma política autorizada para uso de IA generativa no trabalho?”.
  4. Se a resposta for “não”, aceite. Se for “sim”, peça para ver o documento oficial.

Um funcionário de uma multinacional em Porto Alegre fez isso em 2025. Descobriu que a empresa tinha um acordo com a Anthropic (criadora do Claude) para uso interno. Ele passou a usar o Claude em vez do ChatGPT - e nunca mais teve problemas.

Quando o uso pode ser aceitável

Nem tudo é proibido. Existem situações em que o uso do ChatGPT no trabalho pode ser tolerado, mas nunca sem cuidado:

  • Brainstorming de ideias gerais: “Quais são os 5 principais desafios de atendimento ao cliente em 2026?” - isso é seguro, porque não revela dados internos.
  • Revisão de gramática em textos públicos: se você está escrevendo um post no LinkedIn ou um e-mail para um cliente, e não está colando conteúdo confidencial, pode usar. Mas nunca cole trechos de relatórios internos.
  • Teste de ideias em ambiente isolado: se a sua empresa permite, use um computador pessoal, em uma rede doméstica, e nunca com dados da empresa.

Em todos esses casos, o segredo é não colar nada que não seja público. Se você não pode publicar isso no site da empresa, não coloque no ChatGPT.

Profissional usando Microsoft Copilot em ambiente corporativo com sinalização de conformidade legal.

Como proteger sua carreira

Se você quer usar IA no trabalho - e tem todo o direito de querer - faça isso de forma inteligente:

  • Use apenas ferramentas aprovadas pela TI.
  • Nunca cole dados de clientes, senhas, planilhas financeiras ou códigos-fonte.
  • Se tiver dúvida, pergunte. Melhor parecer cuidadoso do que ser demitido por negligência.
  • Se descobrir que colegas estão usando ChatGPT com dados confidenciais, denuncie anonimamente pelo canal de ética da empresa - isso é proteção coletiva.

IA não é inimiga. É uma ferramenta. Mas como toda ferramenta, ela pode cortar você se você não souber manuseá-la.

Conclusão: não é sobre confiança - é sobre regra

Usar ChatGPT no computador de trabalho não é uma questão de confiança. É uma questão de regra. E regras existem porque alguém já passou por isso antes - e pagou um preço alto.

Se sua empresa não autorizou, não use. Se autorizou, use com cuidado. E se você não tem certeza? Pergunte. Sem vergonha. Sem pressa. Porque no mundo do trabalho digital, o que parece uma ajuda rápida pode virar um problema que dura anos.

Posso usar o ChatGPT para revisar e-mails de clientes?

Só se o e-mail não contiver dados confidenciais. Se você está revisando um e-mail genérico como "Olá, segue o orçamento para o projeto X", e não colou o arquivo original, pode usar. Mas se o e-mail tem números de contrato, nomes de clientes, preços ou prazos internos, não use. O risco de vazamento é alto, mesmo que você não perceba.

Se eu usar o ChatGPT no meu celular, é diferente?

Sim, mas só se você não estiver conectado à rede da empresa. Se você estiver usando o Wi-Fi corporativo, mesmo no celular, seus dados ainda podem ser rastreados. O mais seguro é usar dados móveis (4G/5G) e jamais colar qualquer informação relacionada ao trabalho. Mesmo assim, muitas empresas proíbem o uso de IA em dispositivos pessoais por causa de riscos de vazamento por sincronização.

A minha empresa já usa IA? Como descobrir?

Muitas empresas usam IA internamente, mas não falam sobre isso. Verifique se você tem acesso a ferramentas como Microsoft Copilot, Google Gemini ou IBM watsonx. Se sim, você já está usando uma versão segura. Se não tem acesso, mas vê colegas usando ChatGPT, é sinal de que a política não está sendo seguida - e isso é um risco para todos. Pergunte ao setor de TI: "Existe uma ferramenta oficial de IA que podemos usar?"

O que acontece se eu for pego usando ChatGPT com dados da empresa?

Depende do que você fez. Se foi um erro isolado, sem danos reais, pode ser só uma advertência. Mas se você vazou dados de clientes, planilhas financeiras ou códigos de produtos, pode ser investigado por violação de segurança da informação. Em casos graves, há demissão por justa causa, multa civil e até processos criminais, especialmente se houver dano financeiro ou violação de LGPD.

Existe alguma lei no Brasil que proíbe isso?

Não há uma lei específica que diga "não use ChatGPT no trabalho". Mas a LGPD (Lei Geral de Proteção de Dados) obriga empresas a proteger dados pessoais. Se você, como funcionário, causar um vazamento por usar uma ferramenta não autorizada, pode ser responsabilizado por negligência. Além disso, contratos de trabalho frequentemente incluem cláusulas de confidencialidade - e usar IA externa pode violar isso.