ChatGPT como terapeuta? CEO da OpenAI alerta: “Não há confidencialidade”
- Marina Bendit e Amanda Gonçalves
- 15 de ago.
- 2 min de leitura
Atualizado: 18 de ago.
Conversar com uma inteligência artificial pode parecer inofensivo, até terapêutico. Muita gente tem usado ferramentas como o ChatGPT para desabafar, falar sobre sentimentos e buscar conselhos rápidos. A tentação é grande: acesso imediato, respostas 24 horas, custo baixo. Ainda assim, a pergunta essencial permanece. É seguro compartilhar informações íntimas com um chatbot?
O próprio CEO da OpenAI tem alertado que ninguém deveria tratar o ChatGPT como substituto de um terapeuta. A razão não é apenas clínica. Ela passa por confidencialidade, privacidade e segurança de dados. Profissionais de saúde mental seguem regras rígidas de sigilo e códigos de ética. Uma IA, por sua natureza e arquitetura, não garante os mesmos compromissos. Dependendo do serviço e das configurações escolhidas, as conversas podem ser processadas, armazenadas e até utilizadas para melhorar modelos, o que aumenta a superfície de risco.
Pela Lei Geral de Proteção de Dados, dados pessoais e, em especial, dados pessoais sensíveis, como informações de saúde, exigem tratamento cuidadoso. Isso significa base legal adequada, finalidade determinada, minimização do que é coletado, transparência sobre quem trata e por quanto tempo, além de medidas técnicas e administrativas proporcionais ao risco. Sem essa clareza, compartilhar experiências íntimas com um chatbot pode expor o titular a consequências imprevistas. O usuário precisa saber quem é o controlador, qual é a base legal aplicada, se há compartilhamento com terceiros, se as interações alimentam o treinamento do modelo e qual é a política de retenção e exclusão. Sem essas respostas, não há equivalência possível com a confidencialidade oferecida por um consultório.
Para o usuário final, a regra prática é de prudência. Evitar inserir sintomas, diagnósticos, histórico clínico, pensamentos muito íntimos e dados que identifiquem você ou terceiros é um bom começo. Ler a política de privacidade e ajustar preferências, quando disponível, reduz exposição. Exercitar direitos previstos na LGPD, como acesso e eliminação, ajuda a retomar o controle. Em questões emocionais e de saúde mental, o canal preferencial é o profissional habilitado. Chatbots podem apoiar informações gerais, nunca substituir a escuta qualificada e o cuidado clínico.
No balanço, inovação e responsabilidade precisam caminhar juntas. Ferramentas de IA generativa são úteis para inúmeras tarefas, mas não foram desenhadas para terapias. Quando o assunto é vida íntima e saúde, a confidencialidade importa tanto quanto a qualidade da orientação. Sob a LGPD, isso significa bases legais adequadas, segurança robusta, transparência e respeito aos direitos dos titulares. Para quem lidera programas de privacidade e compliance, este tema é uma oportunidade de educação contínua. Para quem usa a tecnologia no dia a dia, é um convite à cautela informada. Confiança se constrói com clareza, e clareza começa por reconhecer limites.