O ChatGPT Não É Terapeuta

O avanço da inteligência artificial tem transformado profundamente a forma como nos comunicamos, aprendemos e buscamos informações.

Entre essas transformações, um fenômeno recente merece atenção especial: o uso do ChatGPT e de outras IAs como fonte de aconselhamento emocional e psicológico, especialmente por adolescentes.

Embora a tecnologia possa ser uma ferramenta de apoio e reflexão, especialistas e a própria OpenAI, empresa responsável pelo ChatGPT, alertam: a IA não deve ser usada como substituta de profissionais de saúde mental.

O crescimento do uso da IA como apoio emocional

Adolescentes e jovens adultos têm recorrido cada vez mais à inteligência artificial para falar sobre sentimentos, conflitos internos, dúvidas existenciais e problemas emocionais. Entre os motivos mais comuns estão:

  • Medo de julgamento
  • Vergonha de se abrir com familiares ou amigos
  • Falta de acesso imediato a profissionais
  • Sensação de acolhimento e resposta rápida oferecida pela IA

O problema surge quando esse uso passa de pontual para exclusivo, substituindo relações humanas e apoio profissional.

O posicionamento oficial da OpenAI

A OpenAI é clara em suas políticas: o ChatGPT não foi criado para oferecer aconselhamento psicológico, diagnóstico ou tratamento clínico. A ferramenta pode fornecer informações gerais, “ajudar na organização de pensamentos” (essa é uma colocação da OpenAI, que eu discordo) e estimular reflexões, mas não substitui o olhar clínico, a escuta qualificada e a responsabilidade ética de um profissional de saúde.

Nos últimos anos, a empresa implementou os chamados guardrails — barreiras de segurança — para lidar com temas sensíveis como sofrimento emocional, ideação suicida e dependência emocional da IA. Quando esses sinais são identificados, o sistema tende a:

  • Evitar conselhos diretos e personalizados
  • Incentivar pausas no uso
  • Sugerir a busca por ajuda humana
  • Redirecionar para redes de apoio e serviços especializados

Essas medidas existem justamente porque a IA tem limites claros quando o assunto é saúde mental. Mas, infelizmente, na prática não funcionam.

Os riscos do isolamento social

Um dos maiores perigos do uso inadequado da IA é o isolamento social. O ser humano é biologicamente e emocionalmente relacional. A construção da identidade, da autoestima e da regulação emocional depende do contato com outras pessoas.

Quando qualquer pessoa passa a substituir conversas reais por diálogos exclusivamente com uma IA, podem ocorrer:

  • Redução das habilidades sociais
  • Dificuldade de expressar emoções no mundo real
  • Aumento da solidão
  • Agravamento de quadros de ansiedade e depressão
  • Dependência emocional da tecnologia

O que também ocorre com o uso excessivo de redes sociais como já expus na matéria sobre a Economia da Atenção.

Nenhuma inteligência artificial é capaz de oferecer presença, vínculo, empatia genuína ou percepção emocional completa.

A importância da rede de apoio

Família, amigos, escola e comunidade são pilares fundamentais para a saúde mental de adolescentes. Uma rede de apoio saudável permite acolhimento emocional, troca de experiências, sentimento de pertencimento e também a identificação precoce de sinais de sofrimento.

Pais e responsáveis devem estar atentos a mudanças de comportamento, como isolamento excessivo, irritabilidade, tristeza persistente, queda no rendimento escolar e uso intenso e secreto de tecnologia para lidar com emoções.

Quando buscar ajuda profissional

Buscar apoio psicológico não deve ser um tabu, e sim um ato de cuidado e responsabilidade. Profissionais da área de saúde mental são preparados para:

  • Avaliar o contexto emocional e social
  • Identificar riscos
  • Oferecer intervenções terapêuticas baseadas em evidências
  • Acompanhar o desenvolvimento emocional de forma segura

A IA pode ser um recurso complementar, mas nunca deve substituir pessoas ou o acompanhamento profissional, especialmente em casos de sofrimento intenso.

Tecnologia como aliada, não como substituta

A inteligência artificial pode ser uma aliada poderosa quando usada com consciência e limites claros. Ela pode informar, organizar ideias e ampliar reflexões para estudos, pesquisas e trabalho. No entanto, saúde mental exige cuidado humano, escuta real e relações vivas.

A responsabilidade é coletiva: famílias, educadores, profissionais de saúde e a sociedade como um todo precisam promover o uso consciente da tecnologia e fortalecer os vínculos humanos.

Em tempos de tecnologia avançada, o maior desafio talvez seja lembrar que nenhuma máquina substitui a presença, o afeto e o apoio de pessoas reais.

Se você ou alguém próximo está passando por sofrimento emocional, procure ajuda profissional.