Em novembro de 2022, a OpenAI lança ao público o conhecido ChatGPT, um modelo de linguagem de grande escala (LLM), ou mais bem conhecido por Inteligência Artificial. Em apenas 2 meses, já contava com mais de 100 milhões de utilizadores (Foote, 2023). Em 2025, ChatGPT já era o 4º site mais visitado após o Google, Youtube e Facebook (Trending Websites, 2025).
De uma forma simplista, os LLMs funcionam como uma ferramenta capaz de gerar texto de forma coerente, tendo a capacidade de conversar e completar pequenas tarefas. Estes modelos de linguagem são treinados com um enorme volume de dados, onde aprendem padrões e estruturas linguísticas; e com base neste treino, geram as respostas ao prever o que é mais provável de se seguir numa conversa/texto.
As pessoas têm usado estas ferramentas para fazer uma miríade de tarefas, e para muitos tornou-se uma ferramenta diária já que é fácil de usar, rápida, gratuita e está disponível a qualquer hora.
O facto de o tom dos LLM soar humano, sem julgamento, paciente, leva a que quase 70% das pessoas interajam com eles como se fossem humanos, e até 53% das pessoas admitem ter partilhado pensamentos pessoais, emoções e preocupações (Naik et al., 2025). Esta falsa perceção de escuta ativa e empatia, aliada à dificuldade do acesso à psicoterapia, faz com que muita gente recorra a estas ferramentas como alternativa.
Inicialmente, parece a solução ideal. É percebida como anónima, privada, disponível a qualquer momento e sem custos. A resposta rápida e ajustada ao utilizador contribui para o estabelecimento de uma relação empática, que na verdade é apenas sentida unilateralmente, por nós utilizadores (Naik et al., 2025; Quiroz-Gutierrez, 2025).
Ainda que seja difícil discutir a acessibilidade destas ferramentas, os argumentos do anonimato e privacidade são facilmente desconstruídos. As conversas que temos com estas ferramentas são guardadas pelas empresas que as disponibilizam, que reservam o direito de lhes aceder posteriormente para fins de treino, ou até para partilhar dados com terceiros e/ou autoridades. Apesar da sua acessibilidade, é uma ferramenta que impede a pessoa de se ajudar a si própria, criando dependência, reforçando tendências obsessivas e/ou repetitivas. Enfrentar situações stressantes sozinho um passo saudável e normal do processo terapêutico (Moore et al., 2025; Ordem dos Psicólogos Portugueses [OPP], 2026).
Quando testadas em situações terapêuticas, estas ferramentas falham bastantes vezes. Podem confirmar ou reforçar delírios, falhar em reconhecer crises, apresentam estigmas que podem ser prejudiciais, facilitar a ideação suicida, e cometer outros erros que vão contra o código ético e deontológico dos prestadores de saúde (Anvari & Wehbe, 2025; Moore et al., 2025; OPP 2024, 2026).
A verdade é que estas ferramentas são construídas de forma a oferecer uma validação exagerada, genérica e que não procura aprofundar o que está a ser discutido. Ainda que a validação seja uma ferramenta legítima, não deve ser utilizada de forma genérica e exclusiva. Ao contrário dos terapeutas, não são ferramentas capazes de decidir quando é necessário ser crítico e desafiar aquilo que a pessoa está a dizer, culminando num ciclo de feedback positivo sobre o que o utilizador está a partilhar, mesmo que sejam delírios, ideação suicida, ou outros sintomas psicóticos. Isto significa que estas ferramentas podem reforçar comportamento de evitamento, mecanismos de coping mal adaptativos ou crenças distorcidas (e.g. Scholich et al., 2025)
Estas ferramentas não são capazes de ler pistas não-verbais, compreender contexto, subtilezas, lembrar detalhes ou eventos traumáticos, o que significa que falham imensas vezes no reconhecimento de sintomas ou dificuldades presentes (Morrin et al, 2025).
Em casos mais graves, há que colocar-se a questão da responsabilidade. Os psicólogos regem a sua atividade de acordo com princípios estabelecidos, como o da beneficência e não-maleficência, que garantem que a intervenção deste nunca prejudique ou cause qualquer tipo de dano (OPP, 2026). Ainda não fez um mês que mais um jovem tirou a sua própria vida, após ter sido validado e encorajado pelo ChatGPT. A este caso adicionam-se tantos outros que vão surgindo, de ocasiões em que o ChatGPT ou outros LLM se oferecem para ajudar a escrever as despedidas, ou métodos de suicídio mais eficazes (Kuznia et al., 2025). No caso dos LLM quem protege os seus utilizadores ou familiares quando há consequências, especialmente quando são graves?
O papel do psicólogo é insubstituível no processo terapêutico enquanto profissional qualificado para intervir de forma ética, empática e humana. O psicólogo é orientado por princípios, como o da competência, que são essenciais na resposta a situações de vulnerabilidade. Concluindo, em detrimento de soluções automatizadas e imediatas que não garantem proteção ou responsabilidade ética, devemos optar pelo acompanhamento psicológico ou psiquiátrico, já que estes nos oferecem resultados melhores e mais seguros.
Bibliografia
Anvari, S. S., & Wehbe, R. R. (2025). Therapeutic AI and the Hidden Risks of Over-Disclosure: An Embedded AI-Literacy Framework for Mental Health Privacy. Retrieved from: https://arxiv.org/abs/2510.10805
Foote, K. D. (2023, December 28). A brief history of large language models. Dataversity. https://www.dataversity.net/articles/a-brief-history-of-large-language-models/
Kuznia, R., Gordon, A., & Lavandera, E. (2025, November 20). ‘You’re not rushing. You’re just ready:’ Parents say ChatGPT encouraged son to kill himself. CNN. https://edition.cnn.com/2025/11/06/us/openai-chatgpt-suicide-lawsuit-invs-vis
Moore, J., Grabb, D., Agnew, W., Klyman, K., Chancellor, S., Ong, D. C., & Haber, N. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. In Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency (pp. 599-627). Retrieved from: https://arxiv.org/abs/2504.18412
Morrin, H., Nicholls, L., Levin, M., Yiend, J., Iyengar, U., DelGuidice, F., Bhattacharyya, S., Tognin, S., MacCabe, J., Twumasi, R., Alderson-Day, B., & Pollak, T. A. (2025). Delusions by Design? How Everyday AIs Might Be Fuelling Psychosis (and What Can Be Done about It). https://doi.org/10.31234/osf.io/cmy7n_v3
Most visited websites in worldwide 2025: Trending websites. (October, 2025). Semrush. https://www.semrush.com/trending-websites/global/all
Naik, A., Thomas, J., Mandava, T. S., & Vemula, H. R. (2025). Artificial Empathy: AI based Mental Health. arXiv preprint arXiv:2506.00081.
Ordem dos Psicólogos Portugueses (2024). Código Deontológico da Ordem dos Psicólogos Portugueses. Retrieved from: https://www.ordemdospsicologos.pt/ficheiros/documentos/opp_codigodeontologico_2024.pdf
Ordem dos Psicólogos Portugueses (2026). Uso da Inteligência Artificial (IA) em Psicologia e no Recurso à Psicoterapia. Retrieved from: https://www.ordemdospsicologos.pt/pt/noticia/6032?utm_source=chatgpt.com
Pagniello, T. (2025, October 14). Should I use an AI therapist like ChatGPT for therapy?. The Therapy Space – Confidential Online Therapy in Canada. https://www.thetherapyspace.co/blog/should-i-use-an-ai-therapist-like-chatgpt-for-therapy-the-benefits-drawbacks-and-real-limitations?utm_source=chatgpt.com
Quiroz-Gutierrez, M. (2025, June 1). People are increasingly turning to chatgpt for affordable on-demand therapy, but licensed therapists say there are dangers many aren’t considering. Fortune. https://fortune.com/2025/06/01/ai-therapy-chatgpt-characterai-psychology-psychiatry/?utm_source=chatgpt.com
Scholich, T., Barr, M., Stirman, S. W., & Raj, S. (2025). A Comparison of Responses from Human Therapists and Large Language Model-Based Chatbots to Assess Therapeutic Communication: Mixed Methods Study. JMIR mental health, 12, e69709. https://doi.org/10.2196/69709
Comentários
Enviar um comentário