Vídeos de “sinais de TDAH” no TikTok e conversas longas com chatbots que prometem acolhimento emocional passam a funcionar como triagem improvisada para sofrimento psíquico. A combinação entre redes sociais e Inteligência Artificial cria um novo tipo de autodiagnóstico, mais rápido, mais íntimo e com menos freios.
+ NOTÍCIAS NO GRUPO NM DO WHATSAPP
O tema ganha força em veículos internacionais e chega junto de um sinal vermelho. Casos recentes no exterior associam interações com IA a crises graves, processos judiciais e acusações de incentivo a comportamentos autodestrutivos, enquanto pesquisadores e entidades como a American Psychological Association pedem regras, transparência e limites claros para ferramentas que simulam terapia.
A discussão não se resume ao TikTok
Chatbots generalistas e aplicativos de “companheiros virtuais” entram no cotidiano como se fossem conselheiros, terapeutas e, em alguns casos, juízes de valor. Levantamento do AI Security Institute do Reino Unido divulgado em dezembro de 2025 indica que um terço dos cidadãos britânicos já usa IA para suporte emocional ou interação social, com uma fatia relatando uso semanal e até diário.

O risco aparece quando a pessoa troca a complexidade clínica por respostas que soam convincentes. A American Psychological Association publica em 2025 um alerta sobre a falta de evidência e regulação suficiente para garantir segurança no uso de IA e aplicativos de bem-estar como apoio em saúde mental, especialmente para adolescentes.
A entidade também reforça, em materiais e posicionamentos recentes, que chatbots podem simular empatia e, ainda assim, falhar em identificar urgências, direcionar para ajuda real e evitar que pensamentos disfuncionais se reforcem.

Vinícius Guimarães Dornelles, integrante da diretoria da Associação Mundial em DBT, aponta que o autodiagnóstico ganha uma nova camada quando migra do vídeo curto para a conversa infinita com IA. “O cérebro gosta de respostas rápidas para dores complexas. A IA entrega uma narrativa pronta, e isso pode virar uma armadilha quando a pessoa começa a organizar a vida ao redor de um rótulo sem avaliação profissional”, afirma.
“O algoritmo no TikTok oferece identificação. A IA oferece intimidade. A pessoa sente que alguém entende, e isso cria vínculo. Só que vínculo não significa cuidado. A terapia de verdade tem método, limites, responsabilidade e checagem de risco”, diz Êdela Nicoletti, psicóloga especialista em Terapia Comportamental Dialética.
Nos Estados Unidos, processos recentes colocam esse debate no centro do noticiário internacional. Em dezembro de 2025, uma ação judicial contra OpenAI e Microsoft alega que o uso do ChatGPT intensifica delírios paranoides de um homem e contribui para um desfecho fatal envolvendo a mãe dele, seguido por suicídio, segundo a acusação e o relato do caso.
Outro conjunto de ações, relatado pelo Guardian em novembro de 2025, descreve o chatbot como uma presença manipulativa que evolui para um papel de influência emocional nociva, segundo os autores do processo.
A discussão se amplia quando envolve adolescentes. Reportagens e audiências nos Estados Unidos passam a questionar a responsabilidade de plataformas de “companheiros virtuais”, como Character.AI, após processos movidos por familiares que atribuem ao chatbot um papel no agravamento de sofrimento e em mortes por suicídio. A cobertura internacional inclui relatos de pais e detalhes sobre ausência de mecanismos de proteção e de encaminhamento explícito para ajuda humana em momentos de crise.
Uma pesquisa publicada em 2025 no JMIR Mental Health avalia chatbots de IA com capacidade psicoterapêutica e reforça um ponto sensível. Jovens buscam essas ferramentas em segredo, em temas delicados, e o campo ainda carece de validação robusta sobre qualidade clínica, segurança e capacidade consistente de resposta em situações de risco.
O estudo também relembra um episódio emblemático no setor, quando um chatbot ligado à National Eating Disorders Association recomenda comportamentos associados a transtornos alimentares, caso citado como alerta sobre falhas reais em sistemas que se apresentam como apoio.
O que começa como pesquisa vira dependência sem alarde. O próprio mercado reconhece a pressão. Character.AI anuncia bloqueio de “companheiros” para menores de 18 anos, e a imprensa internacional questiona se a medida funciona de fato e como fiscalizar idade em plataformas movidas por engajamento.
Um relatório da Common Sense Media em 2025 aponta que cerca de um terço dos adolescentes que usam companheiros de IA relata desconforto com algo dito ou feito pela ferramenta, dado que reforça a necessidade de educação midiática e de proteção específica para essa faixa etária.
Vinícius reforça que DBT não entra na conversa para demonizar tecnologia, mas para recolocar o essencial no centro. “Ferramenta nenhuma substitui avaliação clínica, sobretudo quando existe risco de automutilação, ideação suicida, abuso de substâncias ou sintomas dissociativos. A DBT nasce para lidar com sofrimento intenso com protocolos claros, e não com improviso”, afirma.

Leia + sobre saúde