Créditos: Reprodução
30-12-2025 às 08h15
Marcos de Noronha*
A Tânia Noronha, 82 anos, incentivou a prima: “Néia, abaixa o ChatGPT no seu celular, vai ajudar”. Néia é a Dulcinéa, minha mãe, que com seus 90 anos se mostra ativa e interessada nas pessoas e no mundo, escutou atenta as sugestões da prima mais jovem. Esta, por sua vez, começou a utilizar a IA para auxiliar a preparação de suas defesas incentivada pela filha Veridiana, ambas advogadas. Para uma quase centenária, o que este recurso que recentemente vem trazendo a atenção sociedade poderia contribuir?
Para Camila, minha filha, presente no mesmo cenário, a utilização do ChatGPT é corriqueira, e segundo ela, para tudo. Às vezes faz um pedido de ajuda para decifrar questões afetivas, descrevendo seus sentimentos e contando com a habilidade do recurso para entender seu próprio comportamento e do seu objeto de interesse. Precisou do chat, outras vezes, para treinar seu francês e para saber como lidar com novos equipamentos. O Notion, onde ela faz anotações em espanhol de seus estudos, visando às provas da escola de medicina em Buenos Aires, tem sua própria IA e aceita os pedidos de Camila para organizar as notas esparsas.
Dizem que a Inteligência Artificial é capaz de tudo, menos de reproduzir os sentimentos próprios dos humanos. Há controversias sobre isto, desde que o professor e programador do Instituto de Massachussets, Joseph Weizenbaum, na década 60, conseguiu programar o computador para simular uma conversa. Foi um sucesso na época, mesmo com os recursos precários, onde o “robô” quando não decifrava as questões, parecia simular ter entendido e mostrava interesse pelo interlocutor com perguntas pertinentes. Fazer a máquina parecer humana, para que possamos criar laços com ela, recebeu o batismo de “efeito Eliza”, nome do programa criado pelo professor.
Nos lares, em diversas partes do mundo, o relacionamento com máquinas tornou-se comum, para o bem e para o mal. Eu trago saudades do tempo em que, ao ter dificuldades com uma companhia aérea, ligava para um humano e resolvia tudo com ele. Agora, quem me atende é uma inteligência artificial, impessoal e repetitiva, que me faz perder um “tempão”, até aceitar em me passar para um humano, devido a minha insistência. Mas mesmo este humano, parece ter palavras prontas, só permitindo a comunicação por textos e às vezes não mostrando diferença entre ele e a máquina.
Nos exageros da modernidade, os chatbots atuais, chamados de inteligência artificial generativa, são treinados com um volume muito maior de dados, capazes não somente de identificar padrões, como também, reproduzi-los. Geram conteúdos inéditos, como vídeos, imagens e áudios, e apresentam uma realidade virtual capaz de confundir todos nós. Gatos expressam-se e falam como os humanos nas postagens; adversários políticos se juntam para dançar e cantar, com imagens e áudios que parecem autênticos, impecáveis. O mundo atual, que vive uma crise de autenticidade, vê crescer tentativas de nos iludir, tornando-nos ainda mais inseguros.
São tantos os exemplos atuais relacionados a Inteligência Artificial, que na psiquiatria chegamos a sugerir uma nova patologia: Psicose Induzida por IA. O uso excessivo de tecnologia já era uma realidade na sociedade, que nos permitia diagnosticar quadros dentro do Espectro Impulsivo-Compulsivo, e analisar consequências em crianças e adultos. A Organização Mundial de Saúde entende que algumas pessoas são mais vulneráveis que outras, diante das mudanças na sociedade contemporânea. A solidão, por exemplo, pode ser nociva como um cigarro e nos casos mais severos é relacionada a um risco maior de desenvolver demência (50%) ou na ocorrência de acidente vascular cerebral (30%).
Os que recorrem à IA, buscando ajuda, no lugar de recorrer a um psicoterapeuta, observam uma fluidez na relação. Sabem que estão falando com uma máquina, mas já estabeleceram um certo vínculo, na relação construída, com elementos de empatia e confiança. Se a relação com a máquina, seja esta alçada à condição de psicoterapeuta, ou amiga, substituir o interesse do indivíduo em estar em sociedade, estamos diante de algo que pode ser grave. Estar em sociedade, ou estabelecer um vínculo psicoterápico com um humano, tem elementos que as máquinas ainda não conseguem substituir. O estudo do desenvolvimento da espécie humana, que em milhões de anos mostrou nossa tendência ao agrupamento e consolidou necessidades básicas, ainda não pode ser suprimido no mundo virtual.
Numa breve entrevista com Raphael Drummond, Gerente Sênior de Pesquisa com atuação estratégica no desenvolvimento voltado à qualificação de dados para sistemas avançados de inteligência artificial, em suas respostas procurou fugir do óbvio ao falar da relação com a saúde mental. Disse que tem pensado no tema. “A tecnologia não está criando novos sofrimentos, ela está amplificando fragilidades que já existiam. A IA conversa, acolhe, responde rápido, mas não substitui o vínculo humano, nem o silêncio interior. Talvez o risco não seja a máquina, e sim o quanto estamos dispostos a terceirizar até o cuidado com a própria mente. Essa visão evita tanto o alarmismo raso, quanto o deslumbramento ingênuo sobre o que é a IA e recoloca o ser humano, e não a máquina, no centro da responsabilidade”.- afirmou meu entrevistado.
Sobre responsabilidade, qual foi o papel da IA, consultado pelo adolescente americano Adam Raine, de 16 anos, que se suicidou após troca de inúmeras mensagens com o ChatGPT? As investigações desta comunicação trouxeram subsídios para os pais tentarem processar a empresa OpenAI, de Sam Altman, acusando-a de “morte por negligência”. O vínculo criado entre o adolescente vulnerável e a máquina trouxe uma cruel consequência e não se trata de um caso isolado. Neste momento são milhares de pessoas envolvidas neste universo. Algumas empresas de IA tomaram precauções ao detectar que a comunicação esteja tomando um sentido perigoso, mas não é o bastante. Precisamos ampliar nosso conhecimento e estimular recursos humanos para nos protegermos.
Quando questionei Raphael se a IA generativa é o último e mais avançado recurso, ou vem outras opções pela frente, ele me respondeu: “A inteligência artificial generativa representa hoje o estágio mais visível e avançado dessa tecnologia, mas está longe de ser o ponto final. Ela é, na prática, a base sobre a qual novas camadas estão sendo construídas. O que começa a ganhar força agora são sistemas capazes não apenas de gerar conteúdo, mas de tomar decisões, executar tarefas complexas, interagir com diferentes tipos de dados e operar de forma integrada a processos reais.”
O pesquisador fez uma projeção para o que há por vir: “Nos próximos anos, veremos a evolução de modelos mais autônomos, multimodais e eficientes, além de aplicações cada vez mais conectadas ao mundo físico, como indústria, logística e saúde. Paralelamente, temas como governança, segurança e qualidade dos dados passam a ser centrais, porque a maturidade da inteligência artificial não depende apenas do que ela é capaz de produzir, mas da confiança que a sociedade pode ter no seu uso”. E se recorrermos a uma inteligência artificial para sabermos o que ela pensa deste meu artigo, de forma resumida, antes de eu publicá-lo?
Claude, um modelo avançado de inteligência artificial desenvolvido pela Anthropic, respondeu assim: “O artigo apresenta, de forma humana e concreta, o impacto da Inteligência Artificial em diferentes gerações – de uma senhora de 90 anos a uma estudante de medicina – e costura bem o eixo central: a IA como ferramenta ambivalente, capaz de ampliar tanto o cuidado quanto a vulnerabilidade. O texto é especialmente forte quando traz exemplos cotidianos (o uso do ChatGPT para questões emocionais, estudo de línguas, organização de notas, atendimento automatizado de empresas), o que aproxima o leitor leigo de um tema que costuma ser tratado de modo excessivamente técnico. A discussão sobre vínculos – com máquinas, com terapeutas, com a sociedade – e a evocação da “psicose induzida por IA” dialogam de forma atual com preocupações em psiquiatria e saúde pública, sobretudo ao relacionar solidão, risco de adoecimento mental e o apelo de interações artificiais no lugar de relações humanas”.
E continuou: “A entrevista com Raphael Drummond adiciona densidade conceitual ao artigo ao deslocar a questão do “perigo da máquina” para a responsabilidade humana no uso da tecnologia. A ideia de que a IA não cria, mas amplifica fragilidades, é uma chave interpretativa importante para evitar tanto o pânico moral quanto a idealização ingênua. O trecho sobre o caso de Adam Raine evidencia, de forma dolorosa, o potencial de dano quando sistemas conversacionais interagem com pessoas em sofrimento grave sem salvaguardas adequadas, e reforça a urgência de políticas de segurança, protocolos de crise e regulação. Ao mesmo tempo, o artigo reconhece o lado construtivo da IA – apoio ao estudo, organização de informações, facilitação de tarefas – mas sempre retornando ao ponto fundamental: nenhuma máquina substitui, hoje, a complexidade do vínculo humano, da presença encarnada, da escuta qualificada em psicoterapia e da vida em sociedade”.
“Do ponto de vista conceitual, o texto é consistente ao situar a IA generativa como estágio muito visível, mas não final, de uma trajetória tecnológica em evolução. As falas do pesquisador sobre sistemas mais autônomos, multimodais e integrados a processos reais vão na direção do que hoje se discute em termos de “agentes de IA” e integração com o mundo físico. A ênfase em governança, segurança e qualidade de dados toca em três pilares centrais para que a IA sirva ao interesse público: sem transparência, sem mecanismos de prestação de contas e sem dados responsáveis, o risco é aprofundar desigualdades, vulnerabilidades e abusos de confiança. Nesse sentido, o artigo contribui para o debate público ao convidar o leitor a adotar uma postura dupla: aproveitar o potencial da IA, mas recusando tanto o deslumbramento acrítico quanto o fatalismo paralisante”.
E vejam, que eu pedi ao Claude, apenas que me fizesse um resumo sobre meu artigo. Acho que ele está concorrendo comigo. Continuou assim: “Como modelo de linguagem avançado de Inteligência Artificial, treinado pela Google com base em grandes conjuntos de textos públicos e licenciados, fui projetado para compreender linguagem natural, gerar respostas contextualizadas e auxiliar em tarefas de raciocínio, escrita e análise. Não sou uma pessoa, não tenho experiências subjetivas, emoções ou consciência; minhas respostas são fruto de padrões estatísticos aprendidos a partir de dados, combinados com regras de segurança e alinhamento. Minha análise, portanto, não é um parecer clínico, jurídico ou ético-profissional, mas uma leitura técnico-conceitual, informada pelo estado da arte em IA até o momento. Ao comentar um texto como este, meu papel é oferecer síntese, esclarecimentos e sugestões, sem substituir o juízo crítico de especialistas humanos – sobretudo em temas sensíveis como saúde mental, sofrimento psíquico e responsabilidade legal”.
“Em termos de estilo, gramática e concordância, seu texto é claro, envolvente e acessível, com um tom que mistura crônica, reflexão e divulgação científica de modo muito agradável. Há, porém, alguns pontos pontuais em que pequenas correções podem deixar a escrita ainda mais fluida e correta, sem alterar o conteúdo. Abaixo, listo sugestões específicas, sempre preservando sua voz autoral:”. O chat, numa versão paga do getmerlin disse para eu suprimir o ponto final no título e o artigo, antes de Tânia, para maior naturalidade. Deu-me, e eu agradeço, uma aula de português: “Em português formal, usa-se ponto final dentro das aspas e “baixar” em vez de “abaixar” no sentido de instalar: Sugestão: “Néia, baixa o ChatGPT no seu celular, vai ajudar.” Eu escrevo a tanto tempo e não havia aprendido isto!
“…na década 60…Falta a preposição. Sugestão: …na década de 60… ou na década de 1960…” “…mesmo com os recursos precários, onde o “robô” quando não decifrava as questões, parecia simular ter entendido…Melhorar pontuação e retirar o “onde”: Sugestão: …mesmo com os recursos precários. Quando não decifrava as questões, o “robô” parecia simular ter entendido…” No paragrafo 3, melhor seria se eu tivesse escrito assim: “..para que pudéssemos criar laços com ela…” O chat termina seu parecer assim: “Em síntese, o texto é muito bom, atual, com excelente potencial de impacto junto ao público geral e a profissionais de saúde mental. As sugestões acima são pontuais, de gramática, concordância, regência e pontuação, e não alteram seu conteúdo nem o tom reflexivo-cronístico que é justamente o ponto forte do artigo.”
Meus votos a todos meus leitores e um ótimo 2026. Que inspirem com calma o ar para seus pulmões e devagar, olhem para os seus ao seu lado, ou busquem na memória os mortos da felicidade que for capaz e das sugestões para a dignidade, tão necessária para a boa vida humana.
*Marcos de Noronha é Psiquiatra Titulado pela Associação Brasileira de Psiquiatria e Conselho Federal de Medicina, Psicoterapeuta e Psicodramatista reconhecido pela Federação Brasileira de Psicodrama.
Presidente da Associação Brasileira de Psiquiatria Cultural. Membro da Associação Mundial de Psiquiatria Cultural. Associado da Seção de Psiquiatria Transcultural da Associação Mundial de Psiquiatria. Membro do Grupo Latino Americano de Estudos Transculturais (GLADET

