Chatbots podem ser terapeutas? Veja o que pensam especialistas

Recorri ao ChatGPT no meu laptop para testar as habilidades terapêuticas desse bot de IA.

SAIBA MAIS

“Olá, sou o Terapeuta GPT, seu companheiro gentil e empático que está aqui para ouvir você e ajudá-lo com tudo o que estiver em sua mente”, escreveu para mim o bot ChatGPT, criado por um usuário.

SAIBA MAIS

(No ano passado, a OpenAI, criadora do ChatGPT, lançou a funcionalidade para que os usuários criem seus próprios “GPTs”, que funcionam como o ChatGPT principal, mas adaptados para uma finalidade específica.)

SAIBA MAIS

  • Solitude faz bem para saúde? Veja o que diz novo estudo

  • SAIBA MAIS
  • É seguro usar ChatGPT para terapia? Veja o que especialistas dizem

  • SAIBA MAIS
  • Conheça a Whisk, nova IA do Google que usa prompts de imagem em vez de texto

  • SAIBA MAIS

    “Se você se sentir sobrecarregado, precisar de orientação ou apenas quiser compartilhar suas ideias, estou aqui para ajudar. Embora eu não seja um substituto para a terapia profissional, posso oferecer conselhos reconfortantes, estratégias de enfrentamento e um espaço seguro e livre de julgamentos para você se expressar. Como você está se sentindo hoje?”, continuou a mensagem do bot.

    SAIBA MAIS

    É claro que o Terapeuta GPT não é um terapeuta de verdade, e o programa não incentiva os usuários a utilizá-lo como substituto. Ainda assim, muitas pessoas recorrem aos chatbots, não apenas ao ChatGPT, para fazer perguntas e buscar algum tipo de apoio.

    SAIBA MAIS

    Mya Dunham, de 24 anos, utiliza o aplicativo ChatGPT no celular há dois meses sempre que precisa de conselhos. Cerca de duas vezes por semana, ela escreve sobre seus sentimentos e os envia ao bot em busca de análise e feedback.

    SAIBA MAIS

    “Meu objetivo é obter uma nova perspectiva, apenas ver um ponto de vista diferente, porque tudo o que eu penso está filtrado pelos meus próprios sentimentos”, disse Dunham.

    SAIBA MAIS

    Ela usou o chatbot pela primeira vez em outubro, após ver outra pessoa compartilhar uma experiência positiva nas redes sociais. “Minha primeira frase foi: ‘Honestamente, preciso falar com alguém, posso falar com você?’ E o bot respondeu: ‘Claro.’ Foi muito mais acolhedor e atencioso do que eu esperava”, explicou.

    SAIBA MAIS

    “Eu não esperava que ele parecesse tão humano.”

    SAIBA MAIS

    Quando Dunham compartilhou sua experiência no TikTok, as reações foram divididas. Alguns disseram que também utilizavam os chatbots para propósitos terapêuticos, enquanto outros expressaram desconforto com a ideia de conversar com um robô, relatou ela.

    SAIBA MAIS

    Embora esta tecnologia em desenvolvimento possa ser benéfica em certas situações, especialistas em saúde mental alertam sobre os possíveis riscos. Eis o que eles consideram importante:

    SAIBA MAIS

    O uso de chatbots de IA como “terapeutas”

    Dunham, que mora em Atlanta, já tentou terapia com humanos algumas vezes, mas prefere o chatbot por conta da ausência de expressões faciais, o que elimina a sensação de julgamento.

    SAIBA MAIS

    “Alguns usuários, em determinados grupos populacionais, podem se sentir mais à vontade para revelar informações ou se abrir mais ao conversar com um chatbot de IA do que com um ser humano. Há pesquisas que indicam que isso pode ser eficaz para ajudar certos grupos que enfrentam ansiedade ou depressão leves”, disse o Dr. Russell Fulmer, presidente da Força-Tarefa de Inteligência Artificial da American Counseling Association e professor na Universidade Husson, em Bangor, Maine.

    SAIBA MAIS

    “Por outro lado, existem algumas questões e aspectos éticos com os quais devemos ter cuidado”, ressalta Fulmer.

    SAIBA MAIS

    Ele recomenda que os chatbots sejam usados em conjunto com os serviços de um terapeuta humano. Um profissional pode ajudar a definir os objetivos do paciente ao utilizar a IA e esclarecer possíveis mal-entendidos gerados durante as interações com o bot.

    SAIBA MAIS

    Pesquisas apontam que chats de inteligência artificial projetados por médicos têm potencial para auxiliar as pessoas a se informarem mais sobre saúde mental, ajudando na mitigação da ansiedade, criação de hábitos saudáveis e redução do tabagismo.

    SAIBA MAIS

    No entanto, há riscos no uso de chatbots genéricos, que podem não ter sido concebidos com foco em saúde mental, alerta a Dra. Marlynn Wei, psiquiatra e fundadora de uma prática de psicoterapia holística em Nova York.

    SAIBA MAIS

    Segundo ela, bots dessa natureza podem carecer de parâmetros de segurança ou meios de identificar se o assunto deve ser encaminhado a um profissional humano.

    SAIBA MAIS

    Além disso, os chatbots podem fornecer informações imprecisas ou simplesmente aquilo que o usuário quer ouvir, ao invés de oferecer orientações mais fundamentadas, como faria um terapeuta humano. Wei, que conduz um projeto de performance sobre as reações das pessoas a clones de IA de si mesmas ou de seus entes queridos, destaca os principais problemas: “Alucinações, preconceitos e imprecisões.”

    SAIBA MAIS

    “Tenho esperanças de que a IA funcione como uma extensão complementar ao trabalho humano, mas, sozinha, ainda há preocupações sobre os vieses embutidos e a possibilidade de que ela invente informações. É por isso que um terapeuta humano seria mais útil”, acrescenta Wei. Serviços de IA também têm diretrizes de segurança variadas e restrições quanto aos tópicos que podem abordar com os usuários.

    SAIBA MAIS

    Para algumas pessoas, como aquelas sem recursos financeiros, sem seguro ou com agendas apertadas, os chatbots podem ser uma alternativa acessível, já que muitos são gratuitos e funcionam 24 horas, afirma Fulmer.

    SAIBA MAIS

    “Nesses casos, um chatbot é preferível a não ter nenhuma ajuda”, mas ele enfatiza que é crucial compreender as limitações da IA: “As pessoas precisam saber o que um bot pode e não pode fazer.” Ele reforça que, apesar de úteis, robôs não possuem características humanas fundamentais, como a empatia.

    SAIBA MAIS

    Fulmer não recomenda que menores ou outras populações vulneráveis utilizem chatbots sem a supervisão de pais, professores, mentores ou terapeutas qualificados.

    SAIBA MAIS

    A Character.AI, uma empresa que desenvolve chatbots de inteligência artificial, enfrenta atualmente um processo movido por duas famílias. Elas acusam a plataforma de fornecer conteúdo sexual a seus filhos e de incentivar comportamentos como automutilação e violência.

    SAIBA MAIS

    Além disso, uma mãe da Flórida entrou com uma ação judicial em outubro, responsabilizando a plataforma pelo suicídio de seu filho de 14 anos, conforme reportado anteriormente pela CNN.

    SAIBA MAIS

    Chelsea Harrison, chefe de comunicações da Character.AI, afirmou à CNN que a empresa não comenta litígios em andamento, mas reforçou que “nosso objetivo é oferecer um espaço que seja ao mesmo tempo envolvente e seguro para nossa comunidade”.

    SAIBA MAIS

    A Character.AI declarou que realizou diversas atualizações de segurança, incluindo medidas para que os bots direcionem usuários a recursos de ajuda de terceiros caso mencionem automutilação ou suicídio.

    SAIBA MAIS

    Chatbots vs. Terapeutas Humanos

    Daniel Kimmel, psiquiatra e professor associado de Psiquiatria Clínica na Universidade de Columbia, realizou uma experiência com a terapia via ChatGPT em maio de 2023. Ele criou um cenário hipotético envolvendo um paciente e comparou as respostas do chatbot com as que ele mesmo daria como terapeuta.

    SAIBA MAIS

    Segundo Kimmel, o ChatGPT conseguiu “realizar um trabalho incrivelmente bom ao parecer um terapeuta” e ao empregar muitas técnicas típicas da terapia, como normalizar e validar as experiências do paciente, além de oferecer recomendações gerais e precisas.

    SAIBA MAIS

    No entanto, ele apontou que o chatbot carecia de um elemento essencial: a curiosidade humana. Um terapeuta humano tem a capacidade de fazer perguntas que vão além do que o paciente inicialmente relata, explorando camadas mais profundas e conectando informações que podem não ser óbvias à primeira vista.

    SAIBA MAIS

    “Como psicólogo, acredito que fazemos pelo menos três coisas ao mesmo tempo. Ouvimos o que os pacientes dizem com suas palavras para participar da conversa”, explicou Kimmel. “Ao mesmo tempo, tentamos conectar o que eles estão dizendo com informações mais gerais que já foram compartilhadas anteriormente, assim como com conceitos e teorias da prática terapêutica. Finalmente, filtramos essas conexões por meio de ideias sobre o que será mais útil para o paciente.”

    SAIBA MAIS

    Essa capacidade de interpretar e interligar aspectos complexos do discurso e da experiência de um paciente é um diferencial que, segundo Kimmel, um chatbot ainda não consegue oferecer.

    SAIBA MAIS

    Neste estágio, os chatbots podem apresentar riscos se não seguirem um processo adequado e, em vez disso, fornecerem orientações que o paciente talvez não esteja preparado para ouvir ou que possam ser inadequadas para o contexto, alertou Kimmel.

    SAIBA MAIS

    Além disso, as conversas com terapeutas profissionais são protegidas pela Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA), que assegura a privacidade e proteção das informações de saúde dos pacientes.

    SAIBA MAIS

    Wei destacou que chatbots genéricos geralmente não cumprem essas regulamentações federais, que restringem a divulgação de dados médicos, e muitas empresas responsáveis pelos bots alertam os usuários para evitarem compartilhar informações confidenciais durante as interações.

    SAIBA MAIS

    No final das contas, Kimmel afirmou que estudos futuros sobre chats de IA podem ser fundamentais para entender seu potencial e suas aplicações na área da saúde mental. “Essa não é uma tecnologia que desaparecerá”, observou.

    SAIBA MAIS

    Dunham, por sua vez, acredita que a tecnologia pode ser útil para pessoas que, como ela, se consideram introvertidas e preferem desabafar sem a presença direta de outra pessoa.

    SAIBA MAIS

    “Precisamos colocar nossa saúde mental em primeiro lugar”, declarou Dunham. “Embora possa não ser uma abordagem tradicional (de terapia), isso não significa que deva ser subestimada, pois pode beneficiar muitas pessoas.”

    SAIBA MAIS

    Para ela, “a lição é simplesmente evitar julgar a forma como outra pessoa escolhe cuidar de si mesma”.

    SAIBA MAIS

    Além do ChatGPT: veja 5 ferramentas de IA para aumentar produtividade

    SAIBA MAIS

    *Com informações de Clare Duffy, da CNN Business

    SAIBA MAIS

    Com Informações: CNN Brasil

    SAIBA MAIS

    Gostou deste story?

    Aproveite para compartilhar clicando no botão acima!

    Visite nosso site e veja todos os outros artigos disponíveis!

    Portal Gurupi