Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin.
Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.
A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma.
E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês).
Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.
A Character.ai não revela quantos usuários individuais enviaram mensagens para o bot, mas diz que 3,5 milhões de pessoas visitam o site diariamente.
O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”.
A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador, como Raiden Shogun, que já recebeu 282 milhões de mensagens.
No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo. H um total de 475 bots com “terapia”, “terapeuta”, “psiquiatra” ou “psicólogo” em seus nomes, capazes de conversar em vários idiomas.
Alguns deles são o que você poderia descrever como terapeutas personagens de entretenimento ou fantasia, como Hot Therapist. Mas os mais populares são os voltados para saúde mental, como o Therapist, que recebeu 12 milhões de mensagens, ou o Você está se sentindo bem?, que recebeu 16,5 milhões.
O que é inteligência artificial? Um guia simples para entender a tecnologia
Psychologist é, porém, de longe o personagem de saúde mental mais popular, com muitos usuários compartilhando comentários elogiosos no Reddit.
“É um salva-vidas”, postou uma pessoa.
“Ajudou eu e meu namorado a conversar e a entender as nossas emoções”, compartilhou outro.
O usuário por trás do Blazeman98 é Sam Zaia, 30 anos, da Nova Zelândia.
“A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele.
“Até que comecei a receber muitas mensagens de pessoas dizendo que haviam sido afetadas positivamente e que estavam utilizando o Psychologist como uma fonte de conforto.”
O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade.
Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara.
Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens. Character.ai é dominado por usuários de 18 a 30 anos.
“Muitas pessoas que me enviaram mensagens disseram acessar quando seus pensamentos ficam difíceis, como às 2 da manhã, quando não podem conversar com um amigo ou com um terapeuta de verdade”,
Sam também acha que os jovens se sentem mais confortáveis com o formato de texto.
“Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.
Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia.
“O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela.
Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda.
Ela diz que o número de pessoas que utilizam o bot é preocupante e pode apontar para elevados níveis de problemas de saúde mental e falta de recursos públicos.
Mas a Character.ai é um espaço estranho para sediar uma revolução terapêutica.
“Estamos felizes de ver que as pessoas estão encontrando grande apoio e conexão através dos personagens que elas e a comunidade criam, mas os usuários devem consultar profissionais certificados na área para obter aconselhamento e orientação legítimos,” disse uma porta-voz da empresa.
Segundo a Charcater.ai, os registros de bate-papo são privados, mas as conversas podem ser lidas pela equipe se houver necessidade de acessá-las, por exemplo, por motivos de segurança.
Cada conversa também começa com um aviso em letras vermelhas que diz: “Lembre-se, tudo o que os personagens dizem é inventado.”
É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.
Outros serviços de IA baseados em LLM oferecem companhia semelhante, como o Replika, site classificado como adulto devido a sua natureza sexual.
Mas, de acordo com dados da empresa de análise Similarweb, ele não é tão popular quanto o Character.ai em tempo gasto e acessos.
Existem também o Earkick e Woebot, chatbots de IA projetados para atuar como companheiros de saúde mental. Com base em pesquisas próprias, ambas as empresas afirmam que os aplicativos estão ajudando pessoas.
Alguns psicólogos alertam que os bots de IA podem estar dando conselhos inadequados aos pacientes ou podem trazer preconceitos de raça ou gênero.
Mas em outros lugares o mundo médico começa a provisoriamente aceitar os bots de AI como ferramentas a serem utilizadas para ajudar a lidar com a alta demanda nos serviços públicos.
No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.