Psicologia e Inteligência Artificial
Nesse momento em que a aplicação da inteligência artificial no mundo do trabalho (e nas nossas vidas pessoais) é tão discutido, pensei em resumir o momento atual do uso dessas tecnologias no trabalho da psicologia, focando na psicoterapia. Jacques Lacan (1901-1981) dizia que o psicanalista deve estar no horizonte da subjetividade de sua época, e me parece que isso reflete justamente, para nós, entender as complexidades e possibilidades da IA em relação ao trabalho do psicólogo/psicanalista.
Primeiro, o que é IA?
A Inteligência Artificial (IA) pode ser definida como um ramo da ciência da computação que busca criar sistemas capazes de realizar tarefas que, quando realizadas por humanos, exigem inteligência. Essas tarefas incluem resolução de problemas, reconhecimento de padrões, aprendizado, raciocínio lógico e compreensão da linguagem natural (Russell & Norvig, 2016). A ideia de construir máquinas que imitam o pensamento humano remonta a tempos antigos, mas a IA como campo formal emergiu no século XX com o desenvolvimento dos primeiros computadores programáveis.
O termo “Inteligência Artificial” foi cunhado em 1956 por John McCarthy (1927-2011) durante uma conferência em Dartmouth College, nos Estados Unidos. Na ocasião, McCarthy e outros pioneiros, como Marvin Minsky (1927-2016), Allen Newell (1927-1992) e Herbert Simon (1916-2001), discutiram sobre a possibilidade de programar máquinas para resolver problemas complexos, iniciando oficialmente o campo da IA.
O programa ELIZA
Antes de tocar nas relações com aplicações modernas de Inteligência Artificial, vale adentrar no túnel do tempo e recordar uma das primeiras interações entre IA e psicologia.
O programa ELIZA é um marco inicial nas interseções entre inteligência artificial e psicologia clínica. Ele foi desenvolvido por Joseph Weizenbaum (1923-2008) no MIT (Massachusetts Institute of Technology) em 1966. ELIZA é um dos primeiros programas de processamento de linguagem natural, projetado para simular uma conversa humana básica.
ELIZA foi programada para imitar um terapeuta rogeriano, baseado na abordagem centrada na pessoa de Carl Rogers (1902 – 1987), que é conhecido por repetir ou reformular o que o cliente diz para incentivar a autoexploração. O script mais famoso usado em ELIZA é chamado de DOCTOR, que reproduz a postura de um terapeuta ao fazer perguntas genéricas ou reformular frases ditas pelo usuário.
Por exemplo:
– Usuário: “Estou triste porque meu pai me ignora.”
– ELIZA: “Por que você acha que seu pai o ignora?”
Embora ELIZA fosse bastante rudimentar, algumas pessoas relataram sentir-se emocionalmente conectadas ao programa, como se realmente estivessem conversando com um terapeuta. Isso surpreendeu Weizenbaum, que inicialmente criou ELIZA como um experimento para mostrar os limites da comunicação homem-máquina. Ele ficou preocupado com a facilidade com que as pessoas antropomorfizavam a máquina e atribuíram a ela inteligência ou empatia genuína.
Essa experiência gerou discussões éticas sobre o uso de máquinas na psicologia clínica. Apesar de suas limitações óbvias, ELIZA revelou o potencial da tecnologia para simular, ao menos em parte, interações terapêuticas.
Recomendo esse vídeo para entender o contexto histórico e criação do ELIZA:
E o Chat GPT?
Para falarmos sobre o Chat GPT, precisamos entender que estamos falando sobre Inteligência Artificial Generativa. A Inteligência Artificial Generativa (IA Generativa) é um subcampo da IA focado na criação de novos conteúdos, como imagens, textos, músicas e até vídeos (de forma ainda rudimentar), a partir de dados existentes. Esse tipo de IA usa redes neurais complexas, especialmente redes generativas adversariais (GANs) e modelos de linguagem de grande escala (veja abaixo), para gerar outputs que se assemelham ao conteúdo humano. A IA Generativa ganhou destaque com modelos como o GPT, da OpenAI, que conseguem produzir textos coerentes, realizar traduções e responder a perguntas, e com modelos de imagem, como o DALL-E, que criam ilustrações realistas a partir de descrições textuais.
Modelos de Linguagem de Grande Escala, ou Large Language Models (LLMs), são uma classe de modelos de inteligência artificial projetados para processar, gerar e compreender linguagem natural em uma escala sem precedentes. Esses modelos, como o usado pelo GPT da OpenAI, são construídos com bilhões ou até trilhões de parâmetros, o que permite uma capacidade de compreensão e produção de texto altamente sofisticada (Goodfellow et al., 2016).
Durante o treinamento, esses modelos são expostos a enormes quantidades de dados textuais, como livros, artigos, sites e outras fontes de informação pública. Por meio desse processo, os LLMs aprendem a prever a próxima palavra em uma sequência, o que possibilita a geração de respostas relevantes, coerentes e que, em muitos casos, parecem criativas.
Importante mencionar que eu citei o ChatGpt como exemplo, mas existem outras IA’s generativas que tem um escopo semelhante como Copilot, Gemini e Meta AI.
Machine Learning x Inteligência Artificial?
O chamado Machine Learning, ou Aprendizado de Máquina, é uma subárea dentro da IA focada em algoritmos e métodos que permitem que as máquinas “aprendam” com dados, sem serem explicitamente programadas para realizar cada tarefa. Ou seja, em vez de seguir regras definidas pelos desenvolvedores, os sistemas de ML encontram padrões e fazem previsões ou decisões com base em dados. Por exemplo, em vez de programar manualmente um sistema para reconhecer imagens de gatos, ele é treinado com milhares de exemplos de imagens para “aprender” as características dos gatos e identificá-los automaticamente em novas imagens (Goodfellow et al., 2016).
O mecanismo de recomendações dos algoritmos do Youtube, Netflix e outros é largamente baseado em Machine Learning, onde o sistema usa dados do usuário para sugerir conteúdo relevante com foco em retenção da atenção. Sobre esse tema eu recomendo o documentário “O Dilema das Redes” (2020) na própria Netflix.
Inteligência Artificial e Psicoterapia
O uso da inteligência artificial em diversos campos da atuação humana vem avançando mais e mais nos últimos 10 anos (Nascimento Melo Junior, S. A., Leite de Aguiar, C., Kalyne Silva da Cunha, L., & Rodrigues Brustolin, J. C., 2024). Se nos restringirmos ao campo da psicologia organizacional e do trabalho, departamentos de RH de diversas empresas já adotam ferramentas de IA para validar documentos de admissão, analisar grandes quantidades de dados relacionados à compensação e seleção de profissionais (o que gera uma infinidade de debates no Brasil e fora).
Olhando para a psicoterapia, vale mencionar que eu vejo a aplicação da IA em 2 momentos distintos, diagnóstico e tratamento.
No momento do diagnóstico psicológico/psiquiátrico, já existem estudos indicando a maior eficiência da IA em comparação ao diagnóstico feito por psiquiatras. A prosódia e a repetição de significantes são analisadas por essas ferramentas e aqui me parecem que podem ser realmente úteis.
Se movemos ao tratamento, a história é outra. A complexidade da subjetividade humana é tão vasta que não me parece que uma IA poderia, nesse momento ou em um futuro breve, atuar de forma eficiente em termos de estratégica e tática. Uma intervenção depende de uma série de cálculos e riscos que um psicanalista faz com base em toda a quilometragem de escuta e
A transferência estabelecida entre analista e analisando depende da suposição do saber, e também da direção ao “Significante qualquer – Sq” como aponta Lacan, uma variável que pode ser desde o jeito de se vestir do terapeuta, seu jeito de falar, até a decoração de seu consultório (físico ou virtual).
“O inconsciente escapa totalmente a este círculo de certezas no qual o homem se reconhece como um eu.” (Lacan, 1954-55/2010, p. 17)
À nível referencial, Lacan já discutia a interação entre cibernética e psicanálise no seu Seminário 02 (1954-1955), intitulado “O eu na teoria de Freud e na técnica da psicanálise”.
“Esforçamo-nos por obter do sujeito que ele nos entregue sem intenção seus pensamentos, como costumamos dizer, suas conversas, seu discurso, ou seja, que intencionalmente ele se aproxime o mais possível do acaso. Qual é, aqui, o determinismo procurado numa intenção de acaso? É sobre esse assunto, creio, que a cibernética pode trazer-nos alguma luz.” (Lacan, 1954-55/2010, p.398).
Recomendo esse vídeo de Christian Dunker acerca desse seminário específico:
Algumas plataformas de IA já são utilizadas como suporte terapêutico, incluindo chatbots e assistentes virtuais, projetados para oferecer suporte emocional inicial e orientação psicológica. Essas ferramentas podem ajudar pessoas que ainda não têm acesso direto a terapias tradicionais ou que procuram assistência em momentos críticos. Por exemplo, aplicativos como Woebot e Replika têm sido desenvolvidos com base em técnicas de Terapia Cognitivo-Comportamental (TCC).
Apesar de vistos como promissores por entusiastas da tecnologia, esses sistemas ainda enfrentam vastas limitações. Os chatbots, por exemplo, podem responder de forma limitada, o que nem sempre atende às complexidades da subjetividade humana.
Permanece também um grande ponto de interrogação em relação à base de dados utilizada para treinar as inteligências artificiais. Como são treinados em grandes volumes de dados que podem conter preconceitos e vieses sociais, os LLMs podem reproduzir ou até amplificar esses vieses. Fora isso, a própria gestão e manutenção das informações confidenciais dos usuários por essas empresas parecem ser bem opacas, para dizer o mínimo.
Um desafio adicional que observo é o uso dessas ferramentas em contextos onde a língua falada não é inglês, já que a maioria das companhias que desenvolve e investe na criação delas fica justamente no norte global.
Recomendo também esse vídeo de Christian Dunker falando sobre o tema:
Conclusão
Me parece que o uso de ferramentas baseadas em IA no campo da psicoterapia é inevitável, todavia, a integração dela na clínica será gradual e demorada. O uso delas vai demandar uma infraestrutura e treinamento
Não vejo a comunidade psi brasileira atual sendo permeável à esse tipo de ferramentas, se levarmos em conta
Um possível sintoma é justamente o empobrecimento do que entendemos e esperamos de um tratamento.
Até onde observo, como sociedade, apostamos cada vez mais na tecnologia e no consumismo, na esperança de que isso traga mais conexão e preenchimento ao nosso vazio existencial, todavia, esses elementos parecem ampliar o sentimento de falta, e não parecem recuar.
Até a próxima,
Referências Bibliográficas
Carneiro, A., Pena, B., & Cardoso, I.. (2016). Entrevistas preliminares: marcos orientadores do tratamento psicanalítico. Reverso, 38(71), 27-36. Recuperado em 24 de novembro de 2024, de http://pepsic.bvsalud.org/scielo.php?script=sci_arttext&pid=S0102-73952016000100003&lng=pt&tlng=pt.
Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., & Bengio, Y. (2014). Generative adversarial nets. Advances in Neural Information Processing Systems, 27. Recuperado em 24 de Novembro de 2024, de https://papers.nips.cc/paper_files/paper/2014/hash/5ca3e9b122f61f8f06494c97b1afccf3-Abstract.html
Lacan, J. (1954-1955/2010) O Eu na teoria de Freud e na técnica da Psicanálise. Rio de Janeiro: Jorge Zahar.
Nascimento Melo Junior, S. A., Leite de Aguiar, C., Kalyne Silva da Cunha, L., & Rodrigues Brustolin, J. C. (2024). La interacción hombre-máquina en psicoterapia: Una revisión sistemática sobre el uso de inteligencias artificiales en el contexto de la salud mental. Prometeica – Revista De Filosofía Y Ciencias, 29, 335–347. Recuperado em 24 de Novembro de 2024, de https://periodicos.unifesp.br/index.php/prometeica/article/view/16268
Russell, S., & Norvig, P. (2016). Artificial Intelligence: A Modern Approach. London: Pearson.
0 comentário