Implicações do Reconhecimento Automático da Expressão Facial da Emoção

Devemos olhar para faces ou para telas?

Pois ouvi essa semana que “as máquinas leem emoções melhor do que as pessoas, mas elas não têm emoções”

Impressões da Face Humana

Na época da graduação em psicologia, especificamente no último ano (onde há estágios clínicos e disciplinas de supervisão), não era raro ouvir as impressões que meus colegas traziam sobre a face do paciente que estavam atendendo. Impressões essas que vinham na forma de “uma cara fechada”; “uma cara estranha” e até “um semblante péssimo”. É sabido que por meio da comunicação não-verbal (CNV) a pessoa expressa fenômenos como conforto, desconforto, emoções, sentimentos e dor (Ferreira, 2018; Knapp & Hall, 1999), por exemplo, todavia, ainda em uma graduação de psicologia (e pelos menos na que frequentei e nas comparações que colho de meus pares) não há uma disciplina, cuja ementa, vise apresentar, ensinar e discutir a análise da linguagem corporal, da expressão facial da emoções e da paralinguagem (fundamentais tópicos da CNV dos seres humanos).

Uma vez que eu já conhecia algumas questões técnicas e metodológicas acerca da CNV, ficava ouvindo os relatos dos meus colegas estagiários e me perguntando como seria aquela face que eles não conseguiam descrever: “será que as sobrancelhas estavam abaixadas? Será que o olho estava arregalado? Será que havia tensão nas pálpebras? Será que havia algum tipo de pressão nos lábios ou ação na boca?” Por exemplo. Mas não fazia sentido perguntar, pois os meus colegas não estavam observando essas ações e movimentos, mas apenas relatando aquilo que eles haviam experienciado sobre aquela expressão emblemática do paciente, que se configurava para mim como apenas uma silhueta sem forma definida.

expressão facial da emoçãoE, sem descrições e avaliações científicas das ações e movimentos faciais, nunca foi possível, em situações como essas relatadas, trabalhar adequadamente o que aquela expressão facial carregaria consigo, a nível emocional, por exemplo, ou o que ela estaria representando ou o porquê ela está sendo exibida naquele momento. E digo isso, não para expor os meus colegas, mas para expor uma falta de formação específica e que se faz necessária quando o assunto é a expressão facial e a emoção. E digo isso também, pois espero que, com o final desse texto, você possa se atentar um pouco mais para as expressões faciais, na hora de avalia-las e de relatá-las também. Então, quando se deparar com uma “cara fechada”, ou “com uma cara estranha” e até “com um semblante péssimo”, peço que busque começar a treinar o seu olhar para identificar os movimentos faciais que ali estão.

Afinal, a face é a parte do corpo que mais exibimos ao outro durante nossas relações (com exceção de algumas culturas); ela é o nosso 1º sistema de comunicação humano; o choro e depois o sorriso são os primeiros organizadores do psiquismo humano. Sendo assim, é importante compreender como funcionam os comportamentos faciais e para que servem. Vale lembrar que as microexpressões faciais foram descobertas por meio de análises de sessões com psicoterapias que foram filmadas e revelaram, por exemplo, a angustia e o sofrimento de pacientes suicidas, ainda que esses relatasses, pelo canal verbal, melhoras.

Em resumo, a expressão facial da emoção analisada e mensurada, de forma científica, nos permite ver um mundo emocional por de trás de uma face; ela revela o que a pessoa sente e apresenta marcadores universais.

Reconhecimento automático da Expressão Facial da Emoção

Quando comecei a estudar a mensuração da expressão facial em seres humanos (antes de graduação, em meus primeiros contatos com as descobertas de Paul Ekman), lembro que o reconhecimento automático “era o futuro”. Já hoje, é público o fato de as câmeras e softwares apanharem nossas expressões cotidianas, com finalidades de análise e compreensão dos nossos estados internos. É necessário dizer que a análise de imagens digitalizadas permite também aplicações como a autenticação biométrica, mas não é esse o foco do seguinte texto. Falaremos hoje sobre os recursos que identificam emoções (como câmeras em lojas e vitrines que buscam mensurar as reações dos clientes ou plataformas que analisam as emoções dos candidatos em entrevistas de emprego).

Existem inúmeros algoritmos de reconhecimento da face humana e de suas expressões. Cada um possui suas particularidades, mas a maioria deles costuma trabalhar com elementos como: identificação/detecção da face e das principais regiões faciais (olhos, boca e nariz); colocação dos pontos de leitura; calibragem automática ou manual; identificação de rugas; posição da cabeça; posição dos olhos; reconhecimento da expressão facial; e alteração de aparência – marcadores importantes que fazem parte das análises de imagem e/ou vídeo. Quando a máquina busca emoções, esse conjunto de dados é analisado e convertido, de forma automática, em probabilidades dos estados emocionais, geralmente, relacionado às emoções básicas (alegria, tristeza, raiva, aversão, medo, surpresa e desprezo).

Reconhecimento automático facereader emoções face
(Exemplo de reconhecimento automático da expressão facial da emoção, com o software FaceReader, da Noldus – estudo feito no CICEM, por meio de parceria científica pioneira no Brasil, vigente desde 2017).
openface reconhecimento automático
(Exemplo de captação da face, de suas regiões e ações com o Software OpenFace 2.0. Estudo feito no CICEM)

Do ponto de vista teórico, uma série de pesquisadores da computação afetiva apontam que a capacidade da máquina em ler os estados afetivos de seus usuários teria efeitos benéficos (nas melhores hipóteses, falamos de máquinas capazes de reconhecer a expressão facial de alguém e atribuir uma saída condizente com a situação em questão) (Pantic et al., 2006; Picard, 1997; Robinson & el Kaliouby, 2009), entretanto, do ponto de vista prático, o que encontramos à nossa volta são utilizações mais problemáticas relacionadas à violação de direitos do que uma própria melhoria na relação homem-máquina. Raras têm sido as notícias sobre o incentivo das habilidades emocionais, frequentes têm sido os entusiastas da inteligência emocional e mais comuns ainda são os informes de novas inteligências que detectam emoções. Isso acontece pois as pessoas negligenciaram as faculdades emocionais por muito tempo e agora não sabem ler as emoções nos outros e não sabem gerir as próprias emoções em si mesmas.

“Desde o início da Computação Afetiva, os pesquisadores tem buscado formas de permitir que o computador seja capaz de reconhecer e responder as emoções humanas. Encontrando-se hoje uma variedade de grupos de pesquisa na área, muitos deles com trabalhos específicos voltados ao reconhecimento das emoções”

(Leão et. al, 2012)

.

Nem tudo é um pântano. As tecnologias de reconhecimento automático permitem analisar mais imagens em menos tempo (se compararmos com a codificação manual), o que tem grande valor na hora de verificar segmentos de vídeo. Isto é, por padrão (e em grande parte), os vídeos possuem 24 frames por segundo, o que significa 24 fotos/quadros dentro de um segundo. Como a investigação da expressão facial é feita quadro a quadro, há vezes em que o auxílio dos softwares é bem-vindo. Outra contribuição diz respeito ao campo da segurança, uma vez que esse tipo de sistema tem sido usado, por exemplo em aeroportos e terminais, para identificação de suspeitos e contenção de ameaças.

Nos cursos que ministro sobre a expressão facial da emoção, levo informações, aplicações e críticas acerca do reconhecimento automático, sendo que um dos melhores usos para ele, a nível didático, mostrou-se ser a comparação e discussão frente à análise/codificação manual para com a automatizada. Sempre digo aos participantes que só confio na utilização de um software desses por alguém que conheça a teoria e a metodologia que sustenta a análise científica da expressão facial da emoção e que, além disso, conheça bem os algoritmos e peculiaridades do software em questão. Por exemplo, há tecnologias que utilizam elementos do Facial Action Coding System (FACS) em suas programações, mas não empregam todas as AUs do código FACS. Nesse caso, para uma utilização adequada, faz-se necessário conhecer o FACS (de forma analógica) e as AUs compreendidas pelo software (de forma digital).

Levar a emoção para as pessoas

Uma das premissas que me levou a criar o curso de Introdução à Psicologia das Emoções (produzido pelo CICEM – Centro de Investigação do Comportamento das Emoções em parceria com a Sociedade dos Psicólogos) foi que as pessoas são ensinas à andar, falar, comer, estudar, mentir, etc….mas, raramente, são ensinadas a sentir e, uma vez que “as emoções determinam a qualidade das nossas vidas” faz se necessário o debruçar sobre temas como emoção, sentimento e afeto.

“Não basta ensinar ao homem uma especialidade, porque se tornará assim uma máquina utilizável e não uma personalidade. É necessário que adquira um sentimento, senso prático daquilo que vale a pena ser empreendido, daquilo que é belo, do que é moralmente correto”.

A. Einstein

Vejo que, de certa forma, o ensino e a pesquisa tem, cada vez mais, possibilidades de agregar a emoção como uma de suas principais formas de divulgação. Há vozes emocionais que buscam propagar a importância das emoções para, por exemplo, com nossa aprendizagem, relacionamentos, saúde, produtividade, motivação, entre outros. O estudo científico da alegria ganha holofotes e a psicologia positiva é pop – o que é bom e é ruim, pois ao mesmo tempo em que está sendo amplamente divulgada (o que é bom) também está sendo abordada, muitas vezes, de forma errônea e superficial, além de ganhar mais terreno fora do campo da psicologia (do que dentro dele) – isto é, tem sido mais fácil encontrar, atualmente, no Brasil “especialistas” em psicologia positiva que são empreendedores, coachs e “gurus”, do que, propriamente, psicólogos a falar do tema.

Penso que aqui, novamente, aparece a questão de que o tema das emoções vem ganhando holofotes e atenções, todavia, vem sendo tratado e direcionado de forma, pelo menos, estranha.

Talvez haja, atualmente, maior interesse ou tendência em estudar como as maquinas e as cabras reconhecem a expressão facial da emoção, do que investigar as facilidades/dificuldades humanas e propor soluções. Talvez o reconhecimento automático seja uma “solução” contemporânea, mas é triste que as máquinas – que não têm emoções – leiam a emoção melhor do que você – que é humano.

(mas você pode mudar isso)

Referências

Baltrusaitis, T. (2014). Automatic facial expression analisys. University of Cambrige: Computer Laboratory.

Ekman, P. (2003). Emotions revealed: recognizing faces and feelings to improve communication and emotional life. New York, NY: Times Books.

Ekman, P. & Rosenberg, E. L. (Eds.). (2005). What the face reveals: basic and applied studies of spontaneous expression using the facial action coding system (FACS) (2nd ed.) New York: Oxford University Press.

Ekman, P.; Friesen, W. V.; & Hager, J. C. (2002). The Facial Action Coding System. (2nd ed.) Salt Lake City, UT: research Nexus ebook.

Ferreira, C. (2018). Estudos sobre a mensuração científica da face humana: vol. 1 – o guia do emocionauta. São Paulo: CICEM Ed.

Knapp, M. L. & Hall, J. A. (1999). Comunicação não-verbal na interação humana. São Paulo: JSN Editora.

Leão, P. L.; Bezerra, J. S.; Matos, L. N. & Nunes, M. A. S. N. (2012). Detecção de expressões faciais: uma abordagem baseada em análise do fluxo óptico. GEINTEC. São Cristóvão/SE – 2012. Vol. 2/n.5/ p.472-489.

Pantic, M;. Pentland, A.; Nijholt, A. & Huang, T. (2006). Human computing and machine understanding of human behavior: A survey. In ACM International Conference on Multimodal Interfaces, pages 239–248, 2006.

Picard, R. W. (2009). Future affective technology for autism and emotion communication. Philosophical transactions of the Royal Society of London. Series B: Biological sciences, 364(1535):3575–3584, Dec 2009.

Robinson, P. & el Kaliouby, R. (2009). Computation of emotions in man and machines. Philosophical Transactions of the Royal Society of London. Series B: Biological sciences, 364(1535):3441–3447, 2009.

OpenFace 2.0: Facial Behavior Analysis Toolkit Tadas Baltrušaitis, Amir Zadeh, Yao Chong Lim, and Louis-Philippe Morency, IEEE International Conference on Automatic Face and Gesture Recognition, 2018

Por Caio Ferreira

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s