Diariamente somos tomados por diferentes sentimentos, seja pela felicidade instantânea, a preocupação com alguma coisa do trabalho, o medo de fracassar, a dor física ou mental, a fome ao acordar, etc. A todo momento estamos experimentando sentimentos. No entanto, em alguns períodos podemos não conseguir discernir o que estamos sentindo e esse fato pode nos deixar confusos e ainda mais prejudicados emocionalmente.
Estudos como os de Jenk e colaboradores (2014) já indicam há certo tempo que, além das expressões faciais, as ondas cerebrais também são capazes de indicar as emoções que estão sendo sentidas sem necessariamente serem expressas facialmente.
Visando detectar padrões emotivos utilizando como base essas ondas corticais, Kaur e colegas (2018) usaram o eletroencefalograma (EEG) para testar a hipótese de que as ondas apresentam frequências diferentes quando expressam emoções distintas.
Para o experimento foram recrutados dez voluntários, submetidos a assistir sessões em vídeos previamente classificados de acordo com o sentimento que expressavam (raiva, calma, medo e felicidade). Os pesquisadores posicionaram 14 eletrodos conforme o Sistema Internacional 10-20 a uma taxa de coleta de 128 Hz. Enquanto assistiam aos clipes, o EEG foi utilizado para obter os dados para cada participante. Ao final de todos os experimentos, os sinais foram compilados e passaram pelo processo de filtração e extração de dados.
O processo de extração foi realizado através do algoritmo de Higuchi que analisa as dimensões das ondas, Depois disso, foi utilizado um support-vector machine (SVM) que é um algoritmo que busca padrões de bandas e frequência, a fim de classificar os dados. Após os dados filtrados e classificados, houve o cruzamento das informações das respectivas emoções de cada clipe previamente estabelecido com os padrões encontrados pelo SVM.
Com o cruzamento de informações, foi percebido que o uso do SVM acertou 60% dos casos em média para as quatro emoções. Ao analisar a classificação para a emoção de alegria, 80% dos casos foram corretamente detectados. Esse tipo de paradigma pode ser integrado ao EEG para auxiliar na classificação das emoções das pessoas.
De forma semelhante, Hsu et al. (2022) aplicaram o modelo AMICA a dados de EEG 128 canais, obtidos enquanto voluntários imaginavam situações que elicitariam 15 diferentes emoções. Os autores encontraram diferenças entre o estado de relaxamento versus imaginação de situações emocionalmente carregadas em regiões como córtex pré-frontal lateral esquerdo, ínsula direita, sensório-motor, entre outros. Esse tipo de estudo permite o acúmulo de mais informações acerca da dinâmica cerebral durante episódio emocional, possibilitando insights e avançando a compreensão sobre o tópico.
Referências
Jenke, R., Peer, A., & Buss, M. (2014). Feature extraction and selection for emotion recognition from EEG. IEEE Transactions on Affective computing, 5(3), 327-339.
Kaur, B., Singh, D., & Roy, P. P. (2018). EEG based emotion classification mechanism in BCI. Procedia computer science, v. 132, 752-758.
Hsu, S-H., Lin, Y., Onton, J., Jung, T-P., Makeig, S. (2022). Unsupervised learning of brain state dynamics during emotion imagination using high-density EEG, NeuroImage, v. 249, https://doi.org/10.1016/j.neuroimage.2022.118873.
The content published here is the exclusive responsibility of the authors.