• فهرست مقالات Emotion Recognition

      • دسترسی آزاد مقاله

        1 - Automatic Facial Emotion Recognition Method Based on Eye Region Changes
        Mina  Navraan charkari charkari Muharram Mansoorizadeh
        Emotion is expressed via facial muscle movements, speech, body and hand gestures, and various biological signals like heart beating. However, the most natural way that humans display emotion is facial expression. Facial expression recognition is a great challenge in the چکیده کامل
        Emotion is expressed via facial muscle movements, speech, body and hand gestures, and various biological signals like heart beating. However, the most natural way that humans display emotion is facial expression. Facial expression recognition is a great challenge in the area of computer vision for the last two decades. This paper focuses on facial expression to identify seven universal human emotions i.e. anger, disgust, fear, happiness, sadness, surprise, and neu7tral. Unlike the majority of other approaches which use the whole face or interested regions of face, we restrict our facial emotion recognition (FER) method to analyze human emotional states based on eye region changes. The reason of using this region is that eye region is one of the most informative regions to represent facial expression. Furthermore, it leads to lower feature dimension as well as lower computational complexity. The facial expressions are described by appearance features obtained from texture encoded with Gabor filter and geometric features. The Support Vector Machine with RBF and poly-kernel functions is used for proper classification of different types of emotions. The Facial Expressions and Emotion Database (FG-Net), which contains spontaneous emotions and Cohn-Kanade(CK) Database with posed emotions have been used in experiments. The proposed method was trained on two databases separately and achieved the accuracy rate of 96.63% for spontaneous emotions recognition and 96.6% for posed expression recognition, respectively پرونده مقاله
      • دسترسی آزاد مقاله

        2 - Speech Emotion Recognition Based on Fusion Method
        Sara Motamed Saeed Setayeshi Azam Rabiee Arash  Sharifi
        Speech emotion signals are the quickest and most neutral method in individuals’ relationships, leading researchers to develop speech emotion signal as a quick and efficient technique to communicate between man and machine. This paper introduces a new classification meth چکیده کامل
        Speech emotion signals are the quickest and most neutral method in individuals’ relationships, leading researchers to develop speech emotion signal as a quick and efficient technique to communicate between man and machine. This paper introduces a new classification method using multi-constraints partitioning approach on emotional speech signals. To classify the rate of speech emotion signals, the features vectors are extracted using Mel frequency Cepstrum coefficient (MFCC) and auto correlation function coefficient (ACFC) and a combination of these two models. This study found the way that features’ number and fusion method can impress in the rate of emotional speech recognition. The proposed model has been compared with MLP model of recognition. Results revealed that the proposed algorithm has a powerful capability to identify and explore human emotion. پرونده مقاله
      • دسترسی آزاد مقاله

        3 - تشخیص احساس از روی گفتار با استفاده از طبقه‌بند مبتنی بر مدل و ویژگی‌های دینامیکی غیر خطی
        علی حریمی علیرضا احمدی فرد علی شهزادی خشایار یغمایی
        با توجه به پیشرفت‌های صورت‌گرفته در زمینه رباتیک و تعامل انسان و ماشین، تشخیص احساس از روی گفتار اهمیت ویژه‌ای پیدا کرده است. در این مقاله یک طبقه‌بند مبتنی بر مدل احساسی برانگیختگی- جاذبه، برای بازشناسی احساس از روی گفتار استفاده شده است. در این روش، در مرحله اول نمونه چکیده کامل
        با توجه به پیشرفت‌های صورت‌گرفته در زمینه رباتیک و تعامل انسان و ماشین، تشخیص احساس از روی گفتار اهمیت ویژه‌ای پیدا کرده است. در این مقاله یک طبقه‌بند مبتنی بر مدل احساسی برانگیختگی- جاذبه، برای بازشناسی احساس از روی گفتار استفاده شده است. در این روش، در مرحله اول نمونه‌ها با استفاده از ویژگی‌های متداول عروضی و طیفی بر مبنای سطح برانگیختگی طبقه‌بندی می‌شوند. سپس احساس‌های با سطح برانگیختگی یکسان با استفاده از ویژگی‌های پیشنهادی دینامیکی غیر خطی از یکدیگر جدا می‌شوند. ویژگی‌های دینامیکی غیر خطی از روی مشخصات هندسی فضای فاز بازسازی شده سیگنال گفتار استخراج می‌شوند. بدین منظور چهار منحنی توصیفگر برای بازنمایی مشخصات هندسی فضای فاز بازسازی شده محاسبه می‌شوند. سپس مؤلفه‌های مهم تبدیل کسینوسی گسسته این منحنی‌ها به عنوان ویژگی‌های دینامیکی غیر خطی مورد استفاده قرار می‌گیرند. روش پیشنهادی بر روی پایگاه داده برلین با استفاده از تکنیک 10 تکه برابر ارزیابی شده و نرخ بازشناسی 35/96% و 18/87% برای زنان و مردان به دست آمد. با توجه به تعداد نمونه‌ها در هر گروه جنسیتی، متوسط نرخ بازشناسی 34/92% برای سیستم پیشنهادی به دست آمد. پرونده مقاله
      • دسترسی آزاد مقاله

        4 - Recognition of Facial and Vocal Emotional Expressions by SOAR Model
        Matin Ramzani Shahrestani Sara Motamed Mohammadreza Yamaghani
        Todays, facial and vocal emotional expression recognition is considered one of the most important ways of human communication and responding to the ambient and the attractive fields of machine vision. This application can be used in different cases, including emotion an چکیده کامل
        Todays, facial and vocal emotional expression recognition is considered one of the most important ways of human communication and responding to the ambient and the attractive fields of machine vision. This application can be used in different cases, including emotion analysis. This article uses six basic emotional expressions (anger, disgust, fear, happiness, sadness, and surprise), and its main goal is to present a new method in cognitive science, based on the functioning of the human brain system. The stages of the proposed model include four main parts: pre-processing, feature extraction, feature selection, and classification. In the pre-processing stage, facial images and verbal signals are extracted from videos taken from the enterface’05 dataset, noise removal and resizing is performed on them. In the feature extraction stage, PCA is applied to the images, and the 3D-CNN network is used to find the best features of the images. Moreover, MFCC is applied to emotional verbal signals, and the CNN Network will also be applied to find the best features. Then, fusion is performed on the resulted features and finally Soar classification will be applied to the fused features, to calculate the recognition rate of emotional expression based on face and speech. This model will be compared with competing models in order to examine the performance of the proposed model. The highest rate of recognition based on audio-image was related to the emotional expression of disgust with a rate of 88.1%, and the lowest rate of recognition was related to fear with a rate of 73.8%. پرونده مقاله
      • دسترسی آزاد مقاله

        5 - تشخیص احساسات مبتنی بر سیگنال‌های EEG به کمک یادگیری عمیق مبتنی بر حافظه کوتاه‌مدت ماندگار دوجهته و مکانیسم توجه
        سیدعابد  حسینی محبوبه هوشمند
        این پژوهش به تشخیص احساسات از روی سیگنال‌های EEG به کمک یادگیری عمیق مبتنی بر حافظه کوتاه‌مدت ماندگار (LSTM) دوجهته و مکانیسم توجه می‌پردازد. در این پژوهش از دو پایگاه داده SEED و DEAP برای تشخیص احساس استفاده شده است. داده SEED شامل سیگنال‌های EEG در 62 کانال متعلق به چکیده کامل
        این پژوهش به تشخیص احساسات از روی سیگنال‌های EEG به کمک یادگیری عمیق مبتنی بر حافظه کوتاه‌مدت ماندگار (LSTM) دوجهته و مکانیسم توجه می‌پردازد. در این پژوهش از دو پایگاه داده SEED و DEAP برای تشخیص احساس استفاده شده است. داده SEED شامل سیگنال‌های EEG در 62 کانال متعلق به 15 شرکت‌کننده در سه دسته مختلف از احساسات مثبت، خنثی و منفی است. داده DEAP شامل سیگنال EEG در 32 کانال متعلق به 32 شرکت‌کننده در دو دسته از ظرفیت و برانگیختگی است. LSTM کارایی خود را در استخراج اطلاعات زمانی از سیگنال‌های فیزیولوژیکی طولانی نشان داده است. نوآوری‎های این پژوهش شامل استفاده از یک تابع تلفات جدید و بهینه‌ساز بیزین برای یافتن نرخ یادگیری اولیه است. صحت روش پیشنهادی برای طبقه‌بندی احساسات در پایگاه داده SEED 72/96 درصد شده است. صحت روش پیشنهادی برای طبقه‌بندی احساس در دو دسته ظرفیت و برانگیختگی در پایگاه داده DEAP به‌ترتیب 9/94 و 1/97 درصد است. نهایتاً مقایسه نتایج به‌دست‌آمده با پژوهش‌های اخیر روی داده‌های یکسان، نشان از بهبود نسبتاً خوب روش پیشنهادی دارد. پرونده مقاله
      • دسترسی آزاد مقاله

        6 - Whispered Speech Emotion Recognition with Gender Detection using BiLSTM and DCNN
        Aniruddha Mohanty Ravindranath C. Cherukuri
        Emotions are human mental states at a particular instance in time concerning one’s circumstances, mood, and relationships with others. Identifying emotions from the whispered speech is complicated as the conversation might be confidential. The representation of the spee چکیده کامل
        Emotions are human mental states at a particular instance in time concerning one’s circumstances, mood, and relationships with others. Identifying emotions from the whispered speech is complicated as the conversation might be confidential. The representation of the speech relies on the magnitude of its information. Whispered speech is intelligible, a low-intensity signal, and varies from normal speech. Emotion identification is quite tricky from whispered speech. Both prosodic and spectral speech features help to identify emotions. The emotion identification in a whispered speech happens using prosodic speech features such as zero-crossing rate (ZCR), pitch, and spectral features that include spectral centroid, chroma STFT, Mel scale spectrogram, Mel-frequency cepstral coefficient (MFCC), Shifted Delta Cepstrum (SDC), and Spectral Flux. There are two parts to the proposed implementation. Bidirectional Long Short-Term Memory (BiLSTM) helps to identify the gender from the speech sample in the first step with SDC and pitch. The Deep Convolutional Neural Network (DCNN) model helps to identify the emotions in the second step. This implementation is evaluated with the help of wTIMIT data corpus and gives 98.54% accuracy. Emotions have a dynamic effect on genders, so this implementation performs better than traditional approaches. This approach helps to design online learning management systems, different applications for mobile devices, checking cyber-criminal activities, emotion detection for older people, automatic speaker identification and authentication, forensics, and surveillance. پرونده مقاله