表情識別相關論文摘要

《Facial Emotion Recognition: A Survey and Real-World User Experiences in Mixed Reality》 主要講的是硬件

本文簡要介紹了情感識別的各種方法和技巧。該調查涵蓋了對數據庫的簡要回顧,這些數據庫被視爲通過面部表情檢測情緒的算法的數據集。後來,混合現實設備Microsoft HoloLens(MHL)被引入用於觀察增強現實(AR)中的情緒識別。簡要介紹了其傳感器,它們在情感識別中的應用以及使用MHL進行情感識別的一些初步結果。然後,本文通過比較MHL和常規網絡攝像頭的情感識別結果得出結論。本文介紹了它們在情感識別中的應用以及利用MHL進行情感識別的初步結果。然後,本文通過比較MHL和常規網絡攝像頭的情感識別結果得出結論。

 

《Facial Expression Emotion Detection for Real-Time Embedded Systems》基於matlab5名觀察者的表情識別

目前爲止,這是第一次在嵌入式設備(現場可編程門陣列FPGA)上成功地實現了自動情感狀態檢測。該系統比圖形處理單元(GPU)實現速度快20倍[10],可實時分析每秒30幀。本文介紹了該技術的實現過程,並對兩種結果進行了評價。

2015年,Microsoft Oxford API(應用程序編程接口)雲服務基於面部表情提供情感識別[24]。這個API爲圖像中的每個面以及面的邊界框提供了跨一組情緒的信心。檢測到的情緒有憤怒、輕蔑、厭惡、恐懼、幸福、中立、悲傷和驚訝。這些情緒被理解爲跨文化和普遍地與面部表情交流。識別是實驗性的,並不總是準確的[24]。

總體系統精度爲47.44%,可與J.Chen在擴展的Cohn Kanade(CK+)數據庫(清潔環境)和Wild(AFEW)4.0數據庫[42]中進行的同類最先進的工作相媲美,總體平均精度爲45.2%

 

《Emotion Detection Using Facial Expressions -A Review》這也算個review?就講了下主成分分析這一種方法

面部表情識別系統由四個步驟組成。首先是人臉檢測階段,它從靜止圖像或視頻中檢測人臉。第二個階段是標準化階段,它去除噪聲,並根據亮度和像素位置對人臉進行標準化。在第三階段,提取特徵並消除無關特徵。在最後一步中,基本的表達被分爲六種基本的情緒,如憤怒、恐懼、厭惡、悲傷、幸福和驚奇。

 

《Facial Emotion Recognition in Real Time》開發了一個卷積神經網絡,用於實時從動態面部表情中分類人類情緒。我們在現有卷積神經網絡的連接層上使用遷移學習,該網絡經過預訓練用於人類情緒分類。

情緒可以通過多種方式識別,如語音語調、身體語言和更復雜的方法,如腦電圖(EEG)[1]。然而,更簡單、更實用的方法是檢查面部表情。有七種人類情感在不同的文化中被普遍地識別出來:憤怒、厭惡、恐懼、幸福、悲傷、驚訝、輕蔑。因此,一種從面部表情中檢測情感的實用工具將被廣泛應用。這樣的進步可以在醫學、市場營銷和娛樂領域帶來應用[4]。

圖2 VGG S網第一卷積層濾波器的可視化

由於時間限制,我們只訓練了網絡的最後幾個完全連接的層(fc6、fc7、fc8)。VGG S的體系結構(見圖6)由五個卷積層、三個完全連接層和一個SoftMax分類器組成,還應用了opencv提供的haar級聯過濾器(見論文圖6)來裁剪輸入圖像人臉。

 

《Using Kinect for real-time emotion recognition via facial expressions》

本文的貢獻是:

1.該方法採用了從RGB和深度數據中提取的面部表情特徵(AUS和FPPS),對人臉檢測和情緒識別具有重要意義。此外,爲了提高識別速度,我們減少了FPP的數量,獲得了更好的識別精度。

2.我們創建了一個全面的實時FER應用程序,包括基於Kinect和人臉跟蹤SDK(Microsoft,美國)的數據庫創建和模型培訓。據我們所知,這是第一個能夠從具有多類型功能的Kinect實時視頻序列中識別面部情緒的系統。

3.我們首先提出了一種基於IEPs的融合算法,將最近30幀的識別結果與每種類型的特徵(AUS或FPP)融合在一起。然後將結果與兩種特徵相結合,採用基於最大置信度的融合算法進行情感估計。

 

表情強度:《Facial Expression Intensity Estimation Using Ordinal Information》

並沒有說怎麼判別表情強度,只有在有標記的表情上纔可以,如pain表情

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章