日前,麻省理工學院(MIT)的研究人員宣布,他們訓練了一個人工神經(jīng)網(wǎng)絡來處理面部情緒識別的信息,以幫助自閉癥患者更好地識別人臉表達的情緒。
正常人很容易就能識別他人臉上表達的情緒,比如微笑意味著開心,皺眉表示憤怒。但自閉癥患者在完成這項任務時非常困難。6月15日發(fā)表在《神經(jīng)科學期刊》上的一篇論文,揭示了大腦的內(nèi)部運作,該研究利用人工智能(AI)來模擬人類頭腦中的計算。
麻省理工學院科學家Kohitij Kar研究了另外兩位研究人員提供的數(shù)據(jù)——圣路易斯華盛頓大學的Shuo Wang和加州理工學院的Ralph Adolphs。他們在一項實驗中,向自閉癥成年人和正常神經(jīng)控制組展示了面部圖像。這些圖像是由軟件生成的,范圍從恐懼到快樂,參與者需要迅速判斷這些面孔是否在表達快樂。與對照組相比,自閉癥患者需要面部表現(xiàn)出更高程度的快樂,才能將其識別出來。
Kar訓練了一個人工神經(jīng)網(wǎng)絡,這是一個受大腦結(jié)構(gòu)啟發(fā)的復雜數(shù)學函數(shù),來執(zhí)行確定面部圖像是否快樂的相同任務。研究表明,自閉癥成年人的感覺神經(jīng)連接可能是“嘈雜”或低效的。
Kar認為,這些視覺處理的計算模型,比如增強現(xiàn)實(AR)技術在未來可能有多種用途?!拔艺J為面部情緒識別只是冰山一角。”他認為這些視覺處理模型可以用來選擇甚至生成診斷內(nèi)容。比如,人工智能可用于生成最能吸引自閉癥患者的內(nèi)容。
這些計算模型可能被用來調(diào)整AR眼鏡中的面部和其他相關內(nèi)容,以改變自閉癥患者的所見,也許是通過夸大人們臉上的各種情緒表情,幫助患者更好地識別情緒。麻省理工學院方面表示,圍繞增強現(xiàn)實的工作是Kar計劃在未來所做的事情。
此外,安裝了面部情緒識別軟件的AR眼鏡可以檢測人們的情緒并疊加文字提示,來幫助佩戴眼鏡的自閉癥患者,向他們描述可能的情緒狀態(tài)與互動。Kar表示,這項工作講有助于驗證計算模型的功能,尤其是圖像處理神經(jīng)網(wǎng)絡。
您好!請登錄