|
' B4 N: v# f9 {, D) e5 D 麻省理工学院的研究人员最近宣布他们已经训练了一个人工神经网络来处理面部情绪识别的信息,以帮助自闭症患者更好地识别人们脸上表达的情绪。 0 o0 D; o# {4 \: |5 t. I7 J" z; j# p
对于许多人来说,很容易识别出他人脸上表达的情绪。微笑可能意味着幸福,而皱眉可能表示愤怒,但是自闭症患者在识别他人情绪时往往会遇到更多困难。目前尚不清楚为什么,但6月15日发表在《神经科学杂志》上的新研究揭示了大脑的内部运作,它使用AI来模拟人脑中的计算。
$ B; Y% K1 v6 g, h+ n6 l  1 |+ p6 [5 x: ]* G$ [, F4 Q
麻省理工学院研究科学家Kohitij Kar在麻省理工学院教授James DiCarlo的实验室工作,他希望能找到答案。Kar首先研究了另外两位研究人员提供的数据:圣路易斯华盛顿大学的Shuo Wang和加州理工学院的Ralph Adolphs。
6 K3 |3 ~& R$ F2 o: w 在一项实验中,他们向自闭症成年人和神经正常的对照者展示了面部图像。这些图像是由软件生成的,从恐惧到快乐不等,参与者迅速判断这些面孔是否描绘了幸福。与对照组相比,自闭症成年人需要在脸部表情更明显的情况下才会报告他们是快乐的。
! u& X. f! G4 i; O# r+ `0 K% L( M Kar训练了一个人工神经网络,这是一个受大脑结构启发的复杂数学函数,以执行确定面部图像是否快乐的相同任务。Kar的研究表明,自闭症成年人的感觉神经连接可能是嘈杂或低效的。根据Kar的研究,他认为这些视觉处理的计算模型在未来可能会有几种用途。
* I0 a% Q7 b2 b% k$ \: z; |; S Kar表示:“我认为面部情绪识别只是冰山一角。”他认为这些视觉处理模型也可以用来选择甚至生成诊断内容。例如,人工智能可用于生成内容(如电影和教育材料),以最佳方式吸引自闭症儿童和成人。
& j" ?" Y( k, b 根据这项研究,这些计算模型可能被用来帮助调整AR眼镜中的面部和其他相关像素,以改变自闭症患者所看到的,也许可以通过夸大人们脸上的幸福感(或其他情绪)水平来帮助自闭症患者更好地识别情绪。根据麻省理工学院的说法,围绕AR的工作是Kar计划在未来追求的事情。
0 \8 ?! R% a* o$ E5 v! V( v 即使以更简单的格式,安装了面部情绪识别软件的AR眼镜也可以检测人们的情绪并叠加文本提示,来帮助佩戴眼镜的自闭症患者,以便描述他们正在与之互动的人的可能情绪状态。根据Kar的说法,最终这项工作有助于验证计算模型的有用性,特别是图像处理神经网络。
( r; A2 m6 h! G, W$ {" Y @2 ]6 ^4 V
+ w( X e; \1 [' ]$ G. l, X y: ~0 B2 s6 X
j8 w- ^) l% V4 N8 q' L1 J! {' c( u" h" \5 ?3 J6 I
) M$ D8 F: w; j7 P5 \# g/ ^4 i* L
7 @3 r! G$ Q$ }' ^) u& d, H K; O
- i# Q* j' M ~$ G4 S6 I
7 t& q7 T! U) v/ c$ e" x! P( z- W0 S7 y5 p$ ~8 B8 w
|