2022 年 6 月 21 日——麻省理工学院的研究人员最近宣布,他们已经训练了一个人工神经网络来处理面部情绪识别信息,以帮助自闭症患者更好地识别人们脸上表达的情绪。
对于许多人来说,很容易识别他人脸上表达的情绪。微笑可能意味着幸福,而皱眉可能表示愤怒。另一方面,自闭症患者在完成这项任务时通常会更加困难。原因尚不清楚,但 6 月 15 日发表在《神经科学杂志》上的一项新研究揭示了大脑的内部运作并提出了答案,并且它使用人工智能 (AI) 对我们头脑中的计算进行建模。
在麻省理工学院教授 James DiCarlo 的实验室工作的麻省理工学院研究科学家 Kohitij Kar 希望将答案归零。(DiCarlo,脑与认知科学系的 Peter de Florez 教授,是麦戈文脑研究所的成员和麻省理工学院 Quest for Intelligence 的主任。)
Kar 首先查看了另外两位研究人员提供的数据:圣路易斯华盛顿大学的 Shuo Wang 和加州理工学院的 Ralph Adolphs。在一项实验中,他们向自闭症成年人和神经典型对照组展示了面部图像。这些图像是由软件生成的,范围从恐惧到快乐,参与者迅速判断这些面孔是否描绘了快乐。与对照组相比,自闭症成年人需要更高水平的面部快乐才能报告他们快乐。
Kar 也是大脑、思维和机器中心的成员,他训练了一个人工神经网络,这是一种受大脑结构启发的复杂数学函数,以执行确定面部图像是否快乐的相同任务。Kar 的研究表明,自闭症成年人的感觉神经连接可能“嘈杂”或效率低下。要更彻底地了解 Kar 的研究内容,请在此处阅读完整的 MIT 博客文章。
那么,像增强现实(AR)这样的东西在哪里与所有这些联系在一起呢?那么,基于Kar的研究,他认为这些视觉处理的计算模型在未来可能有几个用途。
“我认为面部情绪识别只是冰山一角,”Kar 说,他认为这些视觉处理模型也可以用来选择甚至生成诊断内容。例如,人工智能可用于生成最能吸引自闭症儿童和成人的内容(如电影和教育材料)。
根据这项研究,这些计算模型有可能被用来帮助调整增强现实眼镜中的面部和其他相关像素,以改变自闭症患者的所见,也许是通过夸大人们脸上的幸福(或其他情绪)水平。为了帮助自闭症患者更好地识别情绪。根据麻省理工学院的说法,围绕增强现实的工作是 Kar 计划在未来追求的东西。
即使以更简单的形式,安装了面部情绪识别软件的 AR 眼镜也可以检测人们的情绪并叠加文字提示,以帮助自闭症患者佩戴眼镜,以便向他们描述他们可能的情绪状态与互动。Kar 表示,最终,这项工作有助于验证计算模型的有用性,尤其是图像处理神经网络。