请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
搜索

中科院专家揭秘“AI读心术”:能识别情绪,还能辅助诊断抑郁症

随着人脸识别等“看脸”技术的成熟,越来越多的科学家开始研究用人工智能技术来“读心”。近日,在2020北京智源大会的“机器感知专题论坛”中,中国科学院计算技术研究所研究员山世光介绍了AI“读心”的相关研究。他引用哲学家西塞罗的话说,“世间一切尽在脸上”。

AI“读心”应用场景

诊断精神性疾病、评估骗贷风险等

AI如何“读心”?山世光解释,AI“读心”并不是真的去推测人的内心想法,“更多地是从情感角度来评估一个人”。也就是说,AI通过一个人外显的语言、行为,来判断这个人内在的心理和精神状态。

因此,AI“读心”可以概括为三个层次,第一层是相对瞬时的生理指标,包括心率、呼吸率、血压、血氧、眨眼率、视线方向等;第二是短期的心理状态,比如疲劳、专注、亢奋、无聊等;第三层是长期的精神状况,这就涉及到自闭症、抑郁症、焦虑狂躁等精神性疾病。

山世光介绍,在辅助诊断精神性疾病方面,AI“读心”已经有了较多的应用。以抑郁症诊断为例,传统的方法主要依靠主观量表的检测结果来判断,主观量表的评测偏差很大,AI“读心”能提供更客观的评估。2018年,来自澳大利亚堪培拉大学、新南威尔士大学等高校的团队曾通过三项特征来诊断抑郁症。具体来说,第一项是语音与语言特征,如被测者说话时音量的大小、停顿的时长和频率等。第二项是头部姿态特征,比如在与他人交流时,被测者是否有摇头晃脑、东看西看等特征。最后一项是眼神特征,例如被测者眨眼的频率、视线的方向等等。实验结果表明,将这三项特征融合之后,能达到88%的精度。

知名华人科学家李飞飞的研究团队也在2018年提出过一种机器学习方法,可以测量抑郁症症状的严重程度。研究人员使用的数据包括患者面部的3D扫描视频、患者的讲话音频及讲话的转录文本。结果显示,对于重度抑郁症的检测,模型显示出了83.3%的敏感性和82.6%的特异性。

山世光及其团队,则将研究重点放在了自闭症的早期诊断上。研究人员通过摄像设备和视线捕捉设备记录儿童的社交和个体行为,比如儿童的面部表情、视线方向、与他人的眼神对视等,再通过计算机视觉技术分析其行为特征,从而得出结论。

中科院专家揭秘“AI读心术”:能识别情绪,还能辅助诊断抑郁症-1.jpg

用摄像头采集儿童视线方向。

除了辅助诊断精神性疾病,AI“读心”也可以应用于情感陪护机器人和自动驾驶领域,如对司机的危险驾驶行为作出预警。此外,AI“读心”还能构建用户画像,比如在银行在审批贷款时,可以用此评估客户骗贷的风险有多高;企业可以用此评估员工的特性,以便未来更好的管理和培养员工。

AI“读心”现存挑战

缺乏大规模的标注数据

虽然AI“读心”技术已经有了一些落地应用,但山世光说,科学家们仍然面临较多的挑战,其中之一就是缺乏大规模的标注数据。

如果只有一部分经过标注的数据和大量无标注的数据,是否能做表情或情绪分析?如何让AI在半监督的条件下检测面部的微小动作?这些是山世光在试图解决的问题。

表情检测领域有个概念叫做“面部动作单元(Action Unit,以下简称AU)”。这一概念源自美国心理学家Paul Ekman开创的面部运动编码系统。该系统从人脸解剖学的角度定义了44个AU,用于描述人脸局部区域的肌肉运动。

山世光课题组研发的AI模型能检测20多种不同的面部动作,这也导致数据的标注非常麻烦。而且,只有专业人士才能准确地进行数据标注。“标注一分钟的视频,可能需要一个专家花半小时以上的时间才可以。据我们所知能做这件事的人实际上非常少,也导致这个领域的数据非常匮乏。”山世光说。

中科院专家揭秘“AI读心术”:能识别情绪,还能辅助诊断抑郁症-2.jpg

部分面部动作分类。

为了解决数据匮乏的问题,山世光所在团队尝试把相关领域的知识,引入到数据样本中,让机器学习从纯数据驱动转化为知识和小样本、弱监督的数据共同驱动。

虽然AI“读心”技术距离全面、广泛地应用还有很长的路要走,但是山世光认为,算法必定会越来越深刻深刻地理解人类的情感。“西塞罗说,世界一切尽在脸上,我们能够从脸上看到很多的内容,比如说中医望闻问切中的‘望’,其实是通过看去诊病。”他说,接下来若干年,人类也许会从“看脸时代”进入“读心时代”。“读心对于我们去打造有温度、有情商的AI,我认为是至关重要的。”

采写:南都记者潘颖欣 冯群星
回复

使用道具 举报

大神点评1

ceztebfmf 2022-12-30 13:13:59 显示全部楼层
转发了
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册