找回密码
 立即注册
搜索

澳门科技大学韩子天:车载机器人的拟人化与自动交互

2021年6月17日-19日,由中国汽车工业协会主办的第11届中国汽车论坛在上海嘉定举行。站在新五年终点上,本届论坛以“新终点 新战略 新格局——推进汽车产业高质量发展”为主题,设置“1场闭门峰会+1个大会论坛+2个中外论坛+12个主题论坛”,片面集聚政府主管指导、全球汽车企业首领、汽车行业精英,共商汽车强国大计,落实国家提出的“碳达峰、碳中和”战略目的要求,助力构建“双循环”新发展格局。其中,在6月19日上午举行的主题论坛“智能座舱创新技术论坛”上,澳门科技大学澳门系统工程研讨所副教授韩子天发表了主题演讲。以下内容为现场演讲实录:



各位早上好!感激建民教授、汽车城指导的支持,以及各位同仁在星期六的早上共聚一堂,一同分享,一同了解智能座舱新技术。

我演讲的主题是车载机器人的拟人化与自动交互,我先把刚才发布的白皮书简单引见的状况给各位展现一下。

这是下载链接,假如各位有兴味的话可以扫描二维码。正如王教授刚才提到的,《智能汽车车载机器人技术白皮书》有课题,课题是澳门资金发展资助的课题,调研了国内外40多家主机厂,将他们的想法、需求以及在车载机器人方面推进的停顿停止交流提炼,开了十几次会,把目录定了上去。

白皮书的目录次要是先将车载机器人定义,车上的车载机器人有虚拟的也有实体的,会有定义。特别对虚拟机器人提出来做描画、陈述,目前的确有比较多主机厂选择了走虚拟助理的方式。

由芳教授特别提要有小章节说一下车载机器人在车上有什么用,所以专门有一个小章节是车载机器人能做什么,能带给我们什么。

第二章是关于关键技术,从硬件、软件、操作系统、算法、平台软件全体关键技术。

比较重要的一章是关于场景,机器人是AI的载体,搭载上去后要把车上的场景呈现出来。场景呈现由于多了机器人,所以是“场景行为”,和往常讲的场景还多了一个行为。

把场景行为的定义和中科创达做了沟通,他们原来有很好的场景定义工具软件叫Kanzi,基于Kanzi延伸构思,怎样用Kanzi定义车载机器人的场景、行为。在车上有人车环境,加下行为就可以把机器人定义得很好。

最后就如今、曾经研发过、展现过车载机器人的团队和企业做了罗列整理,作为参考。

就像刚才王教授说的,白皮书是从往年终末尾整理,市场不断有变化,由于工夫节点,所以先定稿了。定稿不代表工作会中止,由于工作才刚刚末尾,曾经和电子工业出版社签了合同,预备在年底出一本正式的书。

白皮书是抛砖引玉,置信在座专家有更多比我们更有体会、感受、阅历能够和我们分享,算是抛砖引玉,希望你们可以将想法跟我们分享,不扫除会成为我们的章节。感激各位积极关注白皮书,可以做分享发放给你们的冤家,帮我们征集意见。

车载机器人是交互的演进,最早的车是案件式的,后来演进到HMI(Human Machine Interface),HMI是由屏和手指互相交互、传递控制信息。

如今曾经看到比较多将来汽车的Nomi出台后,把车载机器人从实验室带到实践量产车上,是很大的创新。记得Nomi是在2017年底发布,2018年年终我就收到电话,上海有些冤家也在做智能交互,跟我们联络了一些长安汽车、北汽新动力、上汽等,末尾讨论车载机器人预言,后来做了车载机器人的预言项目、量产项目。

项目从一方面告诉我们,车载机器人是方向,在智能座舱里交互更关注的是拟人化和自动交互,拟人化听得比较多,希望它是拟人的交互场景,而不是冰冷的屏。

明天我会为大家分享车载机器人将来两个比较重要的技术方向,也写在白皮书里:

一是拟人化。光有屏的时分很难做拟人化,光有屏,很难想象是拟人的,需求有一些笼统,无论是实体、虚拟的笼统,让我们联想到拟人。

二是自动交互。自动交互是目前在交互设计里比较重要的,目前很多交互都是被动的,一问一答,一个指令一个回答,或者一个指令过去没有回答。自动交互能表现机器人的拟人化,能让我们感遭到它的智能,懂你才会自动跟你讲话,假如不懂你的话只能听你的指令。

明天次要分享两点:一是拟人化,二是自动交互。

一、车载机器人拟人化。

车载机器人的定义做过很多轮研讨和不断修正,车载机器人是服务机器人里的社交机器人Social robot,是个人交互机器人。昨天我在商场吃饭,吃完饭走出来看到有几个机器人站立在那里,这也是服务机器人,但服务的对象比较多,是公众机器人。

社交机器人比较强调社交属性、情感属性、个人属性。往往这种机器人更需求拟人化,功能次要是提供驾驶辅助信息,提升人机交互才能。机器人就是硬件,搭载了AI技术才具有智能,是搭载体。机器人本身并不能完成功能,而是需求搭载的技术来完成。

普通来讲,服务机器人都会有视觉、语音、前端智能、环境感知三类智能。这也是人类具有的智能,能看东西,也能语音讲话。搭载技术的目的是让它模拟和反复人类的行为,提升全体驾驶体验。

车载机器人次要希望摆脱在车上交互的设备感和指令感,由HMI向HRI退化。

(如图)左边是MIT在2009年做的世界上第一款AIDA感交互和驾驶辅助,名字把车载机器人的初心讲清楚了一方面是情感交互,是陪伴的。想象着在驾驶舱旁边都有副驾驶,为什么要有副驾驶?由于我们需求人陪伴,由于你会打瞌睡,赫哲你需求找人帮你找地图,但你的手抓着方向盘。MIT的AIDA很笼统地完成了这两个工作,但是没有量产。

左边是我们团队两年前在实验室做的,次要是让机器人模拟人,车载机器人是模拟反复人的行为,和人的动作伴随产生信任感,这款当时在实验室,如今曾经上了实车。

交互的拟人化有五方面可以着手:

(1)语音交互。毕竟在车上大量交互、指令都是经过语音停止的,所以要让语音交互更自然,和人类的言语更贴近,提升拟人化的程度。

(2)多通道交融。包括人脸、手势等交互,多通道交融。

(3)智能体要拥有明白的人设,它不是机器,它要有名字、性情、年龄,需求有人设。

(4)需求有自动交互才能,机器人区别于设备,它能自动,要有自动性才能表现出机器人的功能。

(5)情感判别和反馈智能。

这五点是目前在技术上兑现拟人化的方法。

第二,自动交互。

除了拟人化,自动交互可以让车更智能,自动交互也定程度上替代反复性工作,它学习到你反复性、习气性的行为之后,能自动讯问你一些行为、帮你执行一些行为。协助我们解放了反复工作的场景。

自动交互是将来人机交互和人工智能系统的重要发展方向,才能千人千面。

怎样兑现自动交互?自动交互可以从三方面兑现:

首先,给机器人添加自动打招呼问候。另外,本地语音语料可以自动学习;最后,用户习气记忆。这是目前我们在主机厂兑现的三点,自动交互不是看定义不是看文字怎样做,而是这三点,假如大家有更丰富的阅历可以和我们分享。

前两点还好,比较容易完成,最后一点怎样完成?我们做了完成方法,完成方法要从人工智能着手。

如今车上大部分智能都是深度学习,包括用户行为习气都是深度学习。这是有弊端的,目前深度学习出现两个不足:

(1)深度学习是归纳系统,只是把大部分人习气找出来,用条件无法学习,但深度网络宏大的特征没有办法总结归纳出来的特征他帮你整理出来。深度学习系统是很好的归纳系统,是发现共性的。但个性怎样发现?发现不了,深度网络训练出来的形式是不会有个性的。做的很多算法是做情感辨认、表情辨认,只是把共性找出来了,有些人的个性无法满足。

深度网络在车上的运用有很大的缺陷,车主买了车当前十年或者十年以上都在车上发生行为,行为数据很难反馈到大数据中心、深度学习中心,让他按个体的习气用你的规律,强迫别人的规律。

深度学习存在不足,我们团队有算法叫宽度学习(BLS),宽度学习算法是这几年获得关注的。简单来说,深度学习是归纳系统,宽度学习是记忆系统。记忆系统是可以经过大批数据,个体在车上发生的所谓行为数据全体出来你的习气。

在主机厂用算法兑现了,发现的行为习气可以针对个体可以预测,整理出规律当前就会预测,预测就能构成自动交互,这是兑现自动交互的方法。

由于工夫关系,把将来在车载机器人、交互系统方面的拟人化、自动交互给大家分享了。再次约请各位针对《智能汽车车载机器人技术白皮书》多提宝贵意见,非常感激各位,谢谢!

来源:第一电动网

作者:王鸣幽

本文地址:https://www.d1ev.com/news/renwu/149485

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册