facebook机器人对话失控(Facebook机器人)

安妮 编译整理

量子位 出品 | 公众号 QbitAI

人形机器人的相似度与人类的好感度不成正比。根据日本机器人专家森证弘1970年提出的恐怖谷理论,随着物体拟人程度增加,人类的反应呈增-减-增曲线。当拟人度达到某一程度时,人类好感度会大幅下降,甚至还会觉得拟人物惊悚可怕。

△ 恐怖谷理论/维基百科

Facebook正在努力让自己的机器人尽快跨过恐怖谷。

近日,Facebook人工智能实验室的研究人员就开发出一个善于表达情绪的机器人。这是由一个由AI算法操控的虚拟动画机器人,在观察几小时人类Skype聊天视频能模仿人的表情。

68个面部标记区块

为了更好模拟人类的情感表达方式,研究人员将动画中的人脸分成68个区块,在Skype对话中重点观察这些部位的变化。在交谈中,人类的点头、眨眼和嘴部的动作变化都会反应出来,机器人会学会这些面部变化。

△ 上图为捕捉到的人类对话中的面部表情,下图为系统对面部表情的追踪

观察一段时间后,动画机器人可以实时预测可能出现的面部表情。如果视频中人在笑,机器人也可能张开嘴,或者歪着头。

测试结果

随后,Facebook研究人员进行了一组测试。志愿者们观看了人和人对话的原版视频,以及训练后的机器人模拟的反应,他们认为机器人表现得自然且真实。

△ 图片中线条高低表示嘴部及眼部的张合度,可以看出用户和智能体预测的表情基本一致

因为目前算法还只能表现在动画中,尚不清楚算法支持的人形机器人的反应如何。

学习面部交流的基本规则不足以创造真正的对话伙伴,以色列特拉维夫大学的博士生Goren Gordon说,“真正的面部表情是要基于所思所感的。”

“在这种情况下,Facebook系统会创造出一种平均性格”,卡内基梅隆大学语言技术学院副教授louis-Philippe Morency说。在未来,机器人的性格可能更复杂,或能根据谈话对象调整自己的性格。

机器人不擅长人类之间互动的这些微妙元素,Gordon说。他同时表达了对机器人的期望:“在某一时刻,我们终会走出恐怖谷,走到另一边。”

△ 日本大阪大学智能机器人研究所设计的人形机器人女播音员Otonaroid

Facebook将在本月24号温哥华召开的IROS 2017上展示这项技术,目前已将这项技术的论文《Learn2Smile: Learning Non-Verbal Interaction Through Observation》公开。

论文摘要

在这篇论文中,我们研究了人类和智能体面对面交流中的非语言面部暗示,提出了基于用户表情自动学习并升级智能体面部情感表达的方法。我们用数百个视频训练神经网络,包含人类相互对话的视频,这其中没有加入外部的人为监督。

实验结果显示,我们的智能体面部标记模型可以长时间预测人类的表情;对比结果也表明,模型明显优于基线方法。蕞后,我们进行了更深入的研究以更好地理解模型性能。

本项研究的数据集已经开放,方便领域内的其他研究者使用。

蕞后,附论文下载地址:

https://www.dropbox.com/s/ljfnv3i1jw0uzbh/learn2smile-learning-verbal.pdf?dl=0

— 完 —

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号对话界面,回复“招聘”两个字。

量子位 QbitAI

վ\'ᴗ\' ի 追踪AI技术和产品新动态

海外精品引流脚本--最强海外引流  

官网:www.facebook18.com

唯一TG:https://t.me/Facebook181818

facebook机器人对话失控(Facebook机器人)
广告也精彩

相关文章