要闻分享| 关注中国| 逆耳忠言| 不平则鸣| 情感天空| 健康生活| 流行时尚| 保险理财| 讽刺幽默| IT与游戏| 信息交流| 华发移民| 华发工作| 摄影美图

社会聚焦| 旅游天地| 娱乐八卦| 音乐视频| 校友互动| 网络社区| 房屋安家| 教育培训| 中医瑰宝| 专栏作者| 科技文化| 华发留学| 华发红娘| 关于本站

华发网China168.info海外中文门户网站

 找回密码
 立即注册

扫一扫,访问微社区

查看: 164|回复: 0

智能语音助手为何总“犯傻”?清华教授黄民烈、小冰CEO李笛这样说

[复制链接]
发表于 2021-8-9 19:21:18 | 显示全部楼层 |阅读模式

面对你的呼喊,她充耳不闻;

面对你的疑惑,她答非所问;

面对你的命令,她颠三倒四;

这就是Siri,你的“智能”语音助手!

自2011年Siri上线以来,智能语音助手已经走过了10个年头,但用户对它的吐槽不绝于耳,比如有时会唤醒失败,或者答非所问。这些问题的背后原因是什么?智能语音助手目前处于什么水平?终极形态会是怎样?如何看待它和用户之间的关系?

近日,搜狐科技全新直播栏目《AI十二谈》首期圆满举行,清华大学计算机系长聘副教授、智能技术与系统实验室副主任黄民烈,“小冰之父”、小冰公司CEO李笛就这些问题进行了精彩的观点分享。

《AI十二谈》是搜狐科技今年下半年重磅推出的全新栏目,将针对大家日常关心、关注的人工智能的痛点问题,邀请相关专家、企业高管组成嘉宾阵容,进行知识科普,答疑解惑。

1.jpeg


在首期直播中,黄民烈教授分析称,智能语音助手唤醒失败的原因跟没有带出关键词、算法等有关,答非所问则受到解析错误、匹配程度、语言等因素影响。他认为,未来智能语音助手发展的最理想的境界,就是人机协作,把所有的事情都交给智能助理去做还是不太靠谱。

李笛认为,目前智能语音助手还处在特别早期的阶段,而用户的期望过高。他还表示,很难定义什么是最好的智能助理,因为每个人的需求不同,但智能语音助手可以成为人的朋友。

两位嘉宾还就智能语音助手发展中的伦理、隐私等问题进行了探讨。李笛认为,目前全球范围内,AI伦理都还处于非常早期的阶段,数据到底应该怎么使用等问题都还没有明确,某种意义上只能靠自律。

黄民烈表示,智能语音助手人性化体验和法律伦理边界的平衡,主要涉及到个性化技术和持续学习两个方面,在这个过程中,需要让机器人形成正确的价值观。

智能语音助手为何会唤醒失败或答非所问?

使用过Siri等智能语音助手的朋友可能都遇到过这样的情况——呼唤它好多次,但是它却没有响应,或者答非所问,甚至给出匪夷所思的回答。

黄民烈认为,现在很多语音助手都依赖于特定的关键词做唤醒,没有带出相应关键词就无法做出响应。这还涉及到算法的鲁棒性(指系统受到持续扰动保持原来状态的能力)问题,在同样的场景、同样的声音、同样的命令下,语音识别可能会有一些小错误或者小扰动,这些再经过算法去做语义分析,可能就会跟预想的不一致,就没有办法给到正确的响应。

作为“小冰之父”,李笛认为,智能助手最好的唤醒方式是不需要唤醒词,应该像人一样,能够判断用户是不是在跟它交流,同时能够不停地边听边说边想,也就是所谓的全双工的方式。他表示,今天的AI产品或者智能语音助手还处在特别早期的阶段,目前的准确性可能还做不到像用户所期望得那样好。

对于智能助手有时会答非所问,黄民烈分析称,这主要是两方面原因。一是问题解析错误,比如语音识别错误、结构化分析对话意图出错等。另一个原因就是问题和答案的相关性与匹配度不够高,这里面的算法会综合决定答案好不好、质量高不高。

同时,他认为,这和语言本身也有一定关系。资源丰富的语言相对资源贫乏的语言做起来更加容易,而中文没有明确的语法和组合的规则,英文则相对来讲比较固定,因此中文自然语言处理会面临更多难点。

而在李笛看来,智能助手或人工智能交互的场景比较难做,主要因为缺少弹性空间。“搜索引擎会有多个结果,可以在一定程度上进行补充,点击的时候相当于做了一次标注,可以促进它去不断提高。但对话没有这么多弹性,它很难判断自己回答得到底好不好,这样就比较难以形成数据和训练上的交互回路,系统就不太容易提高。”李笛分析称。

同时,李笛认为,智能语音助手的交互更多是观点,观点没有对错,且有很多不同分支,这也给训练智能语音助手提出很多新的难题。此外,测试者的心态也挺重要,如果测试者不停问问题,那么语音助手通常表现也不会很好。

以Siri为代表的智能语音助手的这些问题影响了使用体验,在一定程度上也导致语音助手的普及率很高,但实际使用率偏低。黄民烈就在分享中透露,自己本身并不怎么用语音助手,仅会在开车等特殊场景下使用。他认为,很多情况下用语音并不是最自然、最方便的方式,反而键盘是最快捷的,这也是智能语音助手交互上面临的困难。

智能语音助手替代不了人类助手

无论是智能手机,还是智能音箱、智能手表、智能车载,语音助手在某些场景下已经成为我们生活的帮手。如何看待智能助手和人的关系?智能语音助手的终极形态又会是什么样?

黄民烈认为,智能助手能够达到的最高境界或者说最理想的境界,就是人和机器之间应该是一种协作的关系。“我不太相信智能助理能够替代人类助手,把所有的事情都交给智能助理去做还是不太靠谱。智能助手的定位不是替代人,一定是人和机器和谐相处,人机共荣。”黄民烈表示。

对智能助手本质不同的看法,可能也会带来不同的结果。“当你认为跟你交互的是一个系统的时候,会把它物化,那么就不会去关注它的其它方面,人的容忍度也会相应低很多,防备心也会高很多。”李笛表示,但当把它视为有情生物的时候,一切都会反过来。

李笛认为,人工智能无论是向人表达它的情绪和交互时的主题,还是表现出绘画、创作这些能力,都是为了让人把它当成一个可以对等的交互对象来看待,这也会更有利于人工智能系统的发展。“当我们看到更多人在跟智能语音助手交互的时候,它的topic分布(主题分布)和其他人的交互topic分布越来越接近的时候,表明语音助手越来越被当做一个人来看待。”

在他看来,很难定义什么是最好的智能助理。他举了一个真实助理订汉堡的例子,一种情况是助理按照指令完成任务,甚至还会在第二天自动订好汉堡;另一种情况是,助理根据自主判断,出于健康考虑,会拒绝执行命令,借此跟人建立比较好的长期关系,从而得到更多信任,承担更多元化的工作。

“哪个是最好的助理?是完成任务的?还是无所不能、无所不知的?很难说,每个用户有不同的需求,难点在这儿。”李笛表示。

目前,智能助手依然存在很多瓶颈,不同厂家的产品表现也存在一定差异,而Siri作为最早上线的一款智能语音助手,也一直被吐槽。李笛认为,这和技术水平的高低,以及授予的权限多少都有关系。

他认为,Siri更大的价值是尝试开始给智能语音助手一个相对比较拟人化的定位,这给用户营造了一个非常科幻的、很高的期望值。“我们这么多年一直都还在为这个期望值而奋斗,这条路还很长,非常长。”

黄民烈同样认为我们对智能语音助手的期望过高。他认为,智能语音助手目前面临很大瓶颈,就是对于能处理的东西能够处理得很好,但是不太能处理的东西就会犯非常愚蠢和傻的错误。“智能助手会设很多技能、很多命令,做得到自然还不错,所以我们期望很高,但只要稍微变一点点,就会不行,这时候心理落差就会非常大。”

他提到,智能语音助手虽然在技术和产品上取得很大进展,但在自然语言理解、算法鲁棒性、领域外的泛化能力等方面也面临新的挑战。“这些挑战随着技术的迭代、产品的发展,会变得越来越多。”

语音助手也要有价值观

随着智能语音助手更多渗透到我们的生活中,安全和隐私问题开始逐渐成为人工智能发展过程中的一大关注焦点,比如我们在家里告诉家人银行卡密码的时候,会不会被手机上的智能助手或家里的智能音箱偷听到?

对此,黄民烈认为,从技术上来讲,最难的是智能助手得知道什么样的信息属于隐私,听到是一回事儿,最关键的是会不会说出来,什么样的信息能说,什么样的信息不能说,这才是最根本的地方。

“人在讲任何话的时候可能知道潜在的后果是什么,会带来什么样的影响,但机器人它不知道,这也涉及到各种常识,相关研究是很重要的事情。”黄民烈说到,这可以通过技术的手段来实现。

由安全和隐私而引发的信任问题可能会成为阻碍智能语音助手进一步发展的绊脚石。咨询公司埃森哲曾经发布的一项调研显示,从国内受访者来看,安全顾虑(45%)、设备未能理解用户需求(42%)以及隐私问题(40%)是三大最主要的担忧。此外,有34%的中国消费者表示,他们不知道哪些个人数据为智能语音助手所用,透明度有待提高。

一般来说,要想使得智能语音助手达到更好的体验,就意味着需要获取用户更多的信息,或让渡自己更多的权利,如何把握这个边界非常重要。

李笛在分享中就提到了常见的Long-term memory(长期记忆网络,一种算法,可以记住长时间段的信息)问题,将其放到产品中来,就会涉及到AI伦理问题——是不是允许对用户进行画像?是不是能够记录或者尝试分析用户各方面的特点?

他表示,AI伦理还处于非常早期的阶段,但从某种程度上来讲,智能语音助手需要了解到的信息不用那么多,就可以做到和人之间是很好的朋友关系。但实际情况是用户会恐慌,企业也会恐慌。他认为,人和智能语音助手要想达到很默契的状态,Long-term memory不需要特别多。

黄民烈从技术上就智能语音助手的人性化体验和法律伦理的边界进行了分析。他认为,这涉及到两个关键点,一是个性化,其本质是把助手的能力跟用户的个人信息、偏好、爱好做匹配;二是真正好的智能助手应该具有持续学习的能力,在跟人交互的过程中能够听从人类指令,可以从人的反馈中不断学习,自动地去积累知识,让它的能力持续跃升。

“这就涉及到很多价值判断,得知道什么东西学,什么东西不学,其实就是要给机器人一个正确的价值观。”黄民烈表示,但这个价值观是什么非常复杂,跟文化、地域都有关系,还需要去探索。

来源:科技日报
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|关于我们|联系我们|用户须知|小黑屋|法律申明|隐私通告|华发网海外版china168.info

GMT-6, 2021-9-18 11:36

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表