要闻分享| 关注中国| 逆耳忠言| 不平则鸣| 情感天空| 健康生活| 流行时尚| 保险理财| 讽刺幽默| IT与游戏| 信息交流| 华发移民| 华发工作| 摄影美图

社会聚焦| 旅游天地| 娱乐八卦| 音乐视频| 校友互动| 网络社区| 房屋安家| 教育培训| 中医瑰宝| 专栏作者| 科技文化| 华发留学| 华发红娘| 关于本站

华发网China168.info海外中文门户网站

 找回密码
 立即注册

扫一扫,访问微社区

查看: 557|回复: 0

人工智能该如何远离偏见与歧视

[复制链接]
发表于 2018-10-15 18:32:53 | 显示全部楼层 |阅读模式
1.jpg


  越来越多的高技术产业和数字服务都以人工智能和机器学习为基础。但是,我们必须看到:人类社会存在的偏见和歧视也会被复制到人工智能系统中。因此,我们应对人工智能的整个程序进行监管,包括信息输入输出、数据、算法、模型等,以克服偏见与歧视在人工智能领域的延续。

  在人工智能问题上,有个所谓 “黑盒子”的问题,即我们不能看到程序算法的内部,因此无法理解人工智能是如何做出决策的。如果没有解决好这个问题,一些涉嫌歧视的数据将被算法永久性地编码进人工智能程序中,从而影响未来人类与人工智能的关系。不过,仅靠纯粹的技术手段,很难实现对人工智能的每个阶段实现无漏洞监控,同时还需通过人工评估和干预,才能确保偏见和歧视被彻底消除。

  要消除人工智能潜在的歧视问题,第一步是打开算法“黑匣子”。出于专利保护和商业机密的考虑,许多公司的人工智能程序算法都处于保密状态。不过,这一状况正得到改变,目前人工智能领域正在加快代码的开源,制定新的透明度标准,来提高人工智能产品的可靠性。AI NOW是美国纽约大学一个倡导算法公平的非营利组织,它提倡 “程序员必须对算法得出的结论做出解释,否则就不能投入使用”。

  目前,相当一部分互联网巨头开始正视这一点。如谷歌开发的几个人工智能项目,程序员为机器学习增加了手动限制,使输出的信息更准确,可理解性更高。美国国防部高级研究计划局还资助了一项名为XAI(可解释的人工智能)的计划,旨在打开人工智能的 “黑匣子”,以保证用户更好地控制人工智能程序。微软首席执行官萨蒂亚·纳德拉也认可 “算法问责制”的必要性。

  但通过打开算法 “黑匣子”,制定法规和政策来确保消除人工智能的偏见和歧视,这还远远不够。因为偏见与歧视不光存在于算法中,还存在于人工智能得出的结论、预测和建议中。

  以虚拟助手为例,处理比较简单的任务时,人工智能系统会偏向使用女声(例如Apple的Siri和亚马逊的Alexa);而解决疑难问题时,系统则选用男声(例如IBM的Watson和微软的爱因斯坦)。由于在人工智能行业女性从业人数偏少,这更是增加了性别歧视的可能性。

  鉴于此,我们应加强对人工智能所使用的数据、算法以及模型的评估,以剔除潜在的可导致偏见与歧视的因素,并且加强程序员的 “算法问责制”,这样才能提高人工智能产品的可靠性,最终建立起人机信任。
来源: 文汇报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|关于我们|联系我们|用户须知|小黑屋|法律申明|隐私通告|华发网海外版china168.info

GMT-6, 2024-11-24 02:18

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表