要闻分享| 关注中国| 逆耳忠言| 不平则鸣| 情感天空| 健康生活| 流行时尚| 保险理财| 讽刺幽默| IT与游戏| 信息交流| 华发移民| 华发工作| 摄影美图

社会聚焦| 旅游天地| 娱乐八卦| 音乐视频| 校友互动| 网络社区| 房屋安家| 教育培训| 中医瑰宝| 专栏作者| 科技文化| 华发留学| 华发红娘| 关于本站

华发网China168.info海外中文门户网站

 找回密码
 立即注册

扫一扫,访问微社区

查看: 1037|回复: 0

AI这么会抢饭碗,这次抢到了谁的头上?

[复制链接]
发表于 2018-3-28 07:52:44 | 显示全部楼层 |阅读模式

      不久前,人工智能领域爆出了大新闻。20名经验老道的美国律师被AI击败了!

  好消息是,这不是律师在法庭辩论上输给了AI。

  坏消息是,输掉的这个领域是大量律师工作的核心。

  创造出这个AI的公司叫LawGeex(Law、Geek和Logic的合成词),这家2014年才成立的公司其目标是制造出能审阅法律文书的AI。这次比赛涉及的文书,是保密合同。

4.jpg


  AI与人类的竞赛

  所谓保密合同(NDA, Non-disclosure agreement)是在企业之间签署的合作协议,目的是确保互相之间共享的知识和资料不会被第三方知道,尤其是竞争对手。审阅和批准这类协议是企业法务人员日常工作的一部分。但是企业面临着人力资源短缺和工作量增加的双重困扰,一份合同的审批可能会要一周时间,这拖累了企业的效率。

  和目前大部分使用的AI一样,LawGeex的AI使用的也是深度学习技术。但是处理法律问题,会遇到独特的挑战。

  虽然法律文书也是用人类语言写成的,但是法律用词和我们日常用词的意思有很大差异。LawGeex的报告中提到,开发者无法使用现成的自然语言处理技术,只能另起炉灶。此外,处理法务的AI需要极高的准确度,任何错误都有可能给企业带来风险,造成经济损失。相比而言,判断一部佚名的戏剧是不是莎士比亚写的,风险要小很多。这些都是技术难点。

  LawGeex的AI有个非常重要的特点,它能够理解文字的意思,分析其中的概念。这个功能是靠内置的法律语言处理(Legal Language Processing, LLP)和法律语言理解(Legal Language Understanding, LLU)模块实现的。早先的算法是搜索和匹配关键词,如果关键词被省略了,算法就无能为力了。对于LawGeex的AI来说即便文字中个别词语不出现也没问题,因为它理解了含义。

  比赛的过程是让21名参赛选手各自分析5篇保密合同,定位30个法律问题出现在合同中的什么地方。为了确保比赛的公正性,一群顶尖律师组成的裁判团选出了这5份合同,并制定了这30道题目。这些题目涵盖了这类协议中可能出现的各类法律问题。这不是仅仅靠搜索文字就能轻松完成的任务,而是要正确理解合同的内容。每名选手有4个小时的时间。

  参赛的21名选手中人类组20人,这些法律行业的精英有些是自由职业者,有些在著名律师事务所工作,有些是大公司的法务,一些人有在高盛、思科等大公司工作的经验。

  虽然以前也有 AI和律师之战,但是之前的比赛不是在同等难度下进行的。而这次的比赛比的是律师工作的核心——理解合同的条款,判断合同的风险,审阅保密合同是所有参赛的人类和机器都擅长的。

  结果呢?AI能达到平均94%的准确率,表现最好的律师的平均准确率是85%。而在时间使用上,AI26秒完成任务,人类最快需要51分钟,差异太明显了。

  律师真的要被AI取代了吗?

  在谈论AI抢走人的饭碗这个极富争议的话题时,我们总是一遍又一遍听到同样的声音——那些低技能重复性劳动会被AI替代。实际上据一些商业分析公司的研究,高回报的脑力密集型职业比如财务经理,物理学家,甚至是CEO都极有可能被AI取代。

  拿律师来说,站在法庭上唇枪舌剑的律师们可能暂时没有这个风险。那些在律所中的顶级律师们似乎也不必担忧,他们最重要的工作是帮重要客户解答法律问题,有了LawGeex AI这样的工具反倒是解放他们的生产力。风险最高的是律师助理,他们才刚进入这个行业,做的都是低附加值的法律文书审阅工作。

  已经有公司在使用LawGeex的技术了,我们可以在LawGeex的网站首页上看到几家著名律所和会计公司的名字。当文书工作交由更加高效的机器来处理,行业的整个工作流程会发生巨大变化,律师助理的职责也会被重新定义。

  不过在用AI代替律师之前还有几个问题要问。人工智能犯错了怎么办?犯错了就会给企业带来风险,如果未来用于刑法问题的AI出现,就更不能犯错了。那么如何判断它犯错了呢?

  这并不仅仅是法律AI的问题,也是所有AI共同面对的问题。谷歌的AI就犯过一个错误,2015年谷歌图片App将一位黑人的照片识别成大猩猩,2018年初有好事的媒体又测试了一次,发现谷歌并没有修复这个问题,只是单方面屏蔽了几个敏感的关键词,似乎这个问题修复起来非常复杂。

  同样也是谷歌,有研究机构发现,不同性别的人用谷歌搜工作会得到有偏向性的结果。女性搜到的高收入工作比男性少。

  这类问题指向了AI算法的一个核心问题——偏见(Bias)。

  偏见的来源有两种,一个是设计程序的人,一个是用于训练AI的数据。以前只是知道AI带有偏见所以会得到错误的结果,但没有讨论偏见的来源,而一种新观点认为偏见来源于设计者,AI只是放大了设计者偏见。AI被越多的人越多的场景使用,它的偏见就会扩散开来。

  想象一下带有偏见的法律AI被扩散开来就让人不寒而栗。所以需要有监管机构或者第三方公司来测试和监控 AI,至少要能识别出这些风险,能够去补救它。

  不过话说回来,LawGeex的AI既然这么好用,财富500强企业估计已经等不及了吧?

  

来源:网易新闻
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|关于我们|联系我们|用户须知|小黑屋|法律申明|隐私通告|华发网海外版china168.info

GMT-6, 2024-4-20 01:22

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表