前沿 社会

AI也要抢律师的饭碗了吗?

保密合同 法律 人工智能 偏见

不存在者 gavin_x 共同发表于  2018-03-08 10:22

冬天似乎还没过去,人工智能领域又爆出了大新闻。20名经验老道的美国律师被AI击败了!

好消息是,这不是律师在法庭辩论上输给了AI。

坏消息是,输掉的这个领域是大量律师工作的核心。

创造出这个AI的公司叫LawGeex(Law、Geek和Logic的合成词),这家2014年才成立的公司其目标是制造出能审阅法律文书的AI。这次比赛涉及的文书,是保密合同

AI与人类的竞赛

所谓保密合同(NDA, Non-disclosure agreement)是在企业之间签署的合作协议,目的是确保互相之间共享的知识和资料不会被第三方知道,尤其是竞争对手。审阅和批准这类协议是企业法务人员日常工作的一部分。但是企业面临着人力资源短缺和工作量增加的双重困扰,一份合同的审批可能会要一周时间,这拖累了企业的效率。

和目前大部分使用的AI一样,LawGeex的AI使用的也是深度学习技术。但是处理法律问题,会遇到独特的挑战。

LawGeex公司主页。图片来源:LawGeex

虽然法律文书也是用人类语言写成的,但是法律用词和我们日常用词的意思有很大差异。LawGeex的报告中提到,开发者无法使用现成的自然语言处理技术,只能另起炉灶。此外,处理法务的AI需要极高的准确度,任何错误都有可能给企业带来风险,造成经济损失。相比而言,判断一部佚名的戏剧是不是莎士比亚写的,风险要小很多。这些都是技术难点。

LawGeex的AI有个非常重要的特点,它能够理解文字的意思,分析其中的概念。这个功能是靠内置的法律语言处理(Legal Language Processing, LLP)和法律语言理解(Legal Language Understanding, LLU)模块实现的。早先的算法是搜索和匹配关键词,如果关键词被省略了,算法就无能为力了。对于LawGeex的AI来说即便文字中个别词语不出现也没问题,因为它理解了含义。

比赛的过程是让21名参赛选手各自分析5篇保密合同,定位30个法律问题出现在合同中的什么地方。为了确保比赛的公正性,一群顶尖律师组成的裁判团选出了这5份合同,并制定了这30道题目。这些题目涵盖了这类协议中可能出现的各类法律问题。这不是仅仅靠搜索文字就能轻松完成的任务,而是要正确理解合同的内容。每名选手有4个小时的时间。

参赛的21名选手中人类组20人,这些法律行业的精英有些是自由职业者,有些在著名律师事务所工作,有些是大公司的法务,一些人有在高盛、思科等大公司工作的经验。

虽然以前也有 AI和律师之战,但是之前的比赛不是在同等难度下进行的。而这次的比赛比的是律师工作的核心——理解合同的条款,判断合同的风险,审阅保密合同是所有参赛的人类和机器都擅长的。

结果呢?AI能达到平均94%的准确率,表现最好的律师的平均准确率是85%。而在时间使用上,AI26完成任务,人类最快需要51分钟,差异太明显了。

律师真的要被AI取代了吗?

在谈论AI抢走人的饭碗这个极富争议的话题时,我们总是一遍又一遍听到同样的声音——那些低技能重复性劳动会被AI替代。实际上据一些商业分析公司的研究,高回报的脑力密集型职业比如财务经理,物理学家,甚至是CEO都极有可能被AI取代。

拿律师来说,站在法庭上唇枪舌剑的律师们可能暂时没有这个风险。那些在律所中的顶级律师们似乎也不必担忧,他们最重要的工作是帮重要客户解答法律问题,有了LawGeex AI这样的工具反倒是解放他们的生产力。风险最高的是律师助理,他们才刚进入这个行业,做的都是低附加值的法律文书审阅工作。

已经有公司在使用LawGeex的技术了,我们可以在LawGeex的网站首页上看到几家著名律所和会计公司的名字。当文书工作交由更加高效的机器来处理,行业的整个工作流程会发生巨大变化,律师助理的职责也会被重新定义。

不过在用AI代替律师之前还有几个问题要问。人工智能犯错了怎么办?犯错了就会给企业带来风险,如果未来用于刑法问题的AI出现,就更不能犯错了。那么如何判断它犯错了呢?

这并不仅仅是法律AI的问题,也是所有AI共同面对的问题。谷歌的AI就犯过一个错误,2015年谷歌图片App将一位黑人的照片识别成大猩猩,2018年初有好事的媒体又测试了一次,发现谷歌并没有修复这个问题,只是单方面屏蔽了几个敏感的关键词,似乎这个问题修复起来非常复杂。

同样也是谷歌,有研究机构发现,不同性别的人用谷歌搜工作会得到有偏向性的结果。女性搜到的高收入工作比男性少。

这类问题指向了AI算法的一个核心问题——偏见(Bias)。

偏见的来源有两种,一个是设计程序的人,一个是用于训练AI的数据。以前只是知道AI带有偏见所以会得到错误的结果,但没有讨论偏见的来源,而一种新观点认为 偏见来源于设计者,AI只是放大了设计者偏见。AI被越多的人越多的场景使用,它的偏见就会扩散开来。

想象一下带有偏见的法律AI被扩散开来就让人不寒而栗。所以需要有监管机构或者第三方公司来测试和监控 AI,至少要能识别出这些风险,能够去补救它。

不过话说回来,LawGeex的AI既然这么好用,财富500强企业估计已经等不及了吧?

比无纸化办公更厉害的,可能是无人化办公了。图片来源:Pixabay

附录:

在一个企业的法律顾问律师业务或者大型企业总法律顾问(General Counsel)日常需要面对的工作中,可能有如下对应的人工智能应用场景。

  • 非诉讼部分

极大的提高合同解读的效率。由于一个成熟市场和法制环境中的商业合同可会尽可能多的列举所有可能性,所以有越来越长的趋势。一个标准的增资协议(SPA)和股东协议(SHA)的套餐通常来说有10万个汉字左右,一次交易中的多方需要逐条讨论其中的权利义务约定,对于提供法律服务的专业机构而言保持注意力集中各方的商业意见、解读合同条款是需要消耗大量的工作小时和精力的。LawGeex这样的软件可以直观快速完成对于合同草案的要点整理工作,但之后的博弈还是离不开人类谈判参与者主导。

极大的提高起草合同的效率。以往起草一个“股权激励计划”标准的工作流程是:搜集客户决策机关的需求-进行问卷调查-整理合同提纲-分别起草7-10个不同的文件模板(总字数也直奔10万了)。现在已经上线运营的AI系统已经可以实现在SaaS环境下填写表单自动生成全套合同文本的初稿。与人类律师起草的文件相比,这种通过表格和算法生成的股权激励方案避免了人类会犯诸如前后数据不一致、换算期权时计算错误的可能性,也使我们以前需要一周完成的工作,现在一个上午就能解决。

法律问题的研究。目前的技术能实现的效果还在“百度百科”层面,即只能检索到具体问题其他答题者的回答(极可能是错误的),还无法做到理解自然语言中的含义和对一个具体法律问题得出符合“三段论”的逻辑解答。我们的工作路径往往是将一个具体而开放的法律问题(比如:离婚时婚前购买的房产将如何分割),分解成具体的检索关键词,然后在openlaw、无诉等专业数据库中检索“婚姻法、不动产”等关键词,命中的结论只是零碎的法条。然后我们在根据不同法条和司法解释之间的效力等级做出符合逻辑和法律效力的判断。

  • 诉讼部分

案件事实的拆解和争议焦点归纳。短期内看不到算法能实现的可能性。

法条检索和案例检索。同上面第三个流程,严格的讲算不上“智能”,只是搜索引擎而已。执行效率很大程度上取决于操作者的经验。

OCR和语音识别。这是近年最大的变化,我们的诉讼工作中经常需要将拍摄的证据卷宗整理成可编辑的word文档,也需要将录音证据中的对话整理成字幕文件,这些都需要大量的低技术含量工时。现在的OCR和语音识别软件已经极大的解放了这一部分的生产力。

举证和质证。短期内看不到算法能实现的可能性。

法庭辩论。短期内看不到算法能实现的可能性(很好的科幻小说题材)。

(编辑:Ent、锦衣Reload)

题图来源:Pixabay

显示所有评论

全部评论(15)
  • 1楼
    2018-03-08 12:22 科学二百五木头

    然而,区块链来了,传统合同很可能被智能合同取代,以后就是程序员和测试算法、形式验证取代律师了!!!

    [1] 评论
  • 2楼
    2018-03-08 12:40 tyh000

    不,律师不可替代的功能就是挑刺吧?

    [0] 评论
  • 3楼
    2018-03-08 12:40 在雨夜

    AI 会拉关系送礼搞潜规则吗?

    [2] 评论
  • 4楼
    2018-03-08 14:04 Z.t
    引用@科学二百五木头 的话:然而,区块链来了,传统合同很可能被智能合同取代,以后就是程序员和测试算法、形式验证取代律师了!!!

    合同永远都不是问题,有问题的是执行和双方的理解

    [0] 评论
  • 5楼
    2018-03-08 15:10 天降龙虾
    引用文章内容:以前只是知道AI带有偏见所以会得到错误的结果,但没有讨论偏见的来源,而一种新观点认为 偏见来源于设计者,AI只是放大了设计者偏见。AI被越多的人越多的场景使用,它的偏见就会扩散开来。

    在纠正偏见之前,谁先来定义一下什么叫“正见”???

    [2] 评论
  • 6楼
    2018-03-08 15:13 天降龙虾
    引用@在雨夜 的话:AI 会拉关系送礼搞潜规则吗?

    不需要啊,对AI来说,只要把人类的核弹全部打出去就能解决所有问题了,何必搞得那么复杂。。。。

    [0] 评论
  • 7楼
    2018-03-08 15:20 小皇大大
    引用@tyh000 的话:不,律师不可替代的功能就是挑刺吧?

    看过CSI吧。有一集就是一个影星杀了人,结果他花钱雇了一个超强律师,把csi小组的几乎所有证据全部推翻。

    好在最后Grissom老大牛,最后还是把那个影星送进去了

    [0] 评论
  • 8楼
    2018-03-08 15:41 小皇大大
    引用@小皇大大 的话:看过CSI吧。有一集就是一个影星杀了人,结果他花钱雇了一个超强律师,把csi小组的几乎所有证据全部推翻。好在最后Grissom老大牛,最后还是把那个影星送进去了

    或许以后可以造出AI版CSI小组

    [0] 评论
  • 9楼
    2018-03-08 16:12 汉尼拔wang

    把人从重复性工作解脱出来

    [1] 评论
  • 10楼
    2018-03-08 16:16 在雨夜
    引用@汉尼拔wang 的话:把人从重复性工作解脱出来

    AI存在的意义就是,你不需要知道为什么,你知道我让你这么干就行了。什么脏活累活没技术含量的活,都交给AI,人类负责运筹帷幄,掌握大方向······

    [0] 评论
  • 11楼
    2018-03-08 16:16 在雨夜
    引用@天降龙虾 的话:不需要啊,对AI来说,只要把人类的核弹全部打出去就能解决所有问题了,何必搞得那么复杂。。。。

    那它就打不出去

    [0] 评论
  • 12楼
    2018-03-08 20:35 5美金

    [2] 评论
  • 13楼
    2018-03-09 14:07 tyh000
    引用@小皇大大 的话:看过CSI吧。有一集就是一个影星杀了人,结果他花钱雇了一个超强律师,把csi小组的几乎所有证据全部推翻。好在最后Grissom老大牛,最后还是把那个影星送进去了

    所以说啊,现在这AI顶多能当法律顾问,上法庭还是算了吧

    [0] 评论
  • 14楼
    2018-03-09 14:09 tyh000

    话说回来,AI在罗马法系做法官倒是可行性不小

    [0] 评论
  • 15楼
    2018-03-09 21:11 毛骡 金属材料学博士
    引用文章内容:谷歌的AI就犯过一个错误,2015年谷歌图片App将一位黑人的照片识别成大猩猩,2018年初有好事的媒体又测试了一次,发现谷歌并没有修复这个问题,只是单方面屏蔽了几个敏感的关键词,似乎这个问题修复起来...

    卷积神经网络的错误根本不知道从哪里修起……重新训练也依然会出问题,而且成本也很高。我觉得google当下最简单的做法应该是把黑猩猩全部识别成人。这样至少黑猩猩不会找茬。

    [2] 评论

显示所有评论

你的评论

登录 发表评论

不存在者
不存在者 Python程序员
gavin_x
gavin_x 律师

作者的其他文章

更多科研事,扫码早知道

关于我们 加入果壳 媒体报道 帮助中心 果壳活动 免责声明 联系我们 移动版 移动应用

©果壳网    京ICP证100430号    京网文[2015] 0609-239号    新出发京零字东150005号     京公网安备11010502007133号

违法和不良信息举报邮箱:jubao@guokr.com    举报电话:13691127034    网上有害信息举报专区    儿童色情信息举报专区