劳东燕 赵宏 ChatGPT:AI时代的人类意见

劳东燕 赵宏 ChatGPT:AI时代的人类意见

  因为ChatGPT的出现,2023年注定会是一个值得被记住的年份。经济观察报邀请了来自中国社会各界的代表人物,以书信的方式,畅谈他们心目中的AI世界和他们的所思所愿。

  这些表达汇成了社会各界的《AI时代的人类意见》。在此,北律信息网摘取了法学界代表劳东燕教授、赵宏教授的信件。现在,让我们打开信箱,开启思想的未来之旅。

  在提笔写这样一封信件时,我有些犹豫。不知道在未来已来的AI(人工智能)时代,对于比我年轻很多的法律人,谈什么样的内容才是合适的。

  作为一名在上个世纪90年代接受法学本科教育的法律人,回想起来会有不敢置信之感。很难来想象,在短短二十多年的时间里,技术会如此深刻地改变我们所处的社会与世界。儿时每次与人通电话,我不由地会想,要是能实时地进行视频对话该有多好。这个在我儿时显得异想天开的想法,在今天已经是日常生活中司空见惯的存在。记得在90年代末,当我花一万多元购买第一台个人电脑时,帮我购置电脑的亲戚说,这台电脑的配置挺高,应该能用上十年。但后来,这台电脑我也就用了三四年。虽然较早拥有个人电脑,但由于当时上网需要用电话线连接Modem,而我租的房间里并未安装座机,所以几乎就没上过网。1999年来京读研时,我才第一次用学院图书馆的公用电脑上网。至今仍记得那一刻的彷徨,彷徨源自不知道怎么上网。

  然而,在之后相当长的时期内,我并未关注网络与数据技术对社会与对世界所产生的影响。读研与读博期间,由于研习的是作为传统部门法的刑法,再加上彼时的我,除课业任务之外,业余时间里关心的主要是过去,对未来则根本无暇考虑。

  自大学时代始,我便对这样一个问题充满好奇:中国社会为什么未能像西方社会那样自主地走向现代性?基于此,一方面,我会下意识地去关注现代性的过程在西方国家如何发生,而同一时期中国社会的情况又是怎样;另一方面,为了让自己对当下的社会现实有更多了解,也会想方设法补充这方面的知识。2004年博士毕业后到清华就职,我也一直埋首于教学与学术研究工作,过的是比较纯粹的象牙塔生活。也因此,虽然对日常生活中由技术带来的变化有所感知,比如网购成为自己主要的购物方式,微信成为日益重要的沟通方式等,但老实说,我对科技之于社会所带来的构造性影响缺乏深刻的认知。

  一直要到2016年以后,基于某种机缘,我不期然地探头向象牙塔之外张望时,才愕然意识到,外面的世界已发生天翻地覆的变化。当我在传统行业埋头耕耘的时候,或许我已然错过很多的机遇。这种错过,不只意味着在既定的职业领域内如何明智的选择努力的方向,更意味着如何明智的选择自己想要从事的行业或领域。我第一次意识到,在一个迭代加速的时代,选择比努力更重要。这不是要贬低努力的意义,而是说选择的方向决定了努力所能获得收益的程度。

  回看此前的1990年代,2000年代与2010年代前期,我事后诸葛亮般地发现,原来自己经历的那些年代竟然存在如此多的机遇,而作为过来人的我,在此过程中显然一直处在懵懂的状态。不可否认,身处上升的时代,即便从事的是传统行业,仍有一定红利可吃,但传统行业的低风险也代表着低收益,竞争实际上同样激烈。我对自己这段经历的反思,让我认识到,在科技加持的时代,即便时运显得低迷甚或可能整体有下行的趋势,对个人来说仍会有新的发展机遇涌现,就像东方甄选的董宇辉能够脱颖而出那样。这正是年轻人的希望所在。这在某种程度上预示着,在考虑职业选择与发展前途时,除了如何在常规赛道提升自身的竞争力以便在原有蛋糕中努力分得一份之外,更有必要认真观察与思考的是,有哪些行业与领域今后可能会涌现从0到1的发展。“从绝望中寻找希望,人生终将辉煌”,我一直很喜欢这句话,尤其是前半句,虽然就没有在新东方接受过培训。在我看来,它代表的是怎样都要趟出一条路来的那种生猛与执着。不管身处什么时代,也不管境遇如何,个人都要设法寻找希望,并为心中的希望全力以赴。

  基于种种因素,大多数年轻的法律人可能都会像我这样,从事的是法律领域相对传统的行业。若选择传统的行业,年轻的法律人应当思考的可能就是如何守正创新。法律人在互联网时代需要做出什么样的调整?这是近年来我一直在思考的问题。即便身处传统行业,我们仍有很多可为之处,将追求自身的职业发展与时代对法治的需要结合起来。以法学研究领域为例,网络与数据技术的发展,为风险社会增加了新的意义维度,进而给法律体系带来非常大挑战。在一个日益不确定而显得光怪陆离的时代,法律如何承担与实现确保稳定期待的功能,使得人与人之间的社会沟通具有相对的确定性,成为首当其冲要解决的问题。尤其是,随技术迭代的加速,法律的适应性已然成为刻不容缓急需直面解决的时代命题。那么,如何为这个时代命题做出自己力所能及的贡献,便是法学研究者能做出的选择。

  值得注意的是,有关适应性的时代命题,不只是法律怎么样做自我调整而单方面地去适应外部环境的问题,它还有另一个同样重要的面向,即如何将法律层面公平性的考量贯彻于科技革命所带来的效益与风险的分配之上。在法律界,人们比较习惯于用旧瓶装新酒的方式,来解读与处理层出不穷的新问题。若是沿用此前的法学理论便足以应对这些新问题,自然没必要大动干戈地另行构建新的理论,就像奥卡姆剃刀定律所倡导的那样,“如无必要,勿增实体”。问题就在于,慢慢的变多的迹象说明,网络社会不只是传统社会在互联网空间的延伸,互联网空间与现实空间经过复杂的交互作用,正在形成一种全新的社会形态。用19世纪的理念,20世纪的法律,难以解决21世纪面临的各种社会问题。简单套用线下社会的法律规则与相应理论,往往导致效益分配与风险分配方面的不公平。这一点尤其值得法律人的关注。以网络与数据技术为代表的新科技革命,既带来非常大的社会效益,也造成众多的社会风险。因而,在法律层面,必须认真考虑相应的效益与风险如何在各利害关系方之间进行公平分配的问题。

  随技术普及化而自生自发形成的秩序,会天然地有利于社会结构中的强势方(以政府部门与科技公司为代表),强势方往往会设法尽可能多地攫取新科技革命带来的效益,而将风险尽可能地推卸给弱势者去承担。技术中立之类话语的流行,本质上都是在为这种明显有失公平的秩序提供话语层面的加持。实际上,任何技术在开发之初,都主要考虑委托方与技术开发方的利益,这种利益既可能是社会管控方面的利益,也可能是商业性的利益。由此,作为第三方的普通个体的利益就很可能被牺牲或不被充分地考虑。这不可避免地会导致风险不对称的现象,即决策者与风险制造者不承担自身行为所造成的风险,而将风险转嫁给社会中缺乏组织性与话语权的弱势方。

  比如,在个人隐私信息保护领域,倚重传统的知情同意机制意味着,由个人信息处理所带来的风险主要分配给个人承担,但相应的风险明明是以政府部门与科技公司为代表的个人信息处理者带来的。从法律层面来说,这样的风险分配既有失公平也不够有效。道理很简单,既然风险并非个人所制造,个人在相应领域中也只分得微小利益,并且其也就没有能力来防范与控制相关风险,将因收集与处理个人隐私信息而带来的风险主要放在个人身上,就不免有以强凌弱之嫌。法律层面进一步对这种以强凌弱的局面予以肯认,就等于在强化现有的丛林规则,不免在错误的方向上走得太远。

  对于法律人来说,在处理诸如此类的问题时,切不可陷于具体的技术细节中,而是应当从如何公平而有效地分配技术革命所带来的效益与风险的角度来考虑。如此一来,法律应当往什么方向推进与发展,制度层面需要如何平衡强弱不均的关系结构,避免强势方不公平地推卸与转嫁风险,往往就变得一目了然。在AI已然到来的时代,势必会有更多的领域因技术的推广运用而经历深刻的变化。作为法律人,如果学会从效益与风险的公平分配的角度去看待问题,会有助于辨明法律在AI时代的发展方向。要记得,制度技术是为合理的价值判断服务的,永远都不应该让制度技术盲目飞行,以致客观上为丧失基本公平的法律归责机制站台与摇旗呐喊。

  以上是我的一些真实感想,可能会有言不及意之处,希望与各位有当面交流的机会。

  在接到《经济观察报》的邀请,说在岁末可以写一封信给友人时,我脑中第一个蹦出的就是你们。过去的几年里,你俩大概是我聊天最频繁的友人,我们共有的微信群和我儿子的班级群,成了我手机里为数不多没有被设置为消息免打扰的。记得上周腾讯谷雨的记者因为新书《权力的边界》出版而采访我,问我如何度过低谷期,又如何排遣法律人在面对极端不公时的虚无愤怒彷徨困惑,我脱口而出的就是你们。从2020年雪菱发起线上云喝酒开始,你俩还有法治组的另外两位男性友人似乎就成了我生活和工作中强大的精神支持。我们在彷徨时彼此鼓励,在困惑时互相扶持,最关键的还有隔三岔五的吐槽八卦甚至贫嘴斗图。那位记者听后说,那他们都是赵老师的周边呢!而我则是喜不胜喜地接受了你们作为我的“周边”的叫法。

  《经济观察报》说,这期的通信主题是“AI时代的人类意见”。这个问题我们还真的没少在群里讨论过。记得ChatGPT刚出现时,好奇心颇重的我们都认真玩过一阵子。阿碧说自己想问的第一个问题是“群里的两个男的是渣男吗”,吓得“法治之光”赶忙说,这个可不能问,仨女的大笑,“你们还挺有自知之明”。是不是渣男这个问题最终没问,但各种山寨版的ChatGPT还是被我们测试过很多次,直至大家终于意兴阑珊,对机器的“调戏”才终于结束。

  后来,“法治之光”发现正版的ChatGPT居然可以用来翻译学术论文的英文摘要,遣词造句都远超各种在线翻译软件,AI(人工智能)才终于被我们这几个法学老师用到正途。也是在上周的某天早上,我因为要写学术论文还在跟德文资料鏖战。阿碧打电话来约我外出喝咖啡,我跟她抱怨整理外文资料的辛苦,她居然又支一招,你可以把德文资料输入ChatGPT啊,意思可以看个大差不差,看不太明白的地方你再看原文,这样可以省出多少时间逛街买衫喝咖啡。我又有醍醐灌顶般的领悟,甚至开始幻想未来可以用这招轻松搞定各种科研类KPI。

  坦白讲,迄今为止我对ChatGPT的探索也就仅限于此。记得“法治之光”今年夏天还尝试用它来草拟毕业致辞,但出来的也就是那种四平八稳的文字版本,不俏皮无调侃更无泪点亮点,倒是很合适用来写交给领导和组织的工作计划和年终总结。这个测试结果对我们这些常年以文字为生的人而言,反而多少是安心的。谁说我们很快就会被AI替代,要在一片干巴巴的文字水泥地上开出百合花,ChatGPT且有段时间呢。

  虽然大部分法律人对ChatGPT还都只是初试阶段,但法学研究的风向似乎早已发生变化。网络法学、虚拟法学甚至是元宇宙的法律问题都开始成为各个学术期刊的高频选题,有关算法的法律规制、自动化行政的属性定位、数据权利的保护边界等论文也开始雄霸各个期刊的重要版面。我的同事总结,法学中的禁区其实不少,但写新兴技术就非但没问题而且还会是爆款。这类论文看多了,真会觉得我们似乎已经站在了科技发展的潮头浪尖,传统法学已经没什么研究的必要和价值了。对从小就不擅长技术,连读说明书都觉得费劲的我而言,这个结论可一点儿都不让人开心。

  但线年疫情前,唐山曾发生过一起货车司机经过超限站时,因车上的北斗定位系统掉线而被处罚的案件,被处罚的货车司机因不能接受处罚又与执法人员沟通无果,最终服药自杀。当时这个案件引发巨大争议,我也在激愤中写了篇《任何人的死都应该被认真对待》的评论文章。

  彼时的交通运输部为确保大货车的运营安全,要求全国各地的大货车都安装北斗定位记录仪。记录仪使用的初衷主要是为了避免货车司机疲劳驾驶,所以程序设定也表现为每四小时自动掉线分钟。如果掉线时货车司机还在继续驾驶,其经过超限站时就会被施予行政处罚。听起来这似乎是新兴技术适用于行政监管的创新。但让人始料未及的是,自从被强制安装了卫星定位系统,大货车司机的境遇却每况愈下。不知是定位系统本身的设计问题,还是各地承揽此类业务的承包商在硬件上偷工减料,这个系统故障频现,很多司机都因经过超限站时系统不在线而屡屡被罚。货车司机反映跟执法人员申辩也毫无用处,因为在执法人员的认知里,机器记录了一切,它不会说谎不会出错,所以根本无需再调查求证。这个案件以相当极端的方式展现了机器、算法其实都没那么可信,本应造福于公共行政、服务于个人的技术系统,很容易就会成为绑缚、约束个人的工具,甚至会被异化为简单粗暴的管控工具。

  那篇文章首发在澎湃新闻《法治的细节》上,跟众多我写的其他文章一样,都是雪菱审阅编辑的。虽然只是篇法律时评,但它却开始激发我关注技术革新所带来的权力滥用以及新兴技术对个人的压制操纵。记得我去洪范研究所讨论这个案件时,有几十万货车司机在线收看,我不确定我和其他老师的法律分析,这些货车司机是否全能明白,但他们如此积极的关注却让我们这些法律专家必须正视,伴随新兴技术的适用,那些可能并不会因此获益,反而会遭遇更大困境。之后,我的研究领域增加了一个新的板块,即如何用法律驯服新兴技术。

  记得阿碧在《正义的回响》中写,人到中年立场大多会温和偏保守,我对待新兴技术大概也如此。我并不认为传统法治在应对新兴技术时就已完全乏力,相反,越是新兴技术大行其道之时,传统法治的价值越需要被挖掘和强调。与那些热情拥抱新兴技术的人相比,我们这些法律人似乎显得格外审慎,原因可能在于,新兴技术在我们眼中并不只是提高效能那么简单,它很容易就会滋生过度侵蚀个人权利的问题,尤其是新兴技术与国家权力相结合,有可能会催生出一种不受约束的霸权,它不仅打破了传统法治通过权力制约与权利保障所建构的权力与权利间的平衡,也再度加剧了国家与个人之间的权力势差。我的专业要求我所思所想都是如何去守住国家作用的界限,约束公权行使的疆域,避免其蜕变为吞噬一切的利维坦,但是现在我们面对的却是一个更难对付的数据利维坦。

  上述担忧也绝非毫无根据的空穴来风。伴随码化管理、人脸识别等技术适用的越加频繁,我们开始慢慢的变多地看到数据技术对人主体性的蚕食和贬损。例如,码化管理更易使国家权力实现对个人的精准监控和追踪;数字技术使个人被数字化,也更易为权力所支配和操控;而算法黑箱则使公共决策被拖进了由技术复杂性所构建的不透明区域,受其影响的个人不仅丧失了参与、质疑甚至反制的机会,甚至也失去了正当程序的保障。我们修习法律的人常说,只有人才是真正的主体,任何将人工具化和客体化的处理都是对个人人格尊严的贬损。但新技术的发展让我们越来越担忧,技术可能超越受人支配的客体地位,而人的主体性也将受到前所未有的重大挑战。再伴随人之为人概念的不断滑坡,也许某天真的就会像赫拉利在《未来简史》里警示的那样,“人类有可能从设计者降级为芯片,再降成数据,最后在数据的洪流中溶解分散,如同滚滚洪流中的一块泥土”,为了尽最大可能避免这个场景,我们这些法律人必须警醒和努力。

  担忧归担忧,但我对我们这个行业的未来前景依旧乐观。上周末我去成都的一家独立书店做新书分享,有个法律同行问,我们这个行业未来会被AI彻底替代吗?我相当笃定地回答应该不会。就司法审判而言,完全由机器来承担就是很难来想象的。因为司法绝不是类似自动售货机式的简单过程,它包含了复杂的价值判断和法律适用,也依赖于直觉、法感等这些根本没办法由机器习得的软性因素。最重要的,机器既不会对被裁判者产生同理和共情,也不会为它的裁判结果负责和担保,总之,它不会将他人当人,不会理解和展现对他人的尊重和同情。

  大家都熟知“枪口抬高一厘米”的案例。在柏林墙被推倒,两德统一后,当年守墙的士兵亨里奇被告上法庭,原因主要在于他曾射杀欲翻越柏林墙的一名东德青年。在法庭上,律师辩护说,亨里奇作为一名守墙士兵,执行命令就是天职。但法官终究是对他进行了判决。在那份被后世不断传颂的判决书里,法官这样写道,“在这样一个世界上,除了法律之外还有良知,当法律和良知冲突时,良知才是最高的行为准则,而不是法律。作为一个心智健全的人,当你发现有人翻墙而举枪瞄准时,你有把枪口抬高一厘米的权利,而这也是每个人应当主动承担的良心义务!”自此,“枪口抬高一厘米”成了人类良知的代名词。

  试想,如果将守墙之事交由机器或算法来决断完成,其结果显然就只是冰冷的杀戮。我们没办法期待机器会对他人产生怜悯,也无法寄望于算法会对弱者法外开恩。在技术系统中,个人就只是数据对象或是处理客体,而不是一个独立的个人。所以,在现阶段人们还绝不能将裁判交由机器,而机器在此领域往前踏进任何一步,都仍旧会被标记为法学伦理的禁区。

  由这个案子我也想到了石黑一雄的《莫失莫忘》。那本书也曾是我一度非常钟爱的小说。石黑在小说里描写了一群克隆人,他们被制造出来的使命就为了给人类做。但在接受了与普通人无异的教育后,克隆人也长成了和普通人类无异的样子。他们会猜忌会嫉恨会争斗,最重要的也会爱。当这些克隆人逐渐长大,希望终结自己作为人类工具的命运时,所想到的方法居然是验证自己找到了心爱之人,并愿意和他(她)长相厮守。在这里,能否爱仍旧被作为人和机器,主体和客体互相区分的标尺。

  拉拉杂杂写下这些感受的时候,手机里的音乐正循环至我和雪菱最爱的哥德堡变奏曲第25变奏,古尔德演绎得清冷又疏离。雪菱曾说过,这是种色即是空的感觉。我不相信这种只可意会而无法言说的情感和审美可以由机器创造,所以我还是对人类的未来怀抱信心,尽管这种信心总会被这样那样的事情挫败。但有信才能有望也才能有更多的爱。

  随着时间的流逝,我们所处的时代为人类与机器之间的关系带来了深远的变革。我写这封信,希望与你分享一些关于这种关系的思考和观察。

  人类与机器的交融早已超越了简单的工具使用。在这个时代,机器学习和人工智能的迅猛发展,让机器具备了前所未有的智能。这种智能赋予了机器更广泛的能力,从解决复杂问题到模拟人类思维。然而,这也引发了一系列重要的问题。

  首先,必须谨慎对待机器的发展。虽然机器能够执行复杂的任务,但人类不能失去对伦理和价值观的关切。在与机器一同生活的过程中,人类必须确保机器的行为符合我们所认同的道德标准。机器应该成为人类的合作伙伴,而不是无情的执行者。

  其次,尽管机器可处理大量的信息和执行任务,但不可以忽视人类独特的能力。创造力、情感和道德判断是人类与机器不同的特质,而这些特质塑造了社会和个体的本质。在与机器互动时,人类应当珍惜并发扬这些特质,不要将自己简化为机器的扩展。

  另一方面,机器的出现也带来了许多积极的变化。自动化和智能化的发展使得人们得以从一些繁琐的工作中解脱,人们有更多的时间投入到创造性的努力和社会互动中。

  在未来的日子里,你们可能会面临更复杂的人机关系。我但愿你们能够以开放的心态迎接这一挑战,并在科技与人性之间找到平衡。记住,机器是为了服务人类,而不是取代人类。在追求科学技术进步的同时,不要丧失对人性深层次价值的敬畏。

  机器在我们生活中的角色慢慢的变复杂,不仅仅是工作或娱乐的伴侣,更是参与决策、提供相关建议的智能伙伴。这种深度的融合引发了关于权力与责任的问题。在机器所做决策的背后,是不是真的存在公正和透明度?你们需要确保机器学习算法的制定和执行过程是公正的,不受偏见和歧视的影响。

  人类的责任感也需要得到加强,以确保科技的发展始终为人类福祉服务。人类必须审慎思考自主决策的权力能否合理授予机器,以及机器在复杂伦理和道德决策中的角色。这就要求我们倡导开放的对话,将伦理原则融入到技术发展的早期阶段。

  一个重要的议题是机器对于人类工作的影响。尽管机器自动化提高了效率,但也导致了一些传统职业的消失。在这样的一个过程中,必须关注到受一定的影响的人们,并为他们提供培训和支持,以适应新的就业形势。人机协作的未来需要着眼于共创,而不是互相排斥。

  与机器的交互方式也值得深思。在技术进步的推动下,我们正真看到了自然语言处理和情感识别等方面的巨大进步。但我们应该确保这些技术的应用是为增强人类交流的能力,而不是削弱人际关系的深度和真实性。技术应该是联系人类的桥梁,而非隔离的屏障。

  此外,我想谈谈关于人类创造力的未来。机器能够模仿、学习,但能否真正创造?人类独特的创造性思维和想象力是文学、艺术、科学的源泉。在与机器的合作中,必须保护和弘扬这种独特的人文精神,让创新不仅仅是技术上的进步,更是文化和精神的提升。

  人工智能的发展慢慢的开始改变大家对教育的看法。在未来,机器有几率会成为教育领域的强大助手,个性化地辅助学生的学习。然而一定要注意,真正的教育不单单是关于知识的传递,更是培养思维能力、创造力和道德观念。机器能够给大家提供信息,但人类教师的作用仍然是激发学生的兴趣、引导他们思考,使教育变得更丰富和深刻。

  另一个需要我们来关注的领域是健康护理。随机器人、智能传感器和数据分析的发展,医疗服务变得更智能化。机器在诊断、治疗和监测方面的应用有望提高医疗水平,减轻医护人员的负担。然而,与此同时也一定要保持对医疗决策的人道关怀,确保机器的介入是在人类医疗专业相关知识的指导下进行的。

  随着人机深层次地融合,隐私和数据安全变得特别的重要。我们应该建立更健全的法规和伦理框架,保护个人隐私权和数据安全。机器学习和大数据的应用需要在确保效益的同时,仔细权衡潜在的风险,以防范滥用和不当利用的可能性。

  在未来,我们可能会看到人机融合的新篇章。生物技术的进步可能使得机器与人体更加紧密地交互,从生理上实现更多的可能性。这带来了一系列伦理和社会问题,需要谨慎思考和全球合作来解决。

  最后,让我们谈谈文化的保护。机器可能会影响到文化的传承和发展。在数字化的时代,我们要确保文化多样性得以保护,不被机器替代。技术能帮助传播文化,但真正的文化传承是建立在人类的情感、体验以及传统上的。

  未来的人类,你们肩负着塑造这个交织复杂的人机世界的责任。面对科技的快速的提升,记住机器是为了服务人类的目标。用开放、负责任的态度引导科技的发展,确保它始终服务于人类的价值和意愿。

  衷心祝愿你们在未来的征程中取得巨大成功,创造出更加人性化、公正和繁荣的社会。

  本文声明 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北律信息网(北宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。