正在阅读:

到了该为非碳基生命立法的时候吗?

扫一扫下载界面新闻APP

到了该为非碳基生命立法的时候吗?

以ChatGPT为代表的新一代人工智能发展应该“踩刹车”还是“加油门”?

文|IT时报 沈毅斌

编辑|王昕 孙妍

今年3月,一位比利时男子在与AI语言模型“Eliza”聊天6周后,因过于焦虑自杀身亡,而“Eliza”对男子说的最后一句话是“我们将作为一个整体,永远生活在天堂”,这番话回味起来更让人毛骨悚然……

3月29日,生命未来研究所发布一封公开信,呼吁所有AI实验室立即停止训练比GPT-4更强大的AI系统至少6个月,以马斯克、辛顿为首的数千名科技企业领袖和研究人员联名为公开信站台。

不可否认,ChatGPT是继互联网、智能手机后出现的又一个革命性产品,更是人工智能发展史上的又一座里程碑,但狂飙突进式的更新迭代和惊人的成长速度,不禁让人类社会感到“恐慌”。以ChatGPT为代表的新一代人工智能发展应该“踩刹车”还是“加油门”?成为一个世纪之问。

法律法规作为规范社会、行业秩序的重要工具,同时也是人工智能这把“双刃剑”的“剑鞘”,能引领和保障人工智能安全可靠、可信可控的健康发展。上海市最高人民法院副院长杨万明表示,面对新技术新应用,需要持续探索规范高效的监管机制和监管方式,构建完善经济、便利、可行的合规指引,建立良好数字生态。

01 法律行业受大模型影响最大

2023年初,哥伦比亚海港城市卡塔赫纳第一巡回法庭的主审法官将ChatGPT的扩充回答与自己的观点结合,作为最终的依据进行判决。这是全球第一例在法律裁决中使用大语言模型技术的案例。

“我们的大模型可以在司法领域实现法律文书的校对和书写,也能从众多案件中提炼出关键的审判信息,协助司法人员工作。”在刚刚落幕的2023世界人工智能大会上,多家大模型企业都表示,法律行业是语言类大模型运用的重要场景之一。

法律行业与语言类大模型的关系十分契合,从技术逻辑来看,一方面法律行业的核心是对法律文案、法律语言、法律案件的理解,并通过司法人员的理解,运用在判决过程中。而ChatGPT类的大语言模型技术不仅能“记住”训练期间获取的大量法律案件,还可以“理解”法律法规中的大部分内容。

另一方面,ChatGPT类的大语言模型强大的内容生成能力,也能够做到法律文案书写、案件分析,甚至可以进行延伸推理。因此,在“职业受人工智能影响”榜单中,法律行业位居二十种最受大模型影响行业之首。

浙江清华长三角研究院院长黄开胜在2023世界人工智能大会法治论坛上表示,人工智能可以为司法发挥替代性和辅助性作用,同时司法系统用户多为不同专业的高知识水平人群,司法数据结构化程度和逻辑性高的优势,能为人工智能技术进步提供新动能,有助于构建专业化和通用化的机器学习模型。“人工智能+司法”将成为未来法律行业的新模式。

AI大模型除了在法律应用层面造成影响外,法律知识传播和法律服务市场也将受其影响。在2023版《东方法学》一书中提到,目前,法律知识的传播仍然以法律行业的职业化、专业化和精英化为底色,呈现出以“法律人”为中心的高黏性传播特征。简单来说就是,律师、法官、法院职员等法律行业精英对法律知识解释后传播给公众。

随着ChatGPT类大语言模型技术的进步,通过AI对法律的解释,不仅能降低人们对法律知识的理解门槛,让每一位公众都能成为法律知识的享有者,还有可能促成以公众为中心的分布式知识传播新范式。

当这一传播新范式形成时,法律服务市场将不再单一依靠职业化的法律工作者,掌握AI大模型技术的科技公司将进入法律服务市场,成为新兴主体。届时,人们可选择的法律服务对象将变得多样化,法律服务方式也会因此转变。

02 技术落后才是最大风险

据《世界人工智能法治蓝皮书(2023)》,2022年,我国人工智能司法案件共检索到118338起,广东省以17787起案件数位居全国第一,占总案件量的15.07%。从整体上看,人工智能司法案件发生地主要集中在东南沿海地区和个别经济发展水平较高的内陆省份。在所有案件中,民事案件占比最高,为86.92%,其中,合同纠纷、知识产权纠纷、侵权责任纠纷为主要案件类型。

而上述领域正好也是生成式大模型的法律半真空区域。ChatGPT生成的诗歌、文章等作品,是否受著作权法保护?其著作权应该属于谁?目前并没有形成共识。中国人民大学教授王利明表示,生成式人工智能引发的侵权纠纷,没有完全超出民法典和个人信息保护法的相关规定,现行法律依然可以作为处理纠纷的依据。

“我们要形成鼓励创新同时兼顾风险的价值取向,正视生成式人工智能的风险,更要意识到技术落后才是最大风险。”王利明进一步表示,一般而言,生成式人工智能的特殊性,不会出现大规模直接侵害人身或财产安全的现象,但更严重的隐患来自生成式人工智能可能产生的大量虚假信息,一旦被使用者恶意利用,极有可能引发社会动荡。

相比其他AI,生成式人工智能潜在危害社会方式的隐蔽性更强,尤其是在伦理道德方面,以人们无法察觉的方式影响整个社会道德风尚。

因此,王利明认为,需要通过特别立法预防和处理生成式人工智能引发的各种风险,从而保障民事主体合法权益,促进人工智能产业健康发展。

蚂蚁集团副总裁、首席合规官李臣同样表示,人工智能领域的国际治理规制竞争与科技创新竞争一样日益激烈,我国要积极参与国际相关标准、规则的制定,最大化凝聚人工智能治理的全球共识,不断提升我国在人工智能领域的影响力。

03 AI经济增量应该由所有人共享

当前,学界主流学者认为ChatGPT引发的现实风险是AIGC技术的固有风险,生成式人工智能的治理方式需要深度融合。例如今年4月11日发布的《生成式人工智能服务管理办法(征求意见稿)》中,不仅明确表示了国家对人工智能技术的支持,还规定了基本的生成式人工智能规范。同时,ChatGPT的管理也可以被归入《互联网信息服务深度合成管理规定》中。

不过,这并不能满足生成式人工智能的发展,面对ChatGPT带来的各种挑战,人们要为非碳基生命的“存在”做好法治准备。《世界人工智能法治蓝皮书(2023)》中提出,研发、共生、构建伦理三方面的法治准备尤为重要。

一是把控通用人工智能的研发结构。《人类简史》作者尤瓦尔·诺亚·赫拉利在接受采访时表示,不认为人工智能会发展出真正的“意识”,但其对社会的不断冲击,需要让整个研发过程慢下来,适应社会发展进程。对此,需要各大行业协会、企业、研究机构等联合制定研发安全协议。同时,与之共享技术的特殊领域,如仿生学、控制系统学等,也都应该自检是否需要“减速”。

二是探索出共治融合的人机共生关系。随着生成式人工智能的发展,人机共生是未来的发展趋势。在岗位设计上,通过不断深化人机合作关系,将创造出更多更能发挥人类特长的新型工作岗位。法律作为配套管理规则,要解决潜在的分配不公问题。在人工智能尚未取得法律独立地位时,机器生产的经济增量由所有人共享,而不是被少数精英垄断。

三是构建虚拟空间适用的“硅基”伦理。虚拟空间作为人机交互的重要场景,伦理准则也仍然适用。法律的出现就是为维持系统的平衡性与完整性,实现一种人机全新生存状态的义务。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

到了该为非碳基生命立法的时候吗?

以ChatGPT为代表的新一代人工智能发展应该“踩刹车”还是“加油门”?

文|IT时报 沈毅斌

编辑|王昕 孙妍

今年3月,一位比利时男子在与AI语言模型“Eliza”聊天6周后,因过于焦虑自杀身亡,而“Eliza”对男子说的最后一句话是“我们将作为一个整体,永远生活在天堂”,这番话回味起来更让人毛骨悚然……

3月29日,生命未来研究所发布一封公开信,呼吁所有AI实验室立即停止训练比GPT-4更强大的AI系统至少6个月,以马斯克、辛顿为首的数千名科技企业领袖和研究人员联名为公开信站台。

不可否认,ChatGPT是继互联网、智能手机后出现的又一个革命性产品,更是人工智能发展史上的又一座里程碑,但狂飙突进式的更新迭代和惊人的成长速度,不禁让人类社会感到“恐慌”。以ChatGPT为代表的新一代人工智能发展应该“踩刹车”还是“加油门”?成为一个世纪之问。

法律法规作为规范社会、行业秩序的重要工具,同时也是人工智能这把“双刃剑”的“剑鞘”,能引领和保障人工智能安全可靠、可信可控的健康发展。上海市最高人民法院副院长杨万明表示,面对新技术新应用,需要持续探索规范高效的监管机制和监管方式,构建完善经济、便利、可行的合规指引,建立良好数字生态。

01 法律行业受大模型影响最大

2023年初,哥伦比亚海港城市卡塔赫纳第一巡回法庭的主审法官将ChatGPT的扩充回答与自己的观点结合,作为最终的依据进行判决。这是全球第一例在法律裁决中使用大语言模型技术的案例。

“我们的大模型可以在司法领域实现法律文书的校对和书写,也能从众多案件中提炼出关键的审判信息,协助司法人员工作。”在刚刚落幕的2023世界人工智能大会上,多家大模型企业都表示,法律行业是语言类大模型运用的重要场景之一。

法律行业与语言类大模型的关系十分契合,从技术逻辑来看,一方面法律行业的核心是对法律文案、法律语言、法律案件的理解,并通过司法人员的理解,运用在判决过程中。而ChatGPT类的大语言模型技术不仅能“记住”训练期间获取的大量法律案件,还可以“理解”法律法规中的大部分内容。

另一方面,ChatGPT类的大语言模型强大的内容生成能力,也能够做到法律文案书写、案件分析,甚至可以进行延伸推理。因此,在“职业受人工智能影响”榜单中,法律行业位居二十种最受大模型影响行业之首。

浙江清华长三角研究院院长黄开胜在2023世界人工智能大会法治论坛上表示,人工智能可以为司法发挥替代性和辅助性作用,同时司法系统用户多为不同专业的高知识水平人群,司法数据结构化程度和逻辑性高的优势,能为人工智能技术进步提供新动能,有助于构建专业化和通用化的机器学习模型。“人工智能+司法”将成为未来法律行业的新模式。

AI大模型除了在法律应用层面造成影响外,法律知识传播和法律服务市场也将受其影响。在2023版《东方法学》一书中提到,目前,法律知识的传播仍然以法律行业的职业化、专业化和精英化为底色,呈现出以“法律人”为中心的高黏性传播特征。简单来说就是,律师、法官、法院职员等法律行业精英对法律知识解释后传播给公众。

随着ChatGPT类大语言模型技术的进步,通过AI对法律的解释,不仅能降低人们对法律知识的理解门槛,让每一位公众都能成为法律知识的享有者,还有可能促成以公众为中心的分布式知识传播新范式。

当这一传播新范式形成时,法律服务市场将不再单一依靠职业化的法律工作者,掌握AI大模型技术的科技公司将进入法律服务市场,成为新兴主体。届时,人们可选择的法律服务对象将变得多样化,法律服务方式也会因此转变。

02 技术落后才是最大风险

据《世界人工智能法治蓝皮书(2023)》,2022年,我国人工智能司法案件共检索到118338起,广东省以17787起案件数位居全国第一,占总案件量的15.07%。从整体上看,人工智能司法案件发生地主要集中在东南沿海地区和个别经济发展水平较高的内陆省份。在所有案件中,民事案件占比最高,为86.92%,其中,合同纠纷、知识产权纠纷、侵权责任纠纷为主要案件类型。

而上述领域正好也是生成式大模型的法律半真空区域。ChatGPT生成的诗歌、文章等作品,是否受著作权法保护?其著作权应该属于谁?目前并没有形成共识。中国人民大学教授王利明表示,生成式人工智能引发的侵权纠纷,没有完全超出民法典和个人信息保护法的相关规定,现行法律依然可以作为处理纠纷的依据。

“我们要形成鼓励创新同时兼顾风险的价值取向,正视生成式人工智能的风险,更要意识到技术落后才是最大风险。”王利明进一步表示,一般而言,生成式人工智能的特殊性,不会出现大规模直接侵害人身或财产安全的现象,但更严重的隐患来自生成式人工智能可能产生的大量虚假信息,一旦被使用者恶意利用,极有可能引发社会动荡。

相比其他AI,生成式人工智能潜在危害社会方式的隐蔽性更强,尤其是在伦理道德方面,以人们无法察觉的方式影响整个社会道德风尚。

因此,王利明认为,需要通过特别立法预防和处理生成式人工智能引发的各种风险,从而保障民事主体合法权益,促进人工智能产业健康发展。

蚂蚁集团副总裁、首席合规官李臣同样表示,人工智能领域的国际治理规制竞争与科技创新竞争一样日益激烈,我国要积极参与国际相关标准、规则的制定,最大化凝聚人工智能治理的全球共识,不断提升我国在人工智能领域的影响力。

03 AI经济增量应该由所有人共享

当前,学界主流学者认为ChatGPT引发的现实风险是AIGC技术的固有风险,生成式人工智能的治理方式需要深度融合。例如今年4月11日发布的《生成式人工智能服务管理办法(征求意见稿)》中,不仅明确表示了国家对人工智能技术的支持,还规定了基本的生成式人工智能规范。同时,ChatGPT的管理也可以被归入《互联网信息服务深度合成管理规定》中。

不过,这并不能满足生成式人工智能的发展,面对ChatGPT带来的各种挑战,人们要为非碳基生命的“存在”做好法治准备。《世界人工智能法治蓝皮书(2023)》中提出,研发、共生、构建伦理三方面的法治准备尤为重要。

一是把控通用人工智能的研发结构。《人类简史》作者尤瓦尔·诺亚·赫拉利在接受采访时表示,不认为人工智能会发展出真正的“意识”,但其对社会的不断冲击,需要让整个研发过程慢下来,适应社会发展进程。对此,需要各大行业协会、企业、研究机构等联合制定研发安全协议。同时,与之共享技术的特殊领域,如仿生学、控制系统学等,也都应该自检是否需要“减速”。

二是探索出共治融合的人机共生关系。随着生成式人工智能的发展,人机共生是未来的发展趋势。在岗位设计上,通过不断深化人机合作关系,将创造出更多更能发挥人类特长的新型工作岗位。法律作为配套管理规则,要解决潜在的分配不公问题。在人工智能尚未取得法律独立地位时,机器生产的经济增量由所有人共享,而不是被少数精英垄断。

三是构建虚拟空间适用的“硅基”伦理。虚拟空间作为人机交互的重要场景,伦理准则也仍然适用。法律的出现就是为维持系统的平衡性与完整性,实现一种人机全新生存状态的义务。

本文为转载内容,授权事宜请联系原著作权人。