文丨实习记者 车念聪
一直处于科技监管前沿的欧盟正在加码对人工智能(AI)生成内容的监管。欧盟委员会副主席薇拉· 尧罗娃 (Vera Jourova)在6月5日新闻发布会上表示,欧盟将要求科技巨头和内容生产平台如谷歌、YouTube和TikTok等对其AI生成的图片、视频和文本进行检测,并向用户提供明确的标记,以打击虚假信息泛滥甚至被恶意利用。
虚假信息古来有之,伴随互联网和算法等技术的普及而壮大;而自去年ChatGPT问世,大批AI生成内容呼啸前来,当文本、图片甚至视频都可以在数秒之内由AI生成且越来越难以甄别,装满虚假信息的“潘多拉的魔盒”才算真正开启。虚假信息和与社交媒体的耦合早就在诸如美国大选等重大事件中扰乱着政治的正常运作,尧罗娃在演讲中更是进一步担忧AI或被用来散布虚假情报,成为战争机器。而就在上月底,一张显示五角大楼遭受袭击的AI生成图片,以擦边彭博社的名义在推特上广为传播,一度导致股市大跌,彰显了其扰乱金融市场和经济的巨大潜能。跟AI生成相关的法律事件也开始显现,美国佐治亚州一名电台主持人指控ChatGPT生成了一起虚假的法律诉讼,指控他挪用资金;而在国内,福州某科技公司法人代表郭先生陷入了一场AI电信诈骗,10分钟内被骗走430万元。同时研究也表明,虚假信息还会带来社会信任恶化、加剧分裂等恶果。
虚假信息既关乎政治,也是法律、技术问题,同时还涉及言论自由以及技术伦理等问题,也因此需要决策者、技术人员、研究人员和普通用户的通力合作。
尧罗娃担心,政府的监管恐怕远远跟不上AI生成的速度。这种担忧不无道理。ChatGPT只用了两个月时间,就实现了月活跃人数破亿,比上一个爆火的应用TikTok实现这一数字少了7个月。各大科技公司也纷纷斥巨资,跑步入场布局大模型生态投资。相比之下,监管的速度要远远落后。就欧盟正在推行的虚假信息准则(disinformation code)而言,若要正式成为法律还需要数年时间,尽管欧盟已经是AI监管领域的最激进的探索者,也因此尧罗娃呼吁科技巨头立刻着手标注工作。
各国政策的不同、平台的跨国监管,也增加了政策协调的难度。目前大多数科技巨头已经跟欧盟签署了虚假信息准则,承诺加大打击虚假信息力度并定期汇报进展。但马斯克主导下的推特上个月退出了这个目前仍是自愿性质的协议。
然而即便各国监管机构、生产AI内容的科技公司均达成了一致,实施相关法律和规则也并非易事。首先,对假消息的认定本身就是一个难题,而且,新闻图片和合成图片,在当今的社交媒体上已经不存在明确的界限。其次,在AI辅助下生成的虚假信息,应该由谁举证和监管?如果涉及诽谤和著作权侵权,可能可以归入民事诉讼,由被害人提起诉讼;如果虚假信息危害公共安全,应该由什么政府部门举证?对于发布虚假信息的人员和公司,应该是事前监控还是事后惩戒?AI的开发者,使用者,发布者以及发布平台,责任如何分配。这些问题都需要更多的详细讨论。
在国内,政府也在尝试摸索管理AI及其相关技术的法律法规。近日,国家互联网信息办公室将就《生成式人工智能服务管理办法(征求意见稿)》向社会公开征求意见。其中首先明确,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。同时,意见稿拟规定,提供生成式人工智能服务应当要求用户提供真实身份信息。利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
其次,从技术角度讨论,AI生成内容的快速、准确检测一直是一个复杂的技术难题。当前的技术水平还无法完全解决AI生成内容可能存在的误导性和虚假信息问题。文字本身作为碎片化的信息载体,在未来会变得越来越难以被技术手段检测出AI杜撰的成分,这是文字的特点所决定的。但是图片作为一个整体的信息媒介,相比较来说可能会更加容易去分辨出当中的AI成分。这种监管难度的不同,又该去如何定义相关的管理办法呢?
好消息是,技术进步本身或许可以成为解决技术困境的手段。马克·安德森是一家风险投资公司的联合创始人,也是包括Meta在内多家科技公司的董事会成员,他在近期一篇题为《为什么AI会拯救世界》的文章里写道,“如果你担心人工智能生成虚假的人物和虚假的视频,答案就是构建新的系统,人们可以通过加密签名验证自己和真实内容。在人工智能之前,数字内容的真实和虚假的创造和修改已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。”他认为,所有的AI技术以及其衍生产品,都将在未来为现存的行业和从业人员的效率以及工作产出带来革命性的增长。相对应的,人们需要开发相关的技术来监管和控制,而不是一味的禁止从而让自身脱离于技术的发展。
如果监管做不到及时,那用来打败魔法的魔法——技术的进步,是否能跟得上信息“变异”的速度?迄今为止还没有一致的答案。今年3月,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月,理由之一就是不要让“机器用宣传和谎言充斥我们的信息渠道”。签署者包括马斯克、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等上千名科技大佬和AI专家。在这期间,公开信呼吁AI开发人员必须与政策制定者合作,加快AI治理系统,包括推出标明来源系统和水印系统,以帮助区分哪些是真实信息,哪些是合成信息。
等待解答的问题不仅仅停留在监管和技术层面,其他诸如,监管与言论自由的边界在哪?监管是否会危及创新?对普通用户而言,又该如何识别AI时代的虚假信息,从什么渠道获取可靠信息以及是否应该接受相关的教育和培训?……林林总总,皆需进一步的探索。但无论如何,将AI监管置于聚光灯之下,是向着正确方向迈出的重要一步。
评论