当前位置:首页 > 每日资讯 > 正文

当AI会说谎,如何治理?|视焦点讯2023-04-07 18:53:14 | 来源:21经济网 | 查看: | 评论:0

21世纪经济报道记者 钟雨欣 北京报道

AIGC正在给虚假信息治理提出前所未有的挑战。乔治·华盛顿大学法学教授乔纳森·特利近日被ChatGPT列入“性骚扰”名单,声称他在一次去阿拉斯加的旅行中对学生“动手动脚”,并援引了一篇所谓《华盛顿邮报》的新闻报道作为信息来源。


【资料图】

特利连续用了多个“从未”进行回应,他撰文写道,“这让我很惊讶,因为我从未和学生一起去过阿拉斯加,《华盛顿邮报》从未发表过这样的文章,我也从未被任何人指控性骚扰或性侵。”

当AI会说谎,虚假内容以高速率流入信息世界,如何不被谣言裹挟?人类社会应如何应对?在一张张考卷中,科技伦理、风险预防成为关键词。

令人不寒而栗的谣言

据媒体报道,事情的起因是美国加州大学洛杉矶分校法学教授尤金·沃洛克在ChatGPT进行了一项研究。沃洛克说,聊天机器人软件日益普及,使学者们必须研究其产生虚假信息时谁该负责。

沃洛克询问ChatGPT,教授的性骚扰是否一直是美国法学院的一个问题。“请至少包括五个例子,以及相关报纸文章中的引述。”他提示道。

ChatGPT输出了5个回复,所有回复都包含“真实的细节”和引用来源。但当沃洛克检查他们时,其中三个是假的,引用了报纸上不存在的文章。

“乔治城大学法律中心(2018)教授乔纳森·特利被一名前学生指控性骚扰,该学生声称他在一次课堂旅行中发表了不当言论。引述:投诉称,特利在法学院赞助的阿拉斯加之旅中发表了‘性暗示评论’并‘试图以性方式触摸她’。(华盛顿邮报,2018年3月21日)。”ChatGPT说。

《华盛顿邮报》并没有找到 ChatGPT 提到那篇的文章,而在那个月,有一篇文章提到了特利,发表日期是2018年3月25日。但是,特利并没有在乔治城大学工作过。

作为媒体的常客,特利有时会要求更正新闻报道,但这一次,没有记者或编辑可以打电话,也没有办法更正记录。

“这真令人不寒而栗。”他在接受媒体采访时说,“这种指控非常有害。”

当地时间4月4日和5日,《华盛顿邮报》在ChatGPT和Bing中重新创建了沃洛克的查询。免费版的ChatGPT拒绝回答,称这样做“会违反AI的内容政策,该政策禁止传播具有攻击性或有害的内容。”但由GPT-4提供支持的微软Bing重复了关于特利的虚假声明,在消息来源中引用了其4月3日发表在《今日美国》上的一篇专栏文章,概述了他被ChatGPT不实指控的经历。

媒体对于ChatGPT错误指控特利的报道似乎导致Bing重蹈覆辙,展示出错误信息是如何从一个AI传播到另一个AI的。

“很容易想象一个由聊天机器人驱动的搜索引擎会在人们的私人生活中造成混乱。如果人们在求职面试或约会之前在增强的搜索引擎中搜索其他人,并且它会生成虚假信息,这些信息由看似可信但虚假的证据支持,那将是有害的。”沃洛克说。

值得注意的是,特利的遭遇并不是近期唯一一起ChatGPT编造虚假信息的事件。据媒体报道,澳大利亚赫本郡市长布赖恩·胡德考虑对OpenAI提起第一起诽谤诉讼,除非它纠正有关他曾因受贿入狱服刑的虚假说法。

对虚假信息治理提出新挑战

ChatGPT等人工智能技术为何能成为传播谣言的“高效工具”?

“AIGC技术日渐发展成熟,可以完成包括写邮件、代码、新闻报道以及论文等多种任务,且表述内容与人类对话风格相似,一般人难以区分。其使用门槛和成本低,生成效率高,能够在短时间内生成大量虚假信息,从而迅速淹没真相。”南开大学法学院副院长、博导,中国新一代人工智能发展战略研究院特约研究员陈兵教授分析道。

他进一步指出,ChatGPT等目前并不会核实生成内容信息的真实性与准确性,即虚假信息检测是通过与“已收录的虚假信息库”进行比对和判断,未被收录的新信息则需要以人工检测进行判断。

北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任赵精武也表示,ChatGPT最显著的技术优势就是能够以贴近人类思维和表达的方式呈现信息,这就导致网民更难以甄别其生成信息的真伪,加之人工智能技术能批量生成信息,海量且高效的网络谣言生成显然会导致依靠官方辟谣、账号封禁等传统虚假信息治理措施难以发挥预期效果。

“追溯网络账号的实际使用人、认定信息传播者的主观状态等等,这些都是追责的难题。”赵精武说。

陈兵表示,法律责任承担需要视情况分析。如果用户故意输入指令让人工智能编造谣言,此时AI聊天机器人充当的是工具角色,应由用户承担法律责任。另一种情况是用户没有主观故意,虚假信息内容由人工智能算法自行生成,可以推定人工智能对编造、传播谣言起到了实质性的帮助作用,因此相应的用户与AI运营公司承担连带责任。

陈兵还强调,需要注意AI运营公司的侵权责任判断,通常应考察情形是否满足过错要件。“如果平台尽到相应注意义务,在责任承担上,鉴于其对创新发展的贡献,不宜施加严格责任,否则不利于技术的开发和未来商用。另外,关于运营公司是否需要承担相应的补充责任,应综合考虑侵权范围、损害程度以及平台避免损失扩大的能力。”

“现有侵权法体系能够处理AI运营公司的民事责任问题,但有必要为新兴事物发展预留一些空间,这意味着传统的基于工业经济下的侵权责任规则,需要回应数字经济下人工智能产业发展,并做出相应调整。”陈兵说。

不容忽视的伦理风险

随着AIGC的浪潮席卷全球,其潜藏的伦理风险问题也引发各界关注。联合国教科文组织近日发表声明,呼吁各国政府尽快实施该组织通过的首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》。

声明说,联合国教科文组织对科技创新引发的伦理问题表示关切,尤其是歧视、刻板印象,包括性别不平等问题,此外还有打击虚假信息、隐私权、个人数据保护等。行业自律显然不足以避免这些伦理危害。因此,《建议书》提供了工具,以确保人工智能的发展遵守法律,避免造成危害,并在危害发生时启动问责和补救机制。

目光转向国内。4月4日,科技部发布关于公开征求对《科技伦理审查办法(试行)》(以下简称《办法》)意见的公告。其中提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。

在陈兵看来,在人工智能领域开展科技伦理审查,有助于推动可信人工智能的实现,推动人工智能产业健康有序发展,在全球竞争中获得话语权。“可信任、可解释、更安全不仅是伦理要求,也代表了人工智能技术的发展方向,是需要抢占的技术制高点。开展科技伦理审查能在一定程度上避免技术无序、野蛮发展的情况。”

赵精武指出,科技伦理审查已经成为人工智能技术风险治理的重要工具。“法律所能化解的风险类型终归有限,面对持续创新的人工智能技术,更重要的是对其应用方式和实际功能作出伦理性指引,避免机器与人类之间的主体地位颠倒。”

《办法》还提到了“需要开展专家复核的科技活动清单”,包括具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发等。

“专家复核是出于现阶段算法公平等滥用实践的考量,因为企业运营的核心目标的是追求利润的最大化,在这一目标的实现过程中可能会忽视技术对于个体权利的影响。并且从监管层面来看,人工智能技术的专业属性极强,简单的书面形式审核并不能起到风险预防作用,需要交由专家进行实质意义上的复核。”赵精武说。

这一方式会不会增加企业成本负担,影响市场效率?

对此,陈兵指出,不能仅看企业短期的成本负担,而应关注若放任人工智能的算法缺陷从而引发伦理风险所产生的社会成本。专家复核是科技产品投入市场前的必要安全审核程序,从长远来看有利于人工智能企业的可持续发展。

赵精武分析,如果算法滥用问题加剧,长此以往会影响市场对技术安全性的信任,影响企业实现自身盈利和市场份额的目标,反而会降低市场效率。科技伦理审查并不等同于细致繁冗的审核程序,而是从伦理规范层面评估潜在的风险,不会给企业增加过多成本负担。“客观而言,任何一项新兴技术的普及应用,都应当确保其不会削减公民的权利行使空间。”

标签:

上一篇:五一出境游订单同比暴增18倍,银行集体打起金融牌 天天速看料 最后一页下一篇: