人工智能治理沙龙回顾 I人工智能与自动化新闻写作
信息来源:人工智能治理研究院 发布日期:2026年3月24日
在小说阅读器中沉浸阅读 2026年3月18日,中国人民大学人工智能治理研究院举办了第十九期人工智能治理沙龙。本期沙龙由中国人民大学新闻学院讲师王裕平带来有关人工智能与自动化新闻写作的主题报告,由中国人民大学新闻学院副教授塔娜、中国人民大学法学院讲师孙靖洲担任对谈嘉宾。沙龙由中国人民大学人工智能治理研究院院长、哲学院教授刘玮主持。本次报告重点关注自动化新闻的发展历程,通过案例剖析了人工智能辅助新闻创作的进化史,反思了制约其进一步发展的因素,并在最后提出了未来展望。
主旨报告
人工智能与自动化新闻写作
王裕平从新闻的定义和分类谈起。根据《解放日报》总编辑陆定一的观点,“新闻是对新近发生的事实的报道”,按照主题可分为政治新闻、经济新闻、娱乐新闻以及体育新闻等,按照体裁可分为消息、评论和数据新闻等。而自动化新闻(或称算法新闻)意味着新闻在生产过程中只需要很少或不需要人力干预,如今人工智能辅助新闻创作在广义上就可以被可归纳为此类新闻。
现代的自动化新闻大体可以由大语言模型的全面谱及划分为前后两个阶段。大语言模型之前的自动化新闻具有内容相对简单、重复、高度模版化等特点。例如,《洛杉矶时报》的地震机器人Quakebot,在2014年撰写的文本与12年后撰写的新闻几乎相同,这是因为地震类新闻的模板非常固定。又如腾讯财经在2015年有关CPI涨幅的自动化新闻,其结构也十分简单,只需将CPI变动信息呈现清楚即可。除了任务简单、模板化的特点,在这一时期,对自动化新闻的诉求还集中在较为繁重的工作上,如美联社使用Wordsmith工具自动生产财报报道的内容,每季度可生成约3000篇,对比此前的每季度300篇有大幅提升。
大语言模型时代到来之后,人工智能技术进一步应用于新闻生产,不仅体裁更加广泛,有潜力应用于涉及新闻评论等,主题同样更加广泛,可以用于时事等领域。并且还涉及到协助调查记者整理数据、生成新闻评论等多种复杂场景的局部自动化流程。王裕平指出,在AI的帮助下,研究人员复现了弗吉尼亚警员“撤销资格”调查的主要结论,这说明在新闻工作中,AI能够在一定程度上帮助我们进行数据的搜集整理工作。在该实验中,用于复现研究结论的Claude Code 和Opus,使用同一批公开数据,在非联网的情况下仅用一小时就完成了数据整理并得出了原研究相似的结论。实验还揭示出了合适的工作流能够提高人工智能coding agents对于该项工作的质量和效率。
从简单的文本填充到复杂的自处理数据整理,自动化新闻的已然呈现了跨越式进化,但是人工智能在新闻领域应用的进一步进化却受到了制约,王裕平将其总结为三点因素。
首先,虚假信息的风险。在允许人工智能生成新闻后,CNET Networks 的AI写手生产的新闻被曝半数有误,这无疑在无形中提高了新闻行业受公众信任的成本,以至于在以色列总理内塔尼亚胡通过官方辟谣自己遭暗杀的虚假信息时反而被不断质疑是人工智能生成的内容。据此,王裕平认为,应规范人工智能使用和新闻伦理标准,通过政策和法律手段维护新闻行业的公信力。
第二,人工智能的应用对新闻行业本身造成了冲击。一方面,人工智能对新闻行业的工作岗位造成了冲击,2023年,美国新闻业因多种因素(包括AI影响)裁员2700人,同时AI公司在训练模型时低成本使用新闻数据引发版权争议,其中小型新闻机构更是由于无法被合理补偿而雪上加霜。另一方面,AI技术的应用促使新闻业内部出现新分工,技术人员与传统记者协作,形成新的工作模式,并由此对新闻工作者主体性和自主性构成挑战。
第三,人们对人工智能的接受程度。王裕平通过《奥兰多前哨报》的实验,展示了AI在撰写社论时存在的问题,如内容质量低、缺乏具体例子支持、引用幻觉等。这使得人工智能在新闻行业的应用并不能让广大读者信服。然而随着技术进步,通过对比人类与AI在科学写作中的表现,研究者也发现AI创作的内容更受读者欢迎,这也引发了对AI写作质量的重新评估。
综上,王裕平对未来人工智能技术在新闻中的应用进行了展望,认为随着技术的发展, AI在新闻业中的应用将会越来越广泛,并强调在保持真实性原则的同时,鼓励行业探索AI辅助新闻生产的方式,以及学生在推动行业发展中的作用。
交流与讨论
在随后的讨论中,塔娜从自身观察以及对算法审计的研究出发,对报告中提出的问题进行了扩展。她通过自动化新闻与算法新闻的发展趋势,指出公众对新闻信任度下降的现象。例如在社交媒体评论区经常会看到询问说这个视频是否是AIGC的,这显示我们可能对于信息空间的真实性就有了比较大的存疑,这使得建立信任变得困难,尤其在当前新闻消费趋向泛娱乐化和社交媒体,这影响了严肃新闻的传播效果。同时,在算法推荐时代,个人的信息偏食可能被加剧,导致部分用户陷入茧房,无法接触到具有公共属性的新闻,从而引起获取信息的不平等。她强调需要进行更多的实证研究来深入理解公众对人工智能生成新闻的态度和行为改变,认为这将比当前的推测研究更为深刻。
孙靖洲则对人工智能引发的法律问题表达了深切的关注,尤其聚焦于责任归属和言论自由两大议题。她指出,人工智能在创作和评论领域的应用,如撰写新闻评论,不仅挑战了人类智慧的独创性,还可能引发著作权和作品定义上的争议。此外,AI的介入还对言论自由的界限和新闻从业者的角色提出了新的挑战,例如人工智能是否应该被赋予等同于人的言论自由权利等问题。同时,她表达了对如何定义和对待人工智能的责任的法律疑问,并思考了AI在智慧性新闻活动中的角色,上述问题引发了对人类独特性及法律制度设计进一步的思考:有人认为在作品创作时人工智能也应该被赋予独创性标签,而这样的观点实际上是对人在创作时的独特主体性的否定:如果让AI承担创作主体的角色(并认为其享有相应的权利与责任),会让人们质疑当下法律法规还能否对创作主体产生激励或惩罚的作用。
针对这些问题,王裕平回应道,对于新闻评论来说,不同的国家有着不同的国情不同的价值观,这是一个机器价值对齐的问题,不存在着一刀切的手段,但可以通过相关法律法规对人工智能的输出内容进行制约。而针对主体性问题,他认为人工智能目前还停留在工具阶段,并没有真正意义上的自主性,独创性AI与作者的关系更相当于司令与参谋之间的关系,人才是作为主要的决定者。
参与沙龙的同学提问道:我们是否可以把AI理解为一种新闻写作的工具,即使AI在事实上具备抓取各种信息的能力,新闻报道依然要用到真实的人力进行采编与写作。王裕平赞成这种看法,认为新闻记者需要与人打交道的能力,同时要具有判断新闻价值的能力,这些都是单纯搜集整理数据无法达到的,这种对新闻的感知能力是人才具备的,因此可以说人在整个流程中起了决定性的作用。
在沙龙最后,王裕平总结道,AI在现阶段依然是新闻生产的辅助工具而非替代者。坚守真实的新闻报道,辅助以与时俱进的规范协同,才能以技术赋能新闻,以人文守护价值。
Copyright ©2016 中国人民大学科学技术发展部 版权所有
地址:北京市海淀区中关村大街59号中国人民大学明德主楼1121B 邮编:100872
电话:010-62513381 传真:010-62514955 电子邮箱: ligongchu@ruc.edu.cn
京公网安备110402430004号