AI在新闻报道中存在大量错误,近半数回答不可靠

新闻来源: 旅法华人 于 2025-02-14 21:29:39

英国广播公司(BBC)近日公布的一项调查显示,当前主流的生成式人工智能(AI)在回答新闻问题时,存在严重的准确性问题。在测试的四个AI助手中,超过一半的回答(51%)存在重大错误,甚至19%错误引用了BBC的报道,数据和事实均有失实情况。

【人工智能在新闻信息上的“幻觉”】

在此次调查中,BBC对ChatGPT(OpenAI)、Copilot(微软)、Gemini(谷歌)和Perplexity四款生成式人工智能进行了一个月的测试,并要求这些AI在可能的情况下引用BBC News的报道作为信息来源。随后,BBC的专业记者根据准确性、公正性以及引用来源的方式对这些回答进行评估。

调查发现,51%的AI回答存在严重问题,其中19%错误引用BBC的报道,包括提供错误的数字、日期或直接传播虚假信息。此外,13%的AI引用内容被“篡改”或“根本不存在”,即AI“编造”了信息来源。

例如,Gemini在回答有关英国国家医疗服务体系(NHS)的问题时,错误地称“NHS不建议人们使用电子烟,并推荐吸烟者选择其他戒烟方式”。然而,NHS官网实际上将电子烟列为“最有效的戒烟工具之一”,该AI的回答明显与事实不符。

此外,Perplexity在报道中东局势时,错误引用BBC,称伊朗在冲突初期“表现出克制”,并将以色列的行动描述为“侵略性”,这些带有主观判断的表述并未出现在BBC的原始报道中。

【BBC警告:人工智能新闻信息仍需严格核实】

BBC生成式AI项目负责人彼得·阿彻(Peter Archer)警告称:“许多人可能认为,他们可以信赖AI提供的信息,但这项研究表明,这些AI助手在关键新闻事件上可能会提供被扭曲、错误或误导性的答案。”

他强调:“生成式AI的应用会继续扩大,因此确保其提供的信息准确且值得信赖至关重要。”他建议AI公司与媒体机构建立更紧密的合作,以提高信息的可靠性。

【AI在新闻领域的可靠性仍存争议】

BBC的这项调查并非唯一针对AI新闻可靠性的研究。全球多个团队对AI的准确性进行了评估。例如,ChatGPT的可靠性评分被测评为60%至90%不等。

目前,多位专家建议用户在使用AI进行新闻信息查询时,必须具备独立核实的能力。美国斯特雷耶大学图书馆(Strayer University Library)在其建议中指出:“无论AI回答看起来多么可信,用户都应始终核实事实、研究和信息来源。”

【未来展望:AI新闻信息监管或成趋势】

随着AI在新闻传播中的应用越来越广泛,信息准确性问题引发了监管讨论。BBC此次研究为行业敲响警钟,或推动AI新闻信息审核机制的建立。未来,AI公司可能需要加强与新闻机构合作,提高信息质量,以确保公共信息的公正性和可靠性。

 
(0)
(0)

【手机扫描浏览分享】

扫一扫二维码[Scan QR Code]

进入内容页点击屏幕右上分享按钮

点击二维码复制内容链接

敬请注意:内容来自网络,不代表本网立场,如果有内容违规或侵犯了您的权益,请联系我们,我们核实后会第一时间删除!