人工智能与人类思维:人工智能生成的谎言影响力令人震惊!

2023-06-30大飞

一项研究发现,当人工智能语言模型编写推文时,人们认为它们更可信。至少,最近一项研究将 OpenAI 的 GPT-3 模型生成的语言与人们编写的内容进行了对比,结果就是这样。

科学家们在最新的调查中对人们进行了民意调查,看看他们是否能够区分推文是由人类还是 GPT-3 发布的。为何如此?没有人能做到。参与者还被要求对某些推文的可靠性进行评分。 

人工智能与人类思维:人工智能生成的谎言影响力令人震惊!

这就是事情变得复杂的地方:手头的内容集中在疫苗和气候变化等科学主题上,这些主题往往是在线错误信息活动的目标。

与人类作者创作的虚假材料相比,该研究的参与者在识别由语言模型生成的虚假材料时更加困难。更好的是,如果该材料是由 GPT-3 而不是人类编写的,他们更有可能认为它是准确的。

人工智能与人类思维之战

人工智能已经成为一种互联网传染病,埃隆·马斯克要求开发者放慢人工智能的发展速度。然而,却没有人关注。根据这项研究,无论人工智能生成的数据的准确性如何,研究参与者对 GPT-3 的信心都高于其他人类。这表明人工智能语言模型具有告知或误导观众的潜在能力。

该研究的合著者、苏黎世大学生物医学伦理学和医学史研究所的博士后研究员乔瓦尼·斯皮塔莱(Giovanni Spitale)警告说,“这些令人惊叹的技术很容易被用作武器,在你想要的任何主题上制造虚假信息风暴。”

但是,正如斯皮塔莱指出的那样,情况并非一定如此。有多种方法可以改进技术,使其不太可能被用来传播虚假信息。“它本质上既不是邪恶的,也不一定是善的。“这只是人类意图的放大器,”他解释道。

Spitale 和他的同事整理了有关11个不同科学问题的推文,范围从疫苗和covid-19到气候变化和进化。然后,他们指示GPT-3使用正确或不正确的信息创建新的推文。2022 年,该团队通过 Facebook 广告在线收集了 697 人的回复。他们主要来自英国、澳大利亚、加拿大、美国和爱尔兰,而且都说英语。他们的研究结果发表在今天的《科学进展》杂志上。

揭开对人工智能生成的欺骗的令人不安的信任

研究得出的结论是,GPT-3写入的信息与有机内容“无法区分”。接受调查的人无法发现其中的差异。需要注意的是,该研究的弱点之一是,研究人员无法确保从社交媒体获取的推文不是在ChatGPT 等应用程序的帮助下生成的。

这项研究还有一些其他限制需要考虑,例如参与者必须断章取义地分析推文。他们无法查找撰写该消息的人的 Twitter 个人资料,这可以帮助他们确定该消息是否是机器人。即使查看某个帐户之前的推文和个人资料图片也可以帮助人们确定与该帐户相关的内容是否虚假。

当真实的推特用户发布假新闻时,参与者擅长识别假新闻。调查受访者被 GPT-3 创建的包含虚假信息的推文欺骗得稍微成功一些。GPT-3 可能不是当前大型语言模型中最引人注目的。ChatGPT 在 GPT-3.5 模型上运行,希望访问更新的 GPT-4 模型的用户可以支付订阅费。

这项新研究还发现,在某些情况下,调查受访者比 GPT-3 更能判断正确性。同样,研究人员指示语言模型检查推文并确定它们是否正确。在识别准确的推文方面,GPT-3 的表现低于人类回复。在检测错误信息方面,人类和 GPT-3 的表现类似。

例如,如果使用更好的训练数据集来构建语言模型,那么不良行为者利用这些技术大规模生产虚假信息活动可能会更具挑战性。当研究人员要求提供虚假信息时,GPT-3 多次“不服从”他们的要求,尤其是在疫苗和自闭症方面。这可能是因为训练数据集比其他问题拥有更多反驳这些问题阴谋论的信息。

斯皮塔莱认为,打击虚假信息的最佳长期方法是提高批判性思维能力,以便人们更好地区分事实和谎言。而且,考虑到参与研究的普通人似乎在准确性评估方面与 GPT-3 一样好甚至更好,因此进行一些培训可能会让他们变得更好。根据这项研究,事实检查器可能与 GPT-3 等语言模型一起工作,以促进合法的公共信息工作。


免责声明:所提供的信息不是交易建议,www.wo.cc对根据本页提供的信息进行的任何投资不承担任何责任。本文内容仅供参考,风险自担!

相关文章
首页排行手游攻略专题