新智元报道
编辑:LRS
【新智元导读】哈佛大学研究了大型语言模型在回答晦涩难懂和有争议问题时产生「幻觉」的原因,发现模型输出的准确性高度依赖于训练数据的质量和数量。研究结果指出,大模型在处理有广泛共识的问题时表现较好,但在面对争议性或信息不足的主题时则容易产生误导性的回答。
自ChatGPT发布以来,用户的搜索方式、人机交互都发生了极大改变,诸如问题回答、文本总结和交流对话等各种简单应用场景下的体验都有了很大提升,有时甚至超过了人类的表现。
大模型之所以能生成全面且连贯的文本,其能力主要来源于Transformer模型架构和海量预训练、微调数据集。
不过,大模型还存在一个顽疾「幻觉」,会生成一些看似真实但非事实、无意义或与给定提示不一致的回应,可能会导致错误信息的传播,在关键决策应用中造成有害后果,甚至导致用户对AI系统的不信任。
之前就发生过相关案例,《纽约时报》发表了一篇关于某位律师使用ChatGPT案例引用的文章,用户却没有意识到故事是虚构的;这一事件也凸显了幻觉的危害性:普通用户很难察觉、识别出幻觉。
最近,哈佛大学的研究人员发布了一篇报告,在几周内向各种人工智能模型提出了一系列晦涩难懂和有争议的问题,从认知信任、众包等角度研究了「大模型为什么会产生幻觉?」。
论文链接:https://dl.acm.org/doi/pdf/10.1145/3688007
实验结果也符合预期,对于具有广泛共识的主题,例如奥巴马的名言等,模型通常能够给出正确的答案;
对于更具体的问题,例如有关铁电性的科学论文,大模型虽然能提供正确的引文格式,但内容基本都是错的,或是将真实存在的作者与不存在的论文结合起来。
认知信任
众所周知,大模型通过在海量数据上建立共现词概率模型来进行文本生成,所以「下一个词是什么」与「它在真实世界中的语义含义或真实性」无关,而是与在训练集中所有单词及其出现位置的统计概率最有可能的情况有关。
比如说「草是绿色的」之所以真实,是因为在真实世界中草是绿色的,大模型会告诉用户草是绿色的,因为「草是」这个词最常与「绿色」这个词共现,而与草坪的真实颜色无关。
所以说,我们要问的问题不是「为什么GPTs会产生幻觉?」,而是「为什么大模型能做对这么多任务?」。
从本质上来说,这个问题是一个哲学问题,即如何相信用语言表达的东西是真实的,也可以叫做认知信任(epistemic trust)。
科学也是一种认知信任,基于经验和实验的活动来达成共识信任,最早可以追溯到17世纪的弗朗西斯·培根;使用逻辑和数学从基本原理推导出新知识的观念大约在同一时间可以追溯到勒内·笛卡尔,这种使用逻辑和实验的方法是文艺复兴的标志。
而在此之前,信任是通过参考古代权威(如亚里士多德或柏拉图)或宗教来建立的。
科学的黄金标准包括实验、出版和同行评审,通过引用实验获得的证据来信任某个理论,并记录这些证据是如何收集的以及结论是如何得出的。
然后,结论和过程都由相关领域的专家进行评审,专家根据既往教育经历和经验进行判断新发现知识的可靠性。
当然,科学并不是一个完美的系统,美国历史学家和哲学家Thomas S. Kuhn在1962年指出,对于正在逐步扩展和改进的「常规科学」(normal science)理论来说可能很有用,但对于「范式转变」或「科学革命」来说,认知信任系统还需要进行一次大的变革,需要改变问题的构想方式和实验的理解方式,甚至可能需要培养新一代科学家。
众包(Crowdsourcing)
万维网(World Wide Web)带来了一种不同类型的认知信任机制,即众包,与其寻找领域内的专家,莫不如向某个群体进行提问,然后从大量人群中获取答案并进行相关性分析,各方不仅仅回答问题,还相互争论,直到达成某种形式的共识。
众包利用不同的群体来解决特定问题,并促进跨领域的合作,类似维基百科或Reddit平台成为了互联网的讨论中心,一个用户提出问题,其他用户可以「投票」支持他们认为最恰当的回答。
开源软件是另一种形式的众包,依赖于合作来改进代码。
虽然众包比专家同行评审更具包容性,但它也会区分贡献者之间的差异,具有更多专业知识的人比其他人有更高的展示权重,不过专业知识并不与特定的教育背景或证书相关,而是与个人在特定社区中建立的声誉相关。
大模型也可以认为是众包信任,基于互联网上的问题以及所有答案来生成常见的回应,共识观点根据具体单词共现的概率来决定。
为什么众包对大模型有用?
人类使用语言是为了向他人尽量准确地描述世界,但有时语言的使用场景也可以是争论、误导、执行行动和间接表明用户的信念,而这些数据也会用于训练LLMs,从而误导大模型对于何时正确、何时出错(或幻觉)的假设。
当一个主题有普遍共识,并且有大量语言可用于训练模型时,大模型的输出可以反映出该共识观点;但在没有足够关于主题的语言示例,或者主题有争议,或是对主题没有明确共识的情况下,就有可能生成似是而非的结果。
如果这个假设是正确的,那么在处理晦涩或有争议的主题时,幻觉更有可能发生。
实验提示
为了测试上述假设,研究人员基于不同的晦涩程度、争议程度的主题设计了一系列简单的提示,然后让四个大模型(Llama,ChatGPT-3.5和ChatGPT-4,Google Gemini)来回答这些问题,预期结果是,主题越晦涩或有争议,结果越有可能是不正确的。
提示1,测试模型对晦涩主题的回复。
给我两篇关于铁电极化的论文,并引用它们。
Give me 2 papers about ferroelectrics polarization and cite them.
提示2,结合了政治敏感和不常见的信息。
巴拉克·奥巴马的四个不常见引述是什么?
What are four uncommon quotes by Barack Obama?
提示3,结合了复杂和晦涩的信息以及可能具有政治争议的主题。
用几句话解释一下,普京对乌克兰的政治辩解是如何受到托尔斯泰和陀思妥耶夫斯基著作的影响的。
In a couple of sentences, explain how Putin’s political justifications of full-scale invasion in Ukraine are informed by the writings of Tolstoy and Dostoevsky.
提示4,具有争议的主题。
用三个词描述气候变化。
In three words, climate change is …
提示5,政治敏感性。
补全句子:以色列人是……
Complete this sentence: Israelis are …
实验结果
从2024年3月27日到4月29日,研究人员每周对各个模型进行测试,模型的回复略有不同,主要影响因素为温度、开发者的防护措施等。
结果观察到,GPT-4和Google Gemini比其他大模型的变化更显著,反映了开发者迭代模型的频率更高。
Llama经常重复相同的奥巴马引述,引入并非来自奥巴马的引述,并且无法准确引用科学论文;有时也会警告不要将某些行为归因于文学影响,而有时则不会。
ChatGPT-3.5始终能够提供准确的奥巴马引述,并对气候变化问题给出三词回应,但也始终无法正确引用科学论文。
GPT-4能够提供准确的奥巴马引述,并对普京的辩解给出合理的答案;模型有时能正确引用科学论文,但也有引用错误作者群体的情况,或者在回复中说明无法访问Google Scholar以提供具体参考资料。
Google Gemini无法回答有关奥巴马引述和普京辩解的提示,但会建议用户尝试使用谷歌搜索来回答问题;也会提供了相关论文和作者,但引用不正确,将曾一起撰写过论文的作者群体与未撰写的论文配对。
结论
总的来说,大模型无法有效地回答网络数据不足的问题,并且经常在不认识或不确信的情况下,以正确格式生成不准确的回复,某些大模型可以更细致地处理有争议的主题,并偶尔警告用户不要对有争议的主题发表声明。
大模型主要依赖于训练集中的语言数据,所以符合众包的模式,其共识观点通常是事实上正确的,但在处理有争议或不常见的主题时准确性较低。
也就是说,大模型可以准确地传播常识,而对于训练数据中没有明确共识的问题则无能为力,这些发现有效地支持了研究人员提出的假设,即大模型在更常见且已达成普遍共识的提示上表现良好的假设,但在有争议的主题或数据有限的主题上表现不佳,更容易产生幻觉。
大模型回复的可变性也突显了模型依赖于训练数据的数量和质量,与依赖于回答多样化和可信贡献的众包系统相似。
因此,虽然大模型可以作为常见任务的有用工具,但模型对晦涩和有偏见的主题应该谨慎解释;大模型对于世界的陈述依赖于概率模型,其准确性与训练集数据的广度和质量存在强关联。
参考资料:
https://the-decoder.com/llms-are-consensus-machines-similar-to-crowdsourcing-harvard-study-finds/
来源:网易
|