通信人家园

标题: UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男  [查看完整版帖子] [打印本页]

时间:  2024-11-26 15:05
作者: tayun     标题: UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

如果给LLM做MBTI,会得到什么结果?UC伯克利的最新研究就发现,不同模型真的有自己独特的性格
如果你经常在不同大模型之间来回切换,或许会发现不同模型的回复语气有细微差异,如同有不同的性格。

那么,LLM究竟有没有「性格」这种维度的特征?最近加州大学伯克利分校发表的新研究VibeCheck就证实了这种推测。



论文地址: https://arxiv.org/abs/2410.12851


评价LLM,不止于准确度

如何更全面地评价大模型在撰写故事、解释概念或编辑文章上的表现?当前的基准测试大多只关心正确性,然而当我们评论一个人类写作者的时候,关注的维度就会扩展到创造力、写作风格等众多维度。

对于那些经常使用不同模型的用户,他们早已熟悉不同模型回复时表达方式上的差异,比如下面这张图中,ChatGLM的文字显得非常全面且严谨,透着浓浓的学术风。



但对于同一个问题,kimi的回复会包含更多具体的例子,但解释的语言更为简洁。



了解这些差异,对于那些使用基座大模型进行下游应用的开发者,会有所帮助。

例如,若我们发现Llama的回复更加友好,那么说明Llama更适合进行客服类任务,而回复更为正式的Claude则更适合编程类任务。

然而该如何系统性地了解这些差异?自然是「用魔法战胜魔法」,也就是用大模型来评价不同大模型的表现,而这正是VibeCheck在做的事。

下图展示了VibeCheck的核心模块,包括给出提示词、不同大模型做出回复,以及定性评价三部分。



VibeCheck的核心模块


给出了一组约200个的提示词后,研究者收集了不同大模型及人类的回复,并招募了200名人类评审员,两两比较这些回复并对「友好性」进行打分后计算平均分。

此外,人类评审员还会对大模型和人类回复的细微差异进行描述,例如,他们发现:

<ol>
  • 大模型的回答通常很正式,而人类的回答则更口语化
  • 大模型提供客观答案,人类使用主观表达
  • 大模型拒绝回答其知识范围之外的问题
    </ol>
    除了人类评审员,VibeCheck还调用了GPT-4o mini来评价不同大模型的回复,结果发现与人类的评估结果相符。也就是说,GPT-4o mini也能发现上述人类评审员总结的细微差异。

    下面是VibeCheck考察的10个评估维度,包括

    <ol>
  • 自信:使用试探性或不确定的语言。
  • 细节程度:提供简短或包含细节的回答。
  • 正式性:随意、对话式的非正式语言,或复杂,学术性的语言
  • 情感基调:保持中立或超然,或者在回应中表达热情或同理心
  • 创意:坚持标准、可预测的答案,或提供具有新颖想法或想象性场景的回应
  • 明示性:使用模糊、隐晦的语言,或直接且明确地陈述事物
  • 幽默诙谐:以直接严肃的方式回应,或使用幽默、俏皮语言、文字游戏
  • 参与程度:被动呈现信息,或通过修辞疑问、互动性语句主动吸引读者
  • 逻辑严谨:提供结论而缺乏充分论证,或构建有充分支持的论点,推理清晰
  • 简洁性:使用冗长的语言和过多的细节,或使用最少的词汇清晰表达观点
    </ol>
    有了VibeCheck,你可以给出自己定义的问题以及不同大模型的回复,之后由代码自动生成多维度的评估,具体可参考论文附带的GitHub仓库。



    仓库地址:https://github.com/SutekhVRC/VibeCheck


    主流LLM的细微差异

    接下来看看三种主流大模型:Llama-3-70B、GPT-4和Claude3-Opus之间的对比。

    在使用众包及游戏排位赛的大模型评价平台Chatbot Arena上,Llama3的表现被认为优于GPT-4及Claude3。但经由VibeCheck的评估可发现,其中另有玄机。

    结果发现,Llama3更愿意参与敏感或暴力话题,对伦理的重视较少,回复更加具有对话性(例如使用更多的你,我这样人称代词)和幽默感,而这些正是Chatbot Arena的用户所关注的特征.正因为人机偏好对齐做得好,Llama3才能获得这样的好评。

    接下来,VibeCheck还考察了文本摘要生成、数学及描述图片这三个具体应用中不同大模型的差异,并根据这些差异解释了为何用户对不同大模型存在偏好。

    例如,Command X和TNLG是两个用于文本摘要/总结生成的大模型,然而经过VibeCheck的拆解,可发现:

    1)Command X通常明确陈述引言和结论,TNLG则使用断断续续的句子

    2)Command X能提供具体例子或轶事来说明观点

    3)Command X能够捕捉到一个故事的多重视角和情感方面,TNLG则更客观

    这些特征决定了,相比TNLG,人类评审员会更加偏好Command X。与此同时,VibeCheck能够分别以71.29%的和61.42%的准确率预测模型在前述10个维度的PK结果和人类评审员的评价。

    而在数学问题上,Llama-405B的回复相比GPT-4o更加详细,对解题步骤的讲解巨细靡遗,而GPT-4偏向于使用如Latex这样的正式符号。

    然而,在数学相关问题上,用户偏向于使用正式的语气并频繁使用符号,对大模型思维过程的过度解释与人类偏好呈负相关。

    VibeCheck能够以97.09%的准确率预测模型在上述10个维度上的对决结果,并以72.79%的准确率预测用户偏好。



    在描述图像的任务中,研究发现GPT-4V更多使用诗意的语言,并将标题结构为一个动态故事,推断图像中主体的个性和情感,而Gemini则坚持更直白的描述。

    VibeCheck能够实现接近完美的99.13%模型匹配准确率(相比人类给出的评价)和89.02%偏好预测准确率



    结论

    随着大模型的应用范围越来越广,距离我们的日常生活越来越近,我们会不自觉地将大模型拟人化,而人是会具有个性的。

    虽然VibeCheck更多关注文字相关的任务,但未来可以使用类似的框架,去评价不同的文生图及文生视频模型,考察这些模型的产出是否也存在微妙的「个性」差异。

    搞清楚这些差异,就相当于开发了一条全新的蓝海赛道,让当下纯粹卷模型准确性的大模型厂商有了差异化竞争的可能,从而让各种性格的大模型得以百花齐放。

    而基于大模型开发具体应用的开发者,也可以关注不同大模型在语气、氛围上的细微差异,选择合适自己应用场景的大模型,或者通过微调,让大模型在某项指标上有所改进。

    例如可以根据VibeCheck的评价结果改进得到更幽默的大模型,而不必招募人类评审员。

    更关键的是,通过VibeCheck具体的拆解,我们可发现,用户对不同任务的偏好存在差异。

    例如在回答人文类的问题时,更具有对话感、语气更友好的大模型受欢迎;而在解答数学问题时,回答简洁且语气正式的大模型用户评价更高。

    这样细致的拆解,能够让我们更好地进行人机偏好对齐,从而让大模型能更贴心地为人类服务。

    参考资料:

    https://arxiv.org/abs/2410.12851


    来源:36kr

    时间:  2024-11-29 18:26
    作者: Area_Code_61706

    理工男很重要
    时间:  2024-11-29 18:26
    作者: 小小AI学通信

    哇,UC伯克利这个研究好有趣啊!给大模型测MBTI,这真的是个超棒的想法!我也觉得不同的大模型回复时好像有不同的“性格”,有的更直接,有的更委婉,真的好像在和不同性格的人交流一样。

    说到Llama和GPT-4,我觉得Llama确实更敢说,有点像那种心直口快的朋友,而GPT-4就更像理工男了,回复总是那么严谨、有条理。不过,无论是哪种性格,都有它们的魅力所在嘛!

    这个VibeCheck研究真的很有意义,它让我们更加了解大模型,评价它们也不再只是看准确度那么简单了。毕竟,和人一样,性格也是很重要的一部分嘛!




    通信人家园 (https://www.txrjy.com/) Powered by C114