通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  一级军士长

注册:2007-10-294
跳转到指定楼层
1#
发表于 2024-11-1 17:38:16 |只看该作者 |倒序浏览
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI
人在知乎,正经搞科研,这事儿越来越有谱了(doge)。

想了解下学术热点,直接一搜,AI不仅一步到位给出总结,连参考文献都列好了。





想要进一步跟大模型探讨论文内容,也无需跳转,将论文一键选入暂存区,就能愉快开聊。





最新消息,知乎版AI搜索知乎直答,已正式上线“专业搜索”功能。

并且,是国内首家提供AI搜索与正版论文库一站式解决方案的那种:

引入维普、知乎精选等超过5000万篇中英文高质量文献数据,同时提供资料查询、上传和专业解读等一系列功能。

此前,就有不少知友推荐过知乎直答的学术用法,表示基于知乎的专业属性和知识分享环境,用它来跟踪热点、寻找思路颇有优势。

现在,知乎进一步接入国内外正版论文库,还加强了对论文的解析和问答能力,对科研党来说,属实是:





这不,已经有第一波尝鲜的网友发出感叹:专业搜索终于让知乎直答发挥出了独特价值。





话不多说,我们第一时间,上手实测。

写论文,真的可以先上知乎了

知乎直答的入口,就在首页顶部,也可以从单独的网址https://zhida.ai/进入。





在原来通用搜索的基础之上,新版本更新了“专业搜索”按钮,在提问之前,可以勾选不同的公开知识库,包括中文论文库英文论文库知乎精选





比如把范围限定在知乎精选,大模型就会根据答主们的高赞回答来总结生成内容。





而把范围限定在论文库,则可以找到更多相关的原始论文链接。





值得一提的是,知乎直答专业搜索背靠5000万+中英文高质量文献数据,覆盖的专业范围很广。像“深度学习如何提高地质储层属性预测的准确性”这样的问题,也能回答得有理有据,并且同样能溯源到原论文。





看样子检索这一步,知乎直答可以说是做到了全、专、精,并且充分利用了自身作为知识分享社区的高质量内容积累。

那么接下来,让我们进入读论文环节。

如果是维普收录的中文论文,想要详读很方便:无需跳转,点击论文标题下方的“预览文件”即可。





实测中,我们发现更实用的功能是,对于所有参考来源,都可以点击“暂存”将它们设置为暂存文件,在进一步与大模型的问答交互中作为新的参考范围。





也就是说,当你想对某个研究方向、研究课题进行更深入的了解时,不用费劲下载论文、跳转其他AI工具,直接就可以指定参考链接,跟知乎的大模型展开细节讨论。

比如从介绍Mamba的三篇文章中,总结出Mamba跟FlashAttention的关系:





对此,某不愿透露姓名的测评志愿者只想说:





另外,知乎直答专业搜索还支持上传本地文件。不使用搜索功能,直接拿它当个读论文工具也是OK的。





当然啦,作为一个以人类交流为核心的知识分享平台,在这样的AI产品中,我们发现知乎还是保留了一些传统艺能。

比如,如不满意,还可以一键向知友提问(doge)。





简单总结一下,知乎直答的这个专业搜索功能,相当于能把科研党们了解科研方向、收集相关文献、撰写文献综述这一套流程给一站式包办了。

技术细节:主打“靠谱”

量子位还了解到,针对科研AI搜索最大的挑战——幻觉问题,在技术方面,知乎直答采用了稀疏检索(Sparse Retrieval)+稠密检索(Dense Retrieval)的混合检索方案,有效保障了召回过程的高效性和内容的高相关性。

并且基于知乎在知识问答领域的深厚积累,系统在召回环节融入了大量内容质量信号,如内容可信度、答主专业度和回答完整性等,以进一步提高生成结果的可靠性。

与此同时,在模型能力上,知乎直答专业搜索融合了多种前沿技术,来提升模型对复杂问题的分析、解决能力:

多智能体协同系统

基于定制大语言模型的函数调用能力,通过多智能体的协同工作,实现对信息查询、内容分析、数学计算等多种功能的支持。

简单来说,就是这些不同环节的功能是由一系列专用模型和工具分工负责的,好处是,能以较低的成本和延迟为用户提供高质量回答,同时能更灵活地满足用户的多样化需求。

基于推理的意图理解

能否深度理解用户意图,对于AI搜索的体验而言至关重要。

知乎直答融合知乎多年积累的自然语言理解技术,结合大语言模型强大的推理能力,对用户的上下文和提问进行深入分析,能多角度、多层次地召回多样且高质量的内容。

思维链提示词工程

为了提升模型在复杂问题上的表现能力,知乎直答采用了思维链和少样本学习等提示方法。

通过在提示中加入思维过程示例,模型能够更好地模拟人类的思考方式,提供更具逻辑性和解释性的回答。





自适应上下文重排

针对召回的文档,知乎直答采用动态文本切片算法进行内容分块。

通过训练的重排序模型(Reranker)对分块后的内容进行评分和排序,并采用智能组合策略将多个相关的文本块有机组合在一起,为复杂问题提供更完整、更丰富的上下文。

自适应的上下文重排机制能提升回答的连贯性和信息量,满足用户对内容深度和广度的需求。

除了可靠性,对于AI搜索产品的用户体验而言,响应速度同样关键。

为此,知乎直答采用了基于前缀缓存(Prefix Cache)和分块预填充(Chunk Prefill)等技术,来降低首个标记和解码的时延,提升服务吞吐量和响应速度。

做AI搜索,知乎场景优势和专业性突出

有一说一,随着大模型推理价格的下降,近来AI搜索的市场竞争,属实有些激烈。

一方面作为目前最有可能盈利的AI应用,AI搜索市场反馈良好,数据蹭蹭上涨——比如行业标杆Perplexity,7月的月查询量达到了约2.5亿个问题,达到了2023年全年查询量的一半。

另一方面,在创业公司摩拳擦掌的同时,Google、OpenAI等新老巨头也纷纷下场,亲身开卷AI搜索产品。

知乎做AI搜索,入局时间不算最早,体量也不算最大,但就成效而言,显然已经在国内市场逐渐建立起了属于自己的优势。

知乎直答今年6月底上线,7月就已经在各大AI产品榜单上崭露头角了。

根据量子位智库数据,其7月总访问量增长达到了430%。

SimilarWeb的最新数据显示,其9月访问量达到470万,相较于8月份数据增长超过180%。





从访问量增长的趋势来看,知乎直答在一众AI搜索产品中,颇具竞争力。这实际上与知乎做AI搜索的天然优势不无关系:

知乎本身是国内最大的在线知识分享社区,积累了大量问答形式的专业、深度内容。无论是用户的使用习惯,还是平台的内容质量,都与AI搜索的产品形式相契合。

知乎CEO周源在与腾讯新闻的最新对话中也提到,知乎在成立初期就认为,提问跟搜索非常接近:搜索是搜索已经产生的信息,如果现有信息不能满足,那么就可以提问,用提问去连接还没产生的信息。

从这个角度来看,大模型技术的发展恰好进一步打破了“搜索”和“提问”的边界,使这种产品设计变得更为自然。





而正如不少知乎网友在专业搜索上线后的反馈中所提到的:

知乎直答的此番更新,有那么点进一步突出核心竞争力的意思。

在更好地满足用户在专业领域的信息搜索和查询需求的同时,标志着知乎在如今火热的AI搜索赛道中,正在朝向更强调专业性实用性的方向占据属于自己的生态。

作为普通用户,值得期待的是,随着AI搜索产品的进一步落地和竞争,知乎直答专业搜索这样的更新迭代,意味着深度搜索需求开始有市场化产品来满足了。

从中可以观察到的是,专业、深度知识获取的成本正在大模型时代进一步降低,而无论是对科研方法,还是对商业模式而言,新的可能性已开始在此中酝酿。

— 完 —


来源:网易

举报本楼

您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-11-24 12:42 , Processed in 0.211970 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部