只需一步,快速开始
短信验证,便捷登录
军衔等级:
上尉
LLM推理中的延迟问题常被忽视,而实时应用对此要求严苛。来自Zoom的华人团队提出草稿链(CoD)技术,仅用7.6%的token,就能在保持准确率的同时,大幅降低推理成本和延迟。
论文链接:https://arxiv.org/abs/2502.18600 项目链接:https://github.com/sileix/chain-of-draft
0 举报本楼
发表回复 回帖后跳转到最后一页
版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图
GMT+8, 2025-3-15 11:49 , Processed in 0.218163 second(s), 17 queries , Gzip On.
Copyright © 1999-2023 C114 All Rights Reserved
Discuz Licensed