本帖最后由 Oishiimono 于 2025-4-14 13:16 编辑
字节跳动_Seed-Thinking-v1.5_Advancing Superb Reasoning Models with Reinforcement.pdf
(1.75 MB, 下载次数: 2)
GitHub开源地址:链接
(来源:IT之家)字节跳动最新思考模型 Seed-Thinking-v1.5 技术细节今日公开,该模型将于 4 月 17 日通过火山引擎开放接口供用户体验。 该模型在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,同时,模型采用 MoE 架构,总参数 200B,激活参数为 20B,具备显著的推理成本优势,单位推理成本相比 DeepSeek R1 降低 50%。
模型各方面具体表现:- 专业领域:数学推理(AIME 2024 得分 86.7,追平 OpenAI o3-mini-high)、编程竞赛(Codeforces pass@8 达 55.0%,接近 Gemini 2.5 Pro)、科学推理(GPQA 得分 77.3%,接近 o3-mini-high),均达到或接近业界第一梯队水平。
- 通用任务:人类评估表现超 DeepSeek R1 8%,覆盖多场景需求。
- 成本优势:单位推理成本相比 DeepSeek R1 降低 50%,实现性能与效率的平衡。
数据体系:融合可验证与创意性数据针对推理与生成任务的不同需求,团队优化了数据处理策略: - 可验证数据(如数学、代码题):通过百万级数据三重清洗(人工筛选 → 模型过滤 → 多模型验证),保留 10 万道高难度题目;设计答案整数化改造、离线沙箱验证等机制,确保模型输出真实推理过程;
- 非可验证数据(如创意写作):基于豆包 1.5 Pro 训练集,剔除低价值样本,采用两两对比奖励法,优化生成质量;
- 全新评测基准:构建了超难数学数据集 BeyondAIME(100 道无答案题干题目),解决现有测试区分度不足问题。
奖励模型:双轨体系校准训练方向团队提出双轨奖励机制,兼顾“对错分明”与“见仁见智”任务: - 可验证任务:开发了两代验证器(Seed-Verifier → Seed-Thinking-Verifier),从字符匹配升级为推理步骤逐行对比(训练 / 测试集准确率超 99%),杜绝模型“奖励欺骗”;
- 非可验证任务:引入 pairwise 对比训练,通过千万次“AB 测试”,捕捉人类对创意、情感等的隐性偏好,避免“众口难调”;
- 双轨融合:针对混合场景设计协调机制,硬指标(对错)与软偏好(优劣)互补,支撑全场景训练。
训练方法:“监督精调 + 强化学习”双阶段优化Seed-Thinking-v1.5 采用“打基础 + 磨能力”的全链路训练: - 监督精调(SFT):基于 40 万高质量实例(30 万可验证 +10 万非可验证数据),结合人工与模型协同筛选,构建长思考链数据集,确保模型“像人类一样思考”;
- 强化学习([RL):通过三重数据引擎(可验证 / 通用 / 混合数据)、算法创新(价值预训练、解耦 GAE 等)以及在线数据适配技术,解决训练不稳定、长链推理断层等问题,动态调整数据分布以保持最佳训练状态。
训练框架:支撑 20B MoE 的底层架构为应对 20B MoE(总参数 200B)的复杂训练需求,团队优化了底层架构: - HybridFlow 编程模型:支持算法快速探索与分布式并行运行;
- 流式推理系统(SRS):通过“流式推理”技术解耦模型演进与异步推理,将训练速度提升 3 倍,万亿参数下稳定性达 95%;
- 三层并行架构:结合张量 / 专家 / 序列并行,动态均衡负载,基于 KARP 算法优化 GPU 算力利用率。
|