通信人家园
标题:
显卡运行R1
[查看完整版帖子]
[打印本页]
时间:
2025-2-15 11:53
作者:
hwwdx
标题:
显卡运行R1
每日经济新闻
4090显卡单枪匹马就能跑满血版DeepSeek-R1 清华团队突破大模型算力难题
2月10日,清华大学KVCache.AI团队联合趋境科技发布的KTransformers开源项目迎来重大更新,成功打破大模型推理算力门槛。此前,拥有671B参数的MoE架构大模型DeepSeek-R1在推理时困难重重。推理服务器常因高负荷宕机,专属版云服务器按GPU小时计费的高昂成本让中小团队无力承担,而市面上的“本地部署”方案多为参数量大幅缩水的蒸馏版,在本地小规模硬件上运行满血版 DeepSeek-R1 被认为几乎不可能。
此次KTransformers项目更新带来重大突破,支持在24G显存(4090D)的设备上本地运行 DeepSeek-R1、V3的671B满血版。其预处理速度最高可达286 tokens/s,推理生成速度最高能达到14 tokens/s。甚至有开发者借助这一优化技术,在3090显卡和200GB内存的配置下,使Q2_K_XL模型的推理速度达到9.1 tokens/s,实现了千亿级模型的 “家庭化” 运行。
此外,该项目v0.3预览版还将整合Intel AMX指令集,进一步提升CPU预填充速度,最高至286 tokens/s,相比llama.cpp快了近28倍,为长序列任务带来秒级响应。同时,KTransformers提供兼容Hugginface Transformers的API与ChatGPT式Web界面,降低上手难度,其基于YAML的“模板注入框架”可灵活切换多种优化方式
时间:
2025-2-15 13:34
作者:
dingyan1314
时间:
2025-2-15 13:48
作者:
枫叶荻花秋瑟瑟
这个推理过程可否多机并行处理呢? 二手电脑很便宜,多买几台二手电脑一起运行,是不是可以提升性能呢
时间:
2025-2-15 14:27
作者:
sanbinc
独立显卡不能共享内存,大内存能发挥作用吗
时间:
2025-2-15 18:18
作者:
不吹不黑
时间:
2025-2-16 22:30
作者:
枫叶荻花秋瑟瑟
sanbinc 发表于 2025-2-15 14:27
独立显卡不能共享内存,大内存能发挥作用吗
独立显卡也能调用内存吧,硬盘控制器的DMA芯片就能操控内存啊
时间:
2025-2-17 10:09
作者:
dmdrdmdr
200GB内存
的配置下,使Q2_K_XL模型的推理速度达到9.1 tokens/s,实现了千亿级模型的 “
家庭化
” 运行。
作者你要不要看看你在说什么。
通信人家园 (https://www.txrjy.com/)
Powered by C114