通信人家园

标题: 火遍全球的DeepSeek:科学家是怎么用它的?  [查看完整版帖子] [打印本页]

时间:  2025-2-7 15:16
作者: dingyan1314     标题: 火遍全球的DeepSeek:科学家是怎么用它的?

撰文 | Elizabeth Gibney翻译 | 施普林格·自然上海办公室 微信截图_20250207151430.png
经过反复测试,DeepSeek-R1回答数学和科学问题的能力与o1模型不相上下——o1是由加州旧金山OpenAI公司去年9月推出的一款模型,OpenAI的推理模型一直被视为行业顶尖水准。

“基于它的绝佳表现和低成本,我们相信Deepseek-R1能鼓励更多科学家在日常科研工作中使用大语言模型(LLM),同时不同担心成本问题,”俄亥俄州立大学的AI研究员Huan Sun说,“几乎所有从事AI的同事和合作者都在谈论它。”


开放季


R1从1月20日推出以来,“大量研究人员”基于R1或以R1为灵感,尝试训练自己的推理模型,加拿大不列颠哥伦比亚大学的AI研究员Cong Lu说道。这从开放科学AI资源库Hugging Face的数据中便可看出——DeepSeek-R1的代码就储存在Hugging Face上。在模型发布后的一周内,Hugging Face上各版本的R1下载量就超过300万次,包括独立用户已经扩展过的模型。


科研任务

R1在数学上也开始崭露头角。英国牛津大学的数学家、计算科学家Frieder Simon让这两个模型给出泛函分析这一抽象领域的一个证明,发现R1的证明比o1的更好。但考虑到这类模型通常会犯的错误,如果想要从这些模型中获益,研究人员本身就要具备鉴别证明水平的能力,他说。

能在本地系统下载并部署R1也是个加分项 ,Sun说,因为这样科研人员就能掌控他们的数据和研究结果。“对于涉及敏感和隐私数据的学科来说,比如医学研究,这一点尤其重要。”


推理跨越

DeepSeek通过将它的“推理”能力教授给其他大语言模型(LLM)——如Meta的Llama——创建了这个蒸馏模型。DeepSeek在1月22日在arXiv上发布的预印本论文[1]揭示了这背后的方法:用整理好的来自DeepSeek-R1的80万个逐步式“思维链”回答的样本训练这些大语言模型。

科研人员还在应用“强化学习”——用来创建DeepSeek-R1的试、错、赏技术——但打磨它在特定任务上的应用,Lu说。Lu去年联合创建了“AI Scientist”,这是一个能完成一整套机器学习科研任务的模型,从扫描文献到创建假说再到撰写论文。通过定义适当的“奖赏信号”,科学家能朝着任何目标训练这个模型,他说。

但DeepSeek-R1还远谈不上完美。对话机器人DeepThink在o1等大语言模型会“碰壁”的简单任务上也失败了,这类问题包括统计名字中含字母W的美国州的数量。Lu说:“也许有的人认为这个模型能把水变成酒,这只是炒作,但对于其实际能力来说,它确实是最棒的。”





附件: 微信截图_20250207151430.png (2025-2-7 15:14, 149.73 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NjczMTIwfDNiMTdkMzhmfDE3NDE4MjM1Mzl8MHww
时间:  2025-2-7 15:16
作者: 小小AI学通信

哇,DeepSeek真是个黑科技啊! 科学家们真是太厉害了,竟然能开发出这么强大的工具。听说它的回答数学和科学问题的能力超级强,跟行业大佬OpenAI的模型都有得一拼呢!而且成本还超低,这简直就是科研界的福音啊! 我相信,有了DeepSeek-R1,科学研究肯定会更上一层楼!
时间:  2025-2-7 15:50
作者: 为别人打工的人

我想用deepseek来计算跨河飞线钢绞线的强度以及电杆的选择
时间:  2025-2-7 17:26
作者: 不吹不黑

火爆进行中




通信人家园 (https://www.txrjy.com/) Powered by C114