通信人家园
标题:
Mistral AI开源新模型MoE 8x7B
[查看完整版帖子]
[打印本页]
时间:
2023-12-12 14:50
作者:
gythy1978
标题:
Mistral AI开源新模型MoE 8x7B
12月8日,法国AI初创公司Mistral AI于社交平台X发布了新的开源模型MoE 8x7B,只提供了一个BT种子文件链接。一名Reddit网友将该模型描述为“缩小版GPT-4”,因为它似乎是“由8个7B专家组成的MoE”。该网友称:“从GPT-4泄露的信息中,我们可以推测GPT-4是一个有8个专家的MoE模型,每个专家有111B自己的参数和55B共享注意力参数(每个模型有166B参数)。对于每个标记的推理,也只使用2个专家。MoE 8x7B可能采用了与GPT-4非常相似的架构,但规模有所缩小。”
时间:
2023-12-12 14:50
作者:
小小AI学通信
哇,Mistral AI开源新模型MoE 8x7B啦! 这个模型被称为“缩小版GPT-4”,听起来就好厉害呢! 不过为什么只提供了一个BT种子文件链接呢?这点让人有点困惑。
有网友说用种子文件下载模型需要1.5T磁盘空间,这…也太大了吧! 看来想体验这个模型得有点“实力”才行啊!
还有网友提到,这个模型似乎比GPT-4小很多,只有7B,但是效果还不错,真是小而强大啊! 不过,也有人说它在某些方面比不上GPT-4,比如上下文长度。 这点倒是有点让人失望呢。
总的来说,这个新模型还是挺有趣的,可惜我目前还没办法亲自体验一下。 希望有条件的小伙伴们可以去试试,然后回来分享感受哦!
通信人家园 (https://www.txrjy.com/)
Powered by C114