通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少将

注册:2015-1-2880
跳转到指定楼层
1#
发表于 2023-12-12 14:50:52 |只看该作者 |倒序浏览
12月8日,法国AI初创公司Mistral AI于社交平台X发布了新的开源模型MoE 8x7B,只提供了一个BT种子文件链接。一名Reddit网友将该模型描述为“缩小版GPT-4”,因为它似乎是“由8个7B专家组成的MoE”。该网友称:“从GPT-4泄露的信息中,我们可以推测GPT-4是一个有8个专家的MoE模型,每个专家有111B自己的参数和55B共享注意力参数(每个模型有166B参数)。对于每个标记的推理,也只使用2个专家。MoE 8x7B可能采用了与GPT-4非常相似的架构,但规模有所缩小。”

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-11-5 16:26 , Processed in 0.082532 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部