C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  少将

注册:2015-1-2880
发表于 2023-12-12 14:50:52 |显示全部楼层
12月8日,法国AI初创企业Mistral AI于社交平台X发布了新的开源模型MoE 8x7B,只提供了一个BT种子文件链接。一名Reddit网友将该模型描述为“缩小版GPT-4”,因为它似乎是“由8个7B专家组成的MoE”。该网友称:“从GPT-4泄露的信息中,大家可以推测GPT-4是一个有8个专家的MoE模型,每个专家有111B自己的参数和55B共享注意力参数(每个模型有166B参数)。对于每个标记的推理,也只使用2个专家。MoE 8x7B可能采用了与GPT-4非常相似的架构,但规模有所缩小。”
亚星游戏官网-yaxin222

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-11-5 20:44 , Processed in 0.099820 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图