元象首个MoE大模型XVERSE-MoE-A4.2B开源:4.2B激活参数,效果堪比13B模型

分类:大语言模型 | 热度:28 ℃

元象发布XVERSE-MoE-A4.2B大模型 ,采用业界最前沿的混合专家模型架构,激活参数4.2B,效果即可达到13B模型水准。据介绍,XVERSE-MoE-A4.2B实现了极致压缩,相比XVERSE-13B-2仅用30%计算量,并减少50%训练时间。在多个权威评测中,元象MoE效果大幅超越Gemma-7B、Mistral-7B、Llama2-13B等开源模型,并接近超大模型Llama1-65B。该模型全开源,无条件免费商用。(详细介绍

  • Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A4.2B
  • ModelScope魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A4.2B
  • Github:https://github.com/xverse-ai/XVERSE-MoE-A4.2B

元象首个MoE大模型XVERSE-MoE-A4.2B开源:4.2B激活参数,效果堪比13B模型

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)! 点此爆料

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论