首页
情报
装备
百科
精选
快讯
AI
猫咪范
首页
情报
装备
百科
精选
快讯
AI
猫咪范
注册
登录
推荐类别
栏目分类
开源软件
>
在线工具
开源软件
电脑软件
人工智能
>
3D
AI绘画
AI编程
AI视频
AI音频
ChatGPT
大语言模型
数字人
机器人
电脑游戏
>
chinaplay.store
Discord
Epic Games
Fanatical
GameSessions
giveaway
GMG
GOG
HumbleBundle
indiegala
IO游戏
itch.io
Microsoft Store
Origin
Rockstar Games Launcher
STEAM
Uplay
Wegame
Windows
战网
方块游戏
杉果游戏
主机游戏
>
任天堂Switch
微软Xbox
索尼PlayStation
手机游戏
>
IOS
taptap
安卓
混合专家模型
优惠
Skywork-MoE:具有1460亿参数和16个专家的高性能混合专家模型
AI
推荐人:暴走AI
标签:
Skywork-MoE
混合专家模型
AI
2年前 (2024-06-17)AI
昆仑万维旗下天工AI发布大语言模型(LLM)训练技术Skywork-MoE,Skywork-MoE是一个具有1460亿参数和16个专家的高性能混合专家(Mixture-of-Experts,简称MoE)模型。这个模型是从Skywork-13B模型的密集型检查点初始化而来的。通过实验结果表明,Skywork-MoE在多个...
阅读全文
直达链接
好
0
不好
0
0
Skywork-MoE:具有1460亿参数和16个专家的高性能混合专家模型
已关闭评论
优惠
马斯克旗下 xAI正式开源了Grok-1模型
AI
推荐人:暴走AI
标签:
Grok-1
混合专家模型
AI
2年前 (2024-03-17)AI
马斯克旗下 xAI正式开源了Grok-1模型,这是一个拥有3140亿参数的混合专家(Mixture-of-Experts)模型,由xAI团队从零开始训练。不过需要注意的是此模型尚未针对任何特定应用(如对话系统)进行微调,依据Apache 2.0许可证进行开源。而他们模型发布方式也比较特别,直接释出了磁力链接让大家下载。...
阅读全文
直达链接
好
0
不好
0
0
马斯克旗下 xAI正式开源了Grok-1模型
已关闭评论
热门
拥有20亿参数的中文大语言模型“Chinese Tiny LLM(CT-LLM)”:为了更好地理解和处理中文而特别设计
(218℃)
数据选择方法CoLoR-Filter:用于目标化的语言模型预训练
(552℃)
俯瞰视角恐怖生存射击游戏《他人即地狱》正式发售
(761℃)
Epic Games本周免费领取《Neko Ghost, Jump!》,《喵咪斗恶龙》
(438℃)
TLD-List:域名价格比较的最佳工具,找到最省钱的解决方案
(757℃)
像素风冒险游戏《魔方世界》正式上市,优化不足好评率偏低
(1036℃)
我要爆料
我的收藏
顶部
快速登录
账户:
密码:
验证码:1 + 6 =
自动登录
忘记密码?
QQ登录
微博登录
注 册