微软推出新型语言模型phi-3-mini:3.8亿参数,可在手机上运行

分类:大语言模型 | 热度:10 ℃

微软推出新型语言模型phi-3-mini,这是一个具有3.8亿参数的模型,它在性能上可以与一些大型模型相媲美,如Mixtral 8x7B和GPT-3.5,但大小却足以部署在手机上。这项技术的创新之处在于其训练数据集,这是phi-2数据集的一个扩展版本,包含了大量过滤过的网络数据和合成数据。例如。你有一个智能手机,上面安装了一个虚拟助手应用,这个应用需要理解你的问题并给出回答。传统的大型语言模型由于体积庞大,无法直接部署在手机上。但phi-3-mini模型虽然小到足以安装在手机上,却仍然能够提供与大型模型相媲美的性能,使得你的虚拟助手既高效又智能。

主要功能和特点:

  1. 小型化:phi-3-mini足够小,可以部署在现代智能手机上,同时保持高性能。
  2. 高性能:尽管体积小,但它在学术基准测试和内部测试中的表现与一些大型模型相当。
  3. 训练数据集:模型使用了经过大量过滤的网络数据和合成数据进行训练,这有助于提高模型的性能。
  4. 安全性和鲁棒性:phi-3-mini在训练过程中进一步对齐,以提高其在安全性、鲁棒性和聊天格式方面的表现。
  5. 参数扩展:除了phi-3-mini,研究者还提供了7B和14B参数的模型(phi-3-small和phi-3-medium),这些模型的性能显著优于phi-3-mini。

工作原理:

  • 数据集过滤:使用高质量的训练数据,通过精心筛选和优化数据集,研究人员可以显著减少模型的大小,而不影响其性能。
  • 合成数据:结合了基于LLM(大型语言模型)过滤的网络数据和LLM创建的合成数据,使得较小的语言模型也能表现出色。
  • 后训练:模型经过监督指令微调和偏好调整,以提高模型的聊天能力、鲁棒性以及安全性。

具体应用场景:

  • 移动设备:由于模型体积小,可以轻松地在智能手机上进行本地推理,适用于需要快速响应的应用,如语音助手、翻译应用等。
  • 资源受限的环境:在计算资源受限的环境中,如某些嵌入式系统或老旧设备,phi-3-mini可以作为一个高效的语言模型解决方案。
  • 安全性要求高的场景:对于需要高安全性和鲁棒性的聊天机器人或自动客服系统,phi-3-mini提供了一个可靠的选择。
声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)! 点此爆料

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论