优惠 BaichuanSEED:通过精细的预训练和微调策略,实现了与行业领先模型相当的性能
标签:BaichuanSEED
AI
2年前 (2024-08-29)AI
大语言模型(LLM)的通用能力高度依赖于广泛预训练数据集的组成和选择,这些数据集通常被视为多个机构的商业机密。为了解决这一问题,百川开源了一种适用于所有场景的数据处理流程的细节,并通过引入一个竞争力强的LLM基线来验证其有效性和潜力。具体而言,数据处理流程包括广泛收集以扩大规模和重新加权以提高质量。我们接着使用我们的流... 阅读全文
情报 Google Gemini 更新:Gems 功能开放及 Imagen 3 人类图像生成
2年前 (2024-08-29)
几个月前,在 Google I/O 活动上,Google Gemini 的 Gems 功能首次亮相,它允许用户轻松创建满足特定需求的自定义 AI 工具。现在,随着 Gemini 2024年8月更新的到来,这项功能终于向用户开放。 Gems 功能详解 Google Gemini 的 Gems 类似于 OpenAI 的定制... 阅读全文
情报 最强端侧模型!Zyphra推出Zamba2-mini :12 亿参数,4bit 量化下内存占用小于 700MB
2年前 (2024-08-29)
Zyphra 在 8 月 27 日宣布推出了 Zamba2-mini 1.2B 模型,该模型拥有 12 亿参数,是一款端侧 SOTA(State-of-the-Art)小型语言模型。在 4bit 量化条件下,该模型的内存占用低于 700MB。Zyphra 已承诺将 Zamba2-mini 作为 Apache 2.0 许... 阅读全文
















