AI

优惠 浪潮信息发布智能AI助手YuanChat,可在Windows电脑上本地化部署

  • 浪潮信息发布智能AI助手YuanChat,可在Windows电脑上本地化部署
    AI
  • 据浪潮服务器微信公众号发文,昨日,基于Yuan2.0-2B模型的智能AI助手YuanChat发布,其可以在Windows电脑上本地化部署。据介绍,YuanChat是专为源2.0大模型设计的客户端应用,集成了模型推理服务和聊天交互界面,具备代码生成、代码解析、数学计算、逻辑推理、知识问答、文案创作等能力。(官方介绍) G... 阅读全文

    优惠 Gemma:谷歌推出新一代先进开源模型,轻量级高性能,助力AI创新

  • Gemma:谷歌推出新一代先进开源模型,轻量级高性能,助力AI创新
    AI
  • 谷歌推出开源模型Gemma,这是一款轻量级、先进的开源模型,供开发者和研究人员用于AI构建。Gemma模型家族包括Gemma 2B和Gemma 7B两种尺寸,能够在不同的设备类型上运行,包括笔记本电脑、桌面电脑、IoT设备、移动设备和云端。 以下是谷歌官方介绍全文翻译: 在谷歌,我们深信应当让AI惠及每一个人。长期以来... 阅读全文

    优惠 用于3D形状生成的自回归(Auto-regressive)模型Argus3D

  • 用于3D形状生成的自回归(Auto-regressive)模型Argus3D
    AI
  • 这篇论文介绍了一个名为Argus3D的新型框架,它是一个用于3D形状生成的自回归(Auto-regressive)模型。Argus3D通过改进自回归模型的容量和可扩展性,实现了在3D领域中的高效形状生成。这个模型利用了一个名为Objaverse-Mix的大型3D数据集,该数据集包含了约90万个多样化的物体,这些物体具有... 阅读全文

    优惠 多模态大语言模型FinTral:专门为金融分析设计

  • 多模态大语言模型FinTral:专门为金融分析设计
    AI
  • 来自哥伦比亚大学的研究人员推出多模态大语言模型FinTral,它专门为金融分析设计。FinTral模型能够整合文本、数值、表格和图像数据,通过在金融领域的特定数据集上进行预训练、指令微调和强化学习,使其在处理金融文档和数据时表现出色。FinTral模型还引入了一个名为FinSet的广泛基准测试,用于评估模型在多种金融任... 阅读全文

    优惠 基于多智能体协作的大语言模型(LLM)扩展方法LONGAGENT

  • 基于多智能体协作的大语言模型(LLM)扩展方法LONGAGENT
    AI
  • 来自复旦大学的研究人员推出一种基于多智能体协作的大语言模型(LLM)扩展方法LONGAGENT,LONGAGENT的目标是解决大语言模型在处理长文本时遇到的高昂训练成本和推理延迟问题。通过这种方法,大语言模型能够处理超过100k(10万个)token的长文本,这在传统的大语言模型中是一个挑战,因为它们通常在处理超过这个... 阅读全文

    优惠 用于视觉指令调优(Visual Instruction Tuning)的数据集VISION-FLAN

  • 用于视觉指令调优(Visual Instruction Tuning)的数据集VISION-FLAN
    AI
  • 来自弗吉尼亚理工大学、华盛顿大学、密歇根大学、亚马逊、微软、Meta AI的研究人员推出用于视觉指令调优(Visual Instruction Tuning)的数据集VISION-FLAN。这个系统旨在提高视觉语言模型(VLMs)在理解和执行视觉任务方面的能力,特别是在处理多样化任务和遵循人类偏好方面。 论文地址:ht... 阅读全文

    优惠 Stepwise ORMs (SORMs):改进大语言模型的推理能力,通过全局和局部的精炼来提升其在数学、科学或编程等任务上的表现

  • Stepwise ORMs (SORMs):改进大语言模型的推理能力,通过全局和局部的精炼来提升其在数学、科学或编程等任务上的表现
    AI
  • 来自Meta 、、乔治亚理工学院、StabilityAI的研究人员提出了一种名为“Stepwise ORMs (SORMs)”的方法,旨在提高大语言模型(LLMs)在解决数学、科学或编程问题时的推理能力这是一种在合成数据上训练的模型,用于更准确地预测最终答案的正确性,从而帮助LLMs在需要时进行自我修正。 论文地址:h... 阅读全文

    优惠 Speculative Streaming:加速大语言模型的推理过程,而无需依赖辅助模型

  • Speculative Streaming:加速大语言模型的推理过程,而无需依赖辅助模型
    AI
  • 论文的主题是关于一种名为“Speculative Streaming”的方法,旨在加速大语言模型(LLMs)的推理过程,而无需依赖辅助模型。这种方法通过在目标模型内部融合起草(drafting)和验证(verification)过程,实现了对解码速度的显著提升。Speculative Streaming通过在单一模型内... 阅读全文

    优惠 OneBit:保持模型性能的同时,大幅减少模型的存储和计算开销

  • OneBit:保持模型性能的同时,大幅减少模型的存储和计算开销
    AI
  • 来自清华大学和哈尔滨工业大学的研究人员推出一种名为“OneBit”的方法,它旨在将大语言模型(LLMs)的权重矩阵量化到极低比特宽度,即1比特,以实现模型的高效部署。这种方法特别关注于在保持模型性能的同时,大幅减少模型的存储和计算开销。 论文地址:https://arxiv.org/abs/2402.11295 主要功... 阅读全文

    优惠 全新金融领域评估基准方法FinBen:专为评估大语言模型(LLMs)在金融领域的能力而设计

  • 全新金融领域评估基准方法FinBen:专为评估大语言模型(LLMs)在金融领域的能力而设计
    AI
  • 来自国内多所大学的研究人员推出一款全新金融领域评估基准方法FinBen,它专为评估大语言模型(LLMs)在金融领域的能力而设计。FinBen包含了35个数据集,覆盖了23个金融任务,这些任务根据Cattell-Horn-Carroll(CHC)理论分为三个难度层次,以评估LLMs在归纳推理、联想记忆、定量推理、晶体智力... 阅读全文

    优惠 基准测试MAD-Bench:系统地检验多模态大语言模型在面对文本提示和图像不一致时的冲突解决能力

  • 基准测试MAD-Bench:系统地检验多模态大语言模型在面对文本提示和图像不一致时的冲突解决能力
    AI
  • 关于评估多模态大语言模型(MLLMs)在处理欺骗性提示(deceptive prompts)时的脆弱性,来自苹果的研究人员创建了一个名为MAD-Bench的基准测试,它包含了850个测试样本,分为六个类别,如不存在的对象、对象数量、空间关系和视觉混淆等,用以系统地检验MLLMs在面对文本提示和图像不一致时的冲突解决能力... 阅读全文

    优惠 结合触觉、视觉和语言的多模态数据集TVL:用于训练和评估能够理解和生成触觉感受描述的模型

  • 结合触觉、视觉和语言的多模态数据集TVL:用于训练和评估能够理解和生成触觉感受描述的模型
    AI
  • 加州大学伯克利分校、Meta AI和德累斯顿工业大学的研究人员推出一个关于创建一个结合触觉、视觉和语言的多模态数据集,用于训练和评估能够理解和生成触觉感受描述的模型。这个数据集名为Touch-Vision-Language (TVL),它包含了44,000对视觉-触觉观察数据,其中10%由人类标注,90%由GPT-4V... 阅读全文