推荐类别

栏目分类

优惠 麻省理工学院推出新技术Trans-LoRA:一种用于大语言模型(LLMs)的参数高效微调(PEFT)方法

  • 麻省理工学院推出新技术Trans-LoRA:一种用于大语言模型(LLMs)的参数高效微调(PEFT)方法
    AI
  • 麻省理工学院推出新技术Trans-LoRA,它是一种用于大语言模型(LLMs)的参数高效微调(PEFT)方法。Trans-LoRA的核心目标是在不访问原始训练数据的情况下,实现低秩适配器(LoRA)模型在不同基础模型之间的无损转移。这项技术为大型模型的迁移和微调提供了一种高效、实用且几乎不需要数据的方法,极大地方便了模... 阅读全文

    优惠 Meta发布视觉语言模型介绍论文,全面介绍视觉语言模型

  • Meta发布视觉语言模型介绍论文,全面介绍视觉语言模型
    AI
  • 这篇论文的主题是介绍和探讨视觉-语言模型(Vision-Language Models,简称VLMs)。这类模型旨在将视觉信息(如图像)与语言信息(如文字描述)结合起来,以实现更丰富的人工智能应用。简单来说,VLMs就是教会计算机如何“看图说话”和“按文索骥”。 主要功能: 图像与文本的联合表示: VLMs能够理解图像... 阅读全文

    优惠 新框架Part123:能够从单视图图像中重建出具有结构意义的部分(part-aware)的3D模型

  • 新框架Part123:能够从单视图图像中重建出具有结构意义的部分(part-aware)的3D模型
    AI
  • 香港大学和清华大学的研究人员推出新框架Part123,它能够从单视图图像中重建出具有结构意义的部分(part-aware)的3D模型。Part123利用了扩散模型(diffusion models)生成多视图一致的图像,并结合了Segment Anything Model(SAM),这是一个强大的通用图像分割模型,能够... 阅读全文

    优惠 Zyphra推出新型混合模型Zamba:结合了SSM和Transformer的特点,提供与大型开放模型相媲美的性能,同时在参数成本上保持较低的水平

  • Zyphra推出新型混合模型Zamba:结合了SSM和Transformer的特点,提供与大型开放模型相媲美的性能,同时在参数成本上保持较低的水平
    AI
  • Zyphra推出新型人工智能语言模型Zamba,Zamba是一个7亿参数(7B SSM)的混合模型,它结合了SSM(State Space Model,状态空间模型)和Transformer的特点,旨在提供与大型开放模型相媲美的性能,同时在参数成本上保持较低的水平。论文还讨论了Zamba与其他模型的比较,以及它在不同基... 阅读全文

    优惠 如何让Transformer模型更好地执行数学运算,特别是大数字的加法

  • 如何让Transformer模型更好地执行数学运算,特别是大数字的加法
    AI
  • 马里兰大学、劳伦斯利弗莫尔国家实验室、蒂宾根埃利斯研究所、马克斯·普朗克智能系统研究所、图宾根人工智能中心和卡内基梅隆大学的研究人员发布论文,论文的主题是关于如何让一种名为“Transformer”的人工智能模型更好地执行数学运算,特别是大数字的加法。Transformer模型在处理语言和生成代码方面已经取得了很大进步... 阅读全文

    优惠 文本引导的2D头像生成框架InstructAvatar:能够根据自然语言指令来控制头像的表情和动作

  • 文本引导的2D头像生成框架InstructAvatar:能够根据自然语言指令来控制头像的表情和动作
    AI
  • 北京大学的研究人员推出类似阿里的Emo和微软的VASA-1的文本引导的2D头像生成框架InstructAvatar,它能够根据自然语言指令来控制头像的表情和动作。简单来说,InstructAvatar就像是一个虚拟的“演员”,可以根据你给它的文本提示,展现出各种细腻的表情和动作。 项目主页:https://wangyu... 阅读全文

    优惠 3D建模系统CraftsMan:能够生成高保真的3D几何体,这些几何体形状多样、网格拓扑规则,并具有详细的表面细节

  • 3D建模系统CraftsMan:能够生成高保真的3D几何体,这些几何体形状多样、网格拓扑规则,并具有详细的表面细节
    AI
  • 香港科技大学、腾讯AI实验室的研究人员推出新颖3D建模系统CraftsMan,它能够生成高保真的3D几何体,这些几何体形状多样、网格拓扑规则,并具有详细的表面细节。更重要的是,CraftsMan允许以交互式的方式对几何体进行细化。CraftsMan通过结合3D原生扩散模型和交互式几何细化技术,为3D建模领域带来了一个既... 阅读全文

    优惠 transformers模型是否能够学习隐式推理,即在没有明确指导的情况下对知识进行推理

  • transformers模型是否能够学习隐式推理,即在没有明确指导的情况下对知识进行推理
    AI
  • 俄亥俄州立大学 和卡内基梅隆大学的研究人员发布论文探讨了transformers,这是一种在自然语言处理(NLP)领域广泛使用的模型,是否能够学习隐式推理(implicit reasoning),即在没有明确指导的情况下对知识进行推理。隐式推理是一种能力,它允许模型在面对新的、未见过的情况时,能够运用已有的知识来做出合... 阅读全文

    优惠 新型大型语言模型AutoCoder:通过先进的人工智能技术,帮助人们更高效、更准确地编写代码

  • 新型大型语言模型AutoCoder:通过先进的人工智能技术,帮助人们更高效、更准确地编写代码
    AI
  • 康涅狄格大学和AIGCode推出新型大型语言模型AutoCoder,它在代码生成方面取得了显著的进展。总的来说,AutoCoder是一个强大的工具,它通过先进的人工智能技术,帮助人们更高效、更准确地编写代码,极大地推动了软件开发领域的发展。例如,你是一名软件开发者,需要编写大量代码来完成任务,这个过程可能会既耗时又容易... 阅读全文

    优惠 数据混合策略BIMIX:旨在提高语言模型预训练的效率

  • 数据混合策略BIMIX:旨在提高语言模型预训练的效率
    AI
  • 阿里推出一种新型的数据混合策略BIMIX(Bivariate Scaling Law for Language Model Pretraining),旨在提高语言模型预训练的效率。BIMIX的核心思想是通过精确地量化数据量和混合比例对模型性能的影响,来优化数据混合,从而提升训练效率和模型的泛化能力。 主要功能: 数据混... 阅读全文

    优惠 服务于23种语言!Cohere推出多语言语言模型家族Aya 23

  • 服务于23种语言!Cohere推出多语言语言模型家族Aya 23
    AI
  • Cohere推出多语言语言模型家族Aya 23,Aya 23基于Aya模型的最新发布,并结合了最近发布的Aya集合,旨在创建一个强大的多语言大型语言模型,服务于23种语言,将最先进的语言建模能力扩展到全球大约一半的人口。与之前的Aya 101模型涵盖101种语言不同,Aya 23是一次关于深度与广度的实验,探索在预训练... 阅读全文

    优惠 苹果推出去噪语言模型DLM:用于提高自动语音识别(ASR)系统性能的新技术

  • 苹果推出去噪语言模型DLM:用于提高自动语音识别(ASR)系统性能的新技术
    AI
  • 苹果推出去噪语言模型DLM(Denoising Language Model),用于提高自动语音识别(ASR)系统性能的新技术。DLM的核心思想是,通过训练一个模型来纠正ASR系统产生的错误,而不是仅仅重新排列ASR系统已经生成的假设(这是传统语言模型LM的做法)。 主要功能: 错误纠正:DLM专门设计用来修正ASR系... 阅读全文
    我要爆料 我的收藏 顶部
    快速登录

    自动登录 忘记密码?