推荐类别

栏目分类

优惠 Ag2Manip框架:机器人系统自主学习新的操作技能,特别是在没有特定领域示范的情况下

  • Ag2Manip框架:机器人系统自主学习新的操作技能,特别是在没有特定领域示范的情况下
    AI
  • 北京通用人工智能国家重点实验室、 清华大学自动化系、北京大学人工智能研究院、加州大学洛杉矶分校和北京大学电子电气与计算机学院的研究人员推出Ag2Manip框架,机器人系统自主学习新的操作技能,特别是在没有特定领域示范的情况下。这项研究的目标是提高机器人在制造、服务自动化等行业的自主性和适应性。 例如,我们有一个机器人,... 阅读全文

    优惠 Cohere推出PoLL:如何更有效地评估大语言模型的生成质量

  • Cohere推出PoLL:如何更有效地评估大语言模型的生成质量
    AI
  • Cohere发布论文,这篇论文的主题是关于如何更有效地评估大语言模型(LLMs)的生成质量。随着这些模型变得越来越先进,准确评估它们的性能也变得越来越具有挑战性。传统的评估方法,比如使用单一的大型模型(比如GPT-4)作为评判,不仅成本高昂,而且可能会引入模型内部的偏见。为了解决这个问题,研究者们提出了一种新的方法,即... 阅读全文

    优惠 斯坦福大学推出BlenderAlchemy:利用视觉语言模型来编辑3D图形的智能系统

  • 斯坦福大学推出BlenderAlchemy:利用视觉语言模型来编辑3D图形的智能系统
    AI
  • 斯坦福大学研究人员推出BlenderAlchemy,它是一个利用视觉语言模型(Vision-Language Models,简称VLMs)来编辑3D图形的智能系统。这个系统特别适用于需要精细调整的3D图形设计工作,比如电影制作和游戏设计中的高质量场景创建。通过这种方式,BlenderAlchemy不仅提高了3D设计的效... 阅读全文

    优惠 华为方舟实验室推出新型自我推测解码框架Kangaroo:加速大语言模型的推理过程,同时保持一致的采样分布

  • 华为方舟实验室推出新型自我推测解码框架Kangaroo:加速大语言模型的推理过程,同时保持一致的采样分布
    AI
  • 华为方舟实验室推出新型自我推测解码框架Kangaroo,它旨在加速大语言模型(LLMs)的推理过程,同时保持一致的采样分布。在自然语言处理领域,大型语言模型通常需要逐步生成文本序列,这个过程称为自回归解码,它计算成本高且速度慢。Kangaroo通过自我推测解码来解决这个问题,它使用一个固定的浅层子网络作为自我草稿模型,... 阅读全文

    优惠 视觉-语言数据集DOCCI:旨在提高文本到图像(T2I)和图像到文本(I2T)研究的质量和深度,通过提供详细的人类标注的英文描述来增强模型学习的能力

  • 视觉-语言数据集DOCCI:旨在提高文本到图像(T2I)和图像到文本(I2T)研究的质量和深度,通过提供详细的人类标注的英文描述来增强模型学习的能力
    AI
  • 谷歌、普林斯顿大学和北卡罗来纳大学教堂山分校的研究人员推出新的视觉-语言数据集,名为“DOCCI”(Descriptions of Connected and Contrasting Images)。这个数据集旨在提高文本到图像(T2I)和图像到文本(I2T)研究的质量和深度,通过提供详细的人类标注的英文描述来增强模型... 阅读全文

    优惠 3D场景表示方法SUNDAE:通过一种称为“光谱剪枝”的技术来优化和压缩3DGS模型,同时使用神经网络补偿来保持渲染质量

  • 3D场景表示方法SUNDAE:通过一种称为“光谱剪枝”的技术来优化和压缩3DGS模型,同时使用神经网络补偿来保持渲染质量
    AI
  • 来自清华大学人工智能产业研究院、伦敦帝国理工学院、北京航空航天大学、北京理工大学、中国科学院大学、 香港中文大学(深圳)、中国电信人工智能研究院(TeleAI)EVOL实验室的研究人员推出新的3D场景表示方法SUNDAE,它通过一种称为“光谱剪枝”的技术来优化和压缩3D高斯溅射(3D Gaussian Splattin... 阅读全文

    优惠 大语言模型在小学数学问题上的表现

  • 大语言模型在小学数学问题上的表现
    AI
  • Scale AI发布论文,论文的主题是关于大语言模型(Large Language Models,简称LLMs)在小学数学问题上的表现。研究人员们对这些模型进行了仔细的考察,特别是它们在解决数学问题时是否真正具备推理能力,还是仅仅因为训练数据中包含了与测试题目过于相似的问题,导致模型只是简单地“记住”了答案。 例如,我... 阅读全文

    优惠 对Llama-3进行模型编辑的实证研究

  • 对Llama-3进行模型编辑的实证研究
    AI
  • 加州大学伯克利分校的研究人员发布关于论文,这篇论文的主题是对大语言模型(LLMs)进行模型编辑的实证研究,特别是针对最新的大型语言模型Llama-3。研究的核心问题是探讨在对模型进行编辑时,是否更大的编辑批量(batch size)总是能带来更好的效果。实验结果表明,对于Llama-3模型,当进行4096次编辑时,使用... 阅读全文

    优惠 新型音频编解码器SemantiCodec:能够在极低的比特率下对音频进行压缩和重建,同时保留丰富的语义信息

  • 新型音频编解码器SemantiCodec:能够在极低的比特率下对音频进行压缩和重建,同时保留丰富的语义信息
    AI
  • 来自萨里大学和上海交通大学的研究人员推出新型音频编解码器SemantiCodec,它能够在极低的比特率下对音频进行压缩和重建,同时保留丰富的语义信息。这种编解码器特别适合于需要在保持音频质量的同时减少数据大小的场景,例如在带宽有限的网络环境中传输音频或者在存储空间受限的设备上存储音频。 实验结果显示,SemantiCo... 阅读全文

    优惠 百川智能推出新算法Clover:用于提高大语言模型在生成文本时的效率

  • 百川智能推出新算法Clover:用于提高大语言模型在生成文本时的效率
    AI
  • 百川智能与北京大学的研究人员推出新算法Clover,它用于提高大语言模型(LLMs)在生成文本时的效率。大型语言模型通常需要逐步生成文本,每个步骤生成一个输出令牌(token),这种方式在GPU上运行时效率较低,因为GPU在内存传输上花费的时间比实际计算要多。 实验结果显示,Clover在Baichuan-Small(... 阅读全文

    优惠 语言模型对齐方法SPPO:通过自我对弈的方式,不断迭代和优化语言模型,使其更好地符合人类的偏好和期望

  • 语言模型对齐方法SPPO:通过自我对弈的方式,不断迭代和优化语言模型,使其更好地符合人类的偏好和期望
    AI
  • 加州大学洛杉矶分校的研究人员推出一种新的语言模型对齐方法,名为自对弈偏好优化(Self-Play Preference Optimization,简称SPPO)。这种方法旨在通过自我对弈的方式,不断迭代和优化语言模型,使其更好地符合人类的偏好和期望。论文中的实验结果显示,使用SPPO方法微调的模型在多个基准测试中表现出... 阅读全文

    优惠 苹果发布一种新颖的方法,用于将App图片与人们可能用来发现该应用程序的搜索短语进行匹配

  • 苹果发布一种新颖的方法,用于将App图片与人们可能用来发现该应用程序的搜索短语进行匹配
    AI
  • 苹果发布一种新颖的方法,用于将应用程序(App)的图片与人们可能用来发现该应用程序的搜索短语进行匹配。这种技术对于应用开发者来说非常有用,因为它可以帮助他们更好地推广自己的应用程序。例如,你在开发一个旅游应用,想要吸引用户下载。你可能会上传一些美丽的风景图片到应用商店。这项技术可以帮助你理解哪些图片最有可能吸引那些搜索... 阅读全文
    我要爆料 我的收藏 顶部
    快速登录

    自动登录 忘记密码?