推荐类别

栏目分类

情报 波士顿动力明星机器人Atlas退休,全电版即将登场

  • 波士顿动力明星机器人Atlas退休,全电版即将登场
  • 波士顿动力,作为机器人领域的明星企业,尽管命运多舛,接连发布多款引发轰动的机器人如机器狗Spot、人形机器人Atlas等,却一直未能找到稳定的盈利之道。从2013年被谷歌收购,到2017年转手软银,再到2020年被韩国现代接手,其命运可谓一波三折。而就在近日,波士顿动力再次掀起波澜,宣布液压双足人形机器人Atlas退役... 阅读全文

    情报 微软亚洲研究院开源然后移除了新 AI 模型WizardLM-2-7B

  • 微软亚洲研究院开源然后移除了新 AI 模型WizardLM-2-7B
  • 微软亚洲研究院的中国研究人员周二发布了一个新的 AI 模型 WizardLM-2-7B,权重发布在 Hugging Face 平台上。但几小时后微软就将其从平台上移除。研究人员解释说,原因是他们意外错过了微软发布新模型前要求进行的安全测试步骤。一位知情人士表示,微软的 AI 政策要求,在发布任何 AI 模型前,必须首先... 阅读全文

    优惠 基于 LLM 大语言模型的知识库问答系统MaxKB

  • 基于 LLM 大语言模型的知识库问答系统MaxKB
    AI
  • MaxKB 是一款基于 LLM 大语言模型的知识库问答系统。MaxKB = Max Knowledge Base,旨在成为企业的最强大脑。 开箱即用:支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化,智能问答交互体验好; 无缝嵌入:支持零编码快速嵌入到第三方业务系统; 多模型支持:支持对接主流的大模型,包括... 阅读全文

    优惠 专为兼容性和可扩展性而构建的现代富文本编辑器Quill

  • 专为兼容性和可扩展性而构建的现代富文本编辑器Quill
    工具
  • Quill 是一款专为兼容性和可扩展性而构建的现代富文本编辑器。 专为开发者打造:通过简单的API,为编辑器的内容、变更和事件提供精细化的访问权限。与JSON保持一致的确定性输入和输出。 跨平台:支持所有现代浏览器,可在桌面、平板和手机端使用。体验跨平台一致的行为和生成的HTML。 官网:https://quilljs... 阅读全文

    优惠 SIMA:创建一个能够在多个模拟的3D环境中遵循任意语言指令的智能代理

  • SIMA:创建一个能够在多个模拟的3D环境中遵循任意语言指令的智能代理
    AI
  • 由Google DeepMind团队开发的项目SIMA(Scalable, Instructable, Multiworld Agent),SIMA的目标是创建一个能够在多个模拟的3D环境中遵循任意语言指令的智能代理。这个代理可以用于执行各种任务,比如在虚拟环境中导航、收集资源、建造物品或者与环境互动。想象一下,你告诉... 阅读全文

    优惠 TR-DPO:用于改进大语言模型(LLMs)的对齐问题

  • TR-DPO:用于改进大语言模型(LLMs)的对齐问题
    AI
  • Tinkoff推出新方法Trust Region Direct Preference Optimization(TR-DPO),它用于改进大语言模型(LLMs)的对齐问题。在自然语言处理(NLP)中,对齐问题是指训练模型以生成不仅有效而且安全、可控的输出。例如,当你使用聊天机器人时,你希望它提供有帮助、准确且不会造成伤... 阅读全文

    优惠 3D场景修复MALD-NeRF,针对那些在图像中不可见或需要编辑的区域

  • 3D场景修复MALD-NeRF,针对那些在图像中不可见或需要编辑的区域
    AI
  • 来自Meta、 加州大学默塞德分校和马里兰大学学院公园分校的研究人员推出MALD-NeRF,它是一种用于3D场景修复的方法,特别是针对那些在图像中不可见或需要编辑的区域。例如,你有一张包含某个物体的照片,但你想在不改变背景的情况下移除这个物体。使用MALD-NeRF,就可以在不留下任何痕迹的情况下,如魔法般地移除或替换... 阅读全文

    优惠 新型神经网络架构TransformerFAM:为了解决大语言模型处理极长输入序列时的挑战而设计

  • 新型神经网络架构TransformerFAM:为了解决大语言模型处理极长输入序列时的挑战而设计
    AI
  • 谷歌推出新型神经网络架构TransformerFAM,它是为了解决大语言模型(LLMs)处理极长输入序列时的挑战而设计的。例如,你有一个非常长的故事,需要一个能够记住故事中所有细节的超级大脑。传统的神经网络(比如Transformer)在处理这样的故事时会遇到麻烦,因为它们的记忆能力有限,而且处理起来非常慢。Trans... 阅读全文

    优惠 新型神经网络架构MEGALODON,为了更高效地处理长序列数据而设计

  • 新型神经网络架构MEGALODON,为了更高效地处理长序列数据而设计
    AI
  • 来自Meta、南加州大学、卡内基梅隆大学 和加州大学圣地亚哥分校的研究人员推出新型神经网络架构MEGALODON,它是为了更高效地处理长序列数据而设计的。想象一下,你有一个非常长的故事,需要一个能够记住故事中所有细节的超级大脑。传统的神经网络(比如Transformer)在处理这样的故事时会遇到麻烦,因为它们的记忆能力... 阅读全文

    优惠 压缩能力和智能之间的关系:一个语言模型能够以更少的比特无损地压缩文本,这是否意味着它具有更高的智能?

  • 压缩能力和智能之间的关系:一个语言模型能够以更少的比特无损地压缩文本,这是否意味着它具有更高的智能?
    AI
  • 香港科技大学和腾讯的研究人员发布论文探讨了压缩能力和智能之间的关系。作者提出了一个问题:如果一个语言模型能够以更少的比特无损地压缩文本,这是否意味着它具有更高的智能?为了回答这个问题,论文对大语言模型(LLMs)进行了实证研究,将这些模型视为数据压缩器,并评估了它们在不同基准测试中的表现。 主要功能和特点: 智能与压缩... 阅读全文

    优惠 新型3D场景表示方法CompGS:将3D场景分解为一系列高斯分布的点(3D Gaussians)来表示场景,并在渲染时将这些点投影到视图上

  • 新型3D场景表示方法CompGS:将3D场景分解为一系列高斯分布的点(3D Gaussians)来表示场景,并在渲染时将这些点投影到视图上
    AI
  • 来自香港城市大学、密苏里大学堪萨斯城分校和岭南大学的研究人员推出新型3D场景表示方法CompGS(压缩高斯点渲染),高斯点渲染(Gaussian Splatting)是一种在3D图形学中用于渲染质量出众且效率很高的技术,它通过将3D场景分解为一系列高斯分布的点(3D Gaussians)来表示场景,并在渲染时将这些点投... 阅读全文

    优惠 如何提高多模态大语言模型(MLLMs)推理(inference)效率

  • 如何提高多模态大语言模型(MLLMs)推理(inference)效率
    AI
  • 高通发布论文探讨了如何提高多模态大语言模型(MLLMs)推理(inference)效率的问题。MLLMs是一类能够处理包括文本和图像在内的多种模态数据的模型,它们在现实世界中非常有用,因为我们的数据通常包含多种形式,如文本、图片等。然而,这些模型在处理数据时往往速度较慢,因为它们需要逐个生成令牌(tokens),并且受... 阅读全文
    我要爆料 我的收藏 顶部
    快速登录

    自动登录 忘记密码?