推荐类别

栏目分类

优惠 在线AI编辑工具HeyEditor,支持视频换脸、照片换脸、照片转动漫和照片增强器等功能

  • 在线AI编辑工具HeyEditor,支持视频换脸、照片换脸、照片转动漫和照片增强器等功能
    工具
  • HeyEditor.net 是一个在线平台,提供用于视频和照片编辑的先进 AI 工具,具有视频换脸、照片换脸、照片转动漫和照片增强器等功能。... 阅读全文

    优惠 基于AI的短视频创作工具Videotok

  • 基于AI的短视频创作工具Videotok
    AI
  • Videotok是一个基于AI的短视频创作工具,只要输入文本即可创建适用于TikToks和Reels的短视频,自动匹配由AI生成的图片、声音和音乐。 地址:https://www.videotok.app... 阅读全文

    优惠 无限画布绘图/笔记应用Lorien:跨平台,支持中文

  • 无限画布绘图/笔记应用Lorien:跨平台,支持中文
    工具
  • Lorien 是一款专注于性能、小存储空间和简洁性的无限画布绘图/笔记应用。它不同于基于位图图像的应用,如 Krita、Gimp 或 Photoshop,而是将画笔笔触保存为一系列的点,并在运行时进行渲染(类似于 SVG)。其主要设计目的是作为数字笔记本和头脑风暴工具。虽然 Lorien 也可用于绘制小型素描和图表,但... 阅读全文

    优惠 小型语言模型Orca-Math:解决小学数学问题方面

  • 小型语言模型Orca-Math:解决小学数学问题方面
    AI
  • 微软的研究人员发布论文介绍了一个名为Orca-Math的小型语言模型(SLM),它在解决小学数学问题方面表现出色。尽管数学问题解决一直被认为是小型语言模型的一个复杂任务,但Orca-Math在GSM8K基准测试上达到了约87%的准确率,而训练数据仅有20万个合成数学问题。 论文地址:https://arxiv.org/... 阅读全文

    优惠 CLoVe:提高现有的视觉-语言模型(VLMs)在处理组合语言时的能力

  • CLoVe:提高现有的视觉-语言模型(VLMs)在处理组合语言时的能力
    AI
  • 密歇根大学安娜堡分校、Netflix的研究人员发布论文介绍了一个名为CLoVe(Contrastive Language-Image Vision Models)的框架,旨在提高现有的视觉-语言模型(VLMs)在处理组合语言时的能力。VLMs,如CLIP模型,通常在识别图像中的对象方面表现出色,但在理解文本中单词顺序变... 阅读全文

    优惠 大语言模型(LLMs)在处理不同长度输入时的表现,特别是它们在处理长文本时的推理能力

  • 大语言模型(LLMs)在处理不同长度输入时的表现,特别是它们在处理长文本时的推理能力
  • 巴伊兰大学、艾伦人工智能研究所的研究人员发布论文探讨了大语言模型(LLMs)在处理不同长度输入时的表现,特别是它们在处理长文本时的推理能力。尽管LLMs在许多任务上取得了显著进展,但它们在不同输入长度下的性能稳定性尚不清楚。为了深入了解这一点,研究者们设计了一个新的问答(QA)推理框架,专门用来评估输入长度对LLMs性... 阅读全文

    优惠 “放射性”(radioactivity)在大语言模型(LLMs)生成的文本中的表现

  • “放射性”(radioactivity)在大语言模型(LLMs)生成的文本中的表现
    AI
  • Meta、巴黎综合理工学院的研究人员发布论文探讨了一个有趣的概念,即“放射性”(radioactivity)在大语言模型(LLMs)生成的文本中的表现。这里的“放射性”指的是,当一个模型(我们称之为Alice的模型)的输出被用作另一个模型(Bob的模型)的训练数据时,Alice能否检测到这种使用。这就像是在模型训练过程... 阅读全文

    优惠 MobileLLM:如何在移动设备上高效使用大语言模型

  • MobileLLM:如何在移动设备上高效使用大语言模型
    AI
  • 这篇论文的主题是关于如何在移动设备上高效使用大语言模型(LLMs)。随着云计算成本的增加和对延迟的担忧,移动设备上的大型语言模型变得越来越重要。论文的重点是设计拥有不到十亿参数的高质量大型语言模型,这对于移动部署来说是一个实用的选择。 论文地址:https://arxiv.org/abs/2402.14905 想象一下... 阅读全文

    优惠 如何有效地从大语言模型(LLMs)中提取和压缩推理任务的关键部分

  • 如何有效地从大语言模型(LLMs)中提取和压缩推理任务的关键部分
    AI
  • 来自苹果和密歇根大学的研究人员发布论文探讨了如何有效地从大语言模型(LLMs)中提取和压缩推理任务的关键部分。作者提出了一种策略,将复杂推理任务分解为问题分解阶段和问题解决阶段,并展示了这种两阶段策略能够胜过单一阶段解决方案。他们进一步假设,与问题解决相比,问题分解更容易被蒸馏到一个更小的模型中,因为问题解决需要大量的... 阅读全文

    优惠 ChunkAttention:提高大语言模型(LLMs)在处理长序列时的自注意力(self-attention)模块的效率

  • ChunkAttention:提高大语言模型(LLMs)在处理长序列时的自注意力(self-attention)模块的效率
    AI
  • 微软发布论文介绍了一种名为ChunkAttention的新方法,它旨在提高大语言模型(LLMs)在处理长序列时的自注意力(self-attention)模块的效率。自注意力是LLMs的核心组成部分,但在推理长序列时会导致显著的延迟。ChunkAttention通过利用多个LLM请求共享系统提示(system promp... 阅读全文

    优惠 GPTVQ:压缩大语言模型(LLMs)的权重,以减少模型的大小并提高运行效率

  • GPTVQ:压缩大语言模型(LLMs)的权重,以减少模型的大小并提高运行效率
  • 这篇论文介绍了一种名为GPTVQ的新方法,它用于压缩大语言模型(LLMs)的权重,以减少模型的大小并提高运行效率。GPTVQ是一种快速的后训练向量量化(VQ)方法,它通过增加量化的维度来改善神经网络量化的大小与准确性之间的权衡。这种方法特别适合于像GPT这样的大型语言模型,可以帮助它们在保持准确性的同时减少所需的存储空... 阅读全文

    优惠 大型数据集API-BLEND:训练和评估那些能够使用工具和外部应用程序接口(APIs)的大语言模型

  • 大型数据集API-BLEND:训练和评估那些能够使用工具和外部应用程序接口(APIs)的大语言模型
    AI
  • IBM推出大型数据集API-BLEND,它旨在训练和评估那些能够使用工具和外部应用程序接口(APIs)的大语言模型(LLMs)。这些模型通常用于执行复杂的任务,比如预订酒店、预订餐厅或自动化工作招聘任务。API-BLEND数据集通过模拟真实世界的场景,包括API检测、插槽填充和API序列化等任务,来帮助研究人员开发和测... 阅读全文
    我要爆料 我的收藏 顶部
    快速登录

    自动登录 忘记密码?