优惠 LLMs新训练方法Patch-Level Training:用于提高大语言模型的训练效率
12个月前 (07-18)AI
微信 AI 模式识别中心的研究人员推出一种新的训练方法,名为“Patch-Level Training”,用于提高大语言模型(LLMs)的训练效率。这种方法通过将多个词元(tokens)压缩成一个“补丁”(patch),从而减少序列长度,降低计算成本。例如,我们有一个句子 "The quick brown fox ju... 阅读全文
优惠 检索增强型图像描述生成模型的鲁棒性Robust-cap:通过查找相关信息来帮助生成图像描述的人工智能模型
标签:Robust-cap
AI
12个月前 (07-17)AI
哥本哈根大学计算机科学系、里斯本大学高等技术学院 和Comcast 应用人工智能的研究人员发布论文,论文讨论的是“检索增强型图像描述生成模型的鲁棒性”。简单来说,就是研究一种可以通过查找相关信息来帮助生成图像描述的人工智能模型。这种模型的特别之处在于,它不仅仅是自己“想”出描述,而是会先去“查找”一些已经存在的描述,然... 阅读全文
优惠 Speech Slytherin:新型序列模型Mamba应用于语音处理的三个关键任务:语音分离、自动语音识别(ASR)和文本到语音合成(TTS)
12个月前 (07-17)AI
哥伦比亚大学电气工程系的研究人员推出Speech Slytherin,探讨了一种新型的序列模型Mamba,并将其应用于语音处理的三个关键任务:语音分离、自动语音识别(ASR)和文本到语音合成(TTS)。Mamba是一种新型的序列模型,它与传统的变换器(transformer)模型相比,可能在某些方面有更好的性能和更高的... 阅读全文