大语言模型

优惠 SambaLingo:针对大语言模型进行多语言适应性调整的研究项目

  • SambaLingo:针对大语言模型进行多语言适应性调整的研究项目
    AI
  • 这篇论文的主题是“SambaLingo”,这是一个针对大型语言模型(LLMs)进行多语言适应性调整的研究项目。简单来说,SambaLingo的目标是让大型语言模型能够理解和生成更多不同语言的文本,弥补目前LLMs在多种语言能力上的差距。例如,如果我们要为一个以英语为中心的模型添加对阿拉伯语的支持,SambaLingo的... 阅读全文

    优惠 大语言模型在处理表格数据时的记忆力和学习能力

  • 大语言模型在处理表格数据时的记忆力和学习能力
    AI
  • 图宾根大学图宾根人工智能中心和微软搜索团队发布论文探讨大语言模型(Large Language Models,简称LLMs)在处理表格数据时的记忆力和学习能力。用通俗的语言来说,就像是研究一个学习了很多知识的智能助手,当它遇到新的或之前学过的问题时,它是如何回忆和应用这些知识的。 主要功能和特点: 记忆力测试: 研究者... 阅读全文

    优惠 如何利用大语言模型来提升人们的社交技能

  • 如何利用大语言模型来提升人们的社交技能
    AI
  • 来自斯坦福大学和乔治亚理工学院发布论文探讨如何利用大语言模型(LLMs)来提升人们的社交技能。社交技能,比如解决冲突的能力,对于我们在工作和生活中有效沟通和成功至关重要。但是,大多数人很难找到练习这些技能的环境。论文提出了一个解决方案,通过一个名为“AI伙伴”和“AI导师”的框架,结合体验式学习和实时反馈,来帮助人们提... 阅读全文

    优惠 评估框架CodeEditorBench:专门设计用来测试和评估大语言模型在代码编辑任务上的表现

  • 评估框架CodeEditorBench:专门设计用来测试和评估大语言模型在代码编辑任务上的表现
    AI
  • 研究团队推出评估框架CodeEditorBench,它专门设计用来测试和评估大型语言模型(LLMs)在代码编辑任务上的表现。想象一下,你有一个智能的编程助手,它可以帮你调试代码中的错误、将代码从一种编程语言翻译成另一种、优化代码性能,甚至根据新的需求来调整代码功能。CodeEditorBench就是这样一个平台,它可以... 阅读全文

    优惠 对大语言模型和多模态大语言模型进行所谓的“越狱攻击”(jailbreak attacks)的安全性评估

  • 对大语言模型和多模态大语言模型进行所谓的“越狱攻击”(jailbreak attacks)的安全性评估
    AI
  • 这篇论文的主题是关于对大型语言模型(LLMs)和多模态大型语言模型(MLLMs)进行所谓的“越狱攻击”(jailbreak attacks)的安全性评估。想象一下,你有一个非常听话的机器人,你告诉它做什么它就会做什么,但是这个机器人有一些内置的安全规则,防止它做出有害的行为。然而,有些人可能会尝试欺骗这个机器人,让它做... 阅读全文

    优惠 在神经压缩文本上训练大语言模型(LLMs)的方法

  • 在神经压缩文本上训练大语言模型(LLMs)的方法
    AI
  • 谷歌DeepMind和Anthropic发布论文探讨了直接在神经压缩文本上训练大语言模型(LLMs)的方法。想象一下,你有一个能读懂和生成文本的智能系统,但现在我们想让这个系统更加高效,不仅能处理更多信息,还能更快地学习和生成文本。为了实现这一点,研究者们尝试了一种新的方法,即在文本被压缩成更小的体积后,直接在这个压缩... 阅读全文

    优惠 大语言模型在化学科学领域的应用潜力

  • 大语言模型在化学科学领域的应用潜力
    AI
  • 这篇论文探讨了大语言模型(LLMs)在化学科学领域的应用潜力。LLMs是一类强大的人工智能工具,它们通过分析大量文本数据来理解和生成人类语言。在化学领域,这些模型可以用来预测化学物质的性质、优化化学反应过程,甚至设计和执行实验。例如,假设一个化学家想要了解某种新合成的化合物是否有毒,他们可以向LLM提出这个问题。LLM... 阅读全文

    优惠 华为推出新型高效大语言模型DiJiang:减少传统Transformer模型在处理长序列数据时所需的计算资源

  • 华为推出新型高效大语言模型DiJiang:减少传统Transformer模型在处理长序列数据时所需的计算资源
    AI
  • 华为推出新型高效大语言模型DiJiang,DiJiang的核心目标是减少传统Transformer模型在处理长序列数据时所需的计算资源。Transformer模型在自然语言处理(NLP)领域取得了巨大成功,但其注意力机制(attention mechanism)需要大量的计算资源,尤其是在处理大量参数的大型语言模型时。... 阅读全文

    优惠 如何提高大语言模型(LLM)与人类偏好的一致性

  • 如何提高大语言模型(LLM)与人类偏好的一致性
    AI
  • 韩国Upstage AI发布论文讨论关于如何提高大语言模型(LLM)与人类偏好的一致性。想象一下,你有一个超级聪明的机器人,它可以回答各种问题,但是有时候它给出的答案可能会让人感到不舒服或者不准确。为了让这个机器人更好地理解人类的喜好,并给出更符合我们期望的答案,研究者们提出了一种新的方法,叫做“逐步直接偏好优化”(s... 阅读全文

    优惠 SAFE:用于评估和提高大语言模型在生成长篇事实性内容时的准确性

  • SAFE:用于评估和提高大语言模型在生成长篇事实性内容时的准确性
    AI
  • 来自Google DeepMind和斯坦福大学的研究人员发布论文探讨大语言模型(LLMs)在生成长篇内容时的准确性问题。我们可以通过一个简单的例子来理解这个问题:想象一下,你问一个智能助手关于某个历史事件的详细信息,比如“告诉我关于滑铁卢战役的一切”。理想情况下,助手应该提供准确、详细的信息,包括战役的时间、地点、参战... 阅读全文

    优惠 针对大型预训练语言模型(LLMs)的简单层剪枝策略

  • 针对大型预训练语言模型(LLMs)的简单层剪枝策略
    AI
  • 这篇论文探讨了一种针对大型预训练语言模型(LLMs)的简单层剪枝策略。层剪枝是一种模型压缩技术,通过移除神经网络中的一些层来减少模型的大小和计算需求。论文的主要发现是,即使在移除了相当一部分(高达一半)的层之后,模型在不同的问答基准测试上的性能也只有很小的下降。为了修复由于剪枝造成的模型性能损失,研究者们采用了一种称为... 阅读全文

    优惠 探讨压缩大语言模型(LLMs)的可信度问题

  • 探讨压缩大语言模型(LLMs)的可信度问题
    AI
  • 这篇论文的主题是探讨压缩大语言模型(LLMs)的可信度问题。随着技术的进步,大语言模型在处理自然语言方面取得了显著的成就,但它们的规模庞大,对计算资源的需求很高。为了在资源有限的设备上部署这些模型,研究者们采用了压缩技术来减小模型的大小,提高推理效率。然而,这种压缩可能会对模型的安全性和可信度产生影响,这是之前研究中经... 阅读全文