大语言模型
优惠 Rainbow Teaming:帮助研究人员和开发者更好地理解和改进大语言模型的鲁棒性
2个月前 (02-27)AI
Meta、伦敦大学学院、牛津大学的研究人员发布论文介绍了一个名为Rainbow Teaming的方法,它是为了生成多样化的对抗性提示(adversarial prompts),以此来测试和增强大语言模型(LLMs)的鲁棒性。对抗性提示是指那些旨在误导模型或利用其弱点的输入,可能导致模型产生不安全、有偏见或不正确的输出。... 阅读全文
优惠 “放射性”(radioactivity)在大语言模型(LLMs)生成的文本中的表现
2个月前 (02-26)AI
Meta、巴黎综合理工学院的研究人员发布论文探讨了一个有趣的概念,即“放射性”(radioactivity)在大语言模型(LLMs)生成的文本中的表现。这里的“放射性”指的是,当一个模型(我们称之为Alice的模型)的输出被用作另一个模型(Bob的模型)的训练数据时,Alice能否检测到这种使用。这就像是在模型训练过程... 阅读全文
优惠 ChunkAttention:提高大语言模型(LLMs)在处理长序列时的自注意力(self-attention)模块的效率
2个月前 (02-26)AI
微软发布论文介绍了一种名为ChunkAttention的新方法,它旨在提高大语言模型(LLMs)在处理长序列时的自注意力(self-attention)模块的效率。自注意力是LLMs的核心组成部分,但在推理长序列时会导致显著的延迟。ChunkAttention通过利用多个LLM请求共享系统提示(system promp... 阅读全文
优惠 Copilot Evaluation Harness:评估大语言模型(LLMs)在软件开发环境中的编程辅助功能
3个月前 (02-24)AI
微软研究人员发布论文介绍了一个名为Copilot Evaluation Harness的工具,它用于评估大语言模型(LLMs)在软件开发环境中的编程辅助功能。LLMs,如OpenAI的GPT-3.5/4和Code Llama,有潜力通过作为智能、聊天驱动的编程助手来显著提高开发者的生产力。然而,直接使用这些模型可能并不... 阅读全文