DevEval

优惠 代码生成基准测试DevEval:评估大语言模型(LLMs)在实际代码库中的编程能力。

  • 代码生成基准测试DevEval:评估大语言模型(LLMs)在实际代码库中的编程能力。
    AI
  • 北京大学和阿里巴巴的研究人员推出新的代码生成基准测试——DevEval,它旨在评估大语言模型(LLMs)在实际代码库中的编程能力。例如,如果你是一个软件开发团队的负责人,你可能会使用DevEval来测试和比较不同的LLMs, ...... 阅读全文