优惠 新型3D网格生成模型MeshAnything:将任何形式的3D表示(比如图像、点云、体素等)转换成由人类艺术家创造的网格
1年前 (2024-06-18)AI
南洋理工大学S-Lab、上海人工智能实验室、复旦大学、北京大学、 中国科学院大学、商汤科技、 Stepfun和 西湖大学的研究人员推出新型3D网格生成模型MeshAnything,这个模型的特别之处在于,它能够将任何形式的3D表示(比如图像、点云、体素等)转换成由人类艺术家创造的网格(Artist-Created Me... 阅读全文
优惠 基准测试生成引擎Task Me Anything:为了评估大型多模态语言模型而设计
1年前 (2024-06-18)AI
这篇论文介绍了一个名为“Task Me Anything”(简称TASK-ME-ANYTHING)的基准测试生成引擎,它是为了评估大型多模态语言模型(MLMs)而设计的。这些模型能够处理包括图像、视频、文本等在内的多种类型的数据,但在实际应用中,开发者往往难以选择最适合其特定需求的模型。为了解决这个问题,TASK-ME... 阅读全文
优惠 数据选择方法CoLoR-Filter:用于目标化的语言模型预训练
标签:CoLoR-Filter
AI
1年前 (2024-06-18)AI
哈佛大学肯普纳研究所、牛津大学的研究人员推出数据选择方法CoLoR-Filter(Conditional Loss Reduction Filtering),用于目标化的语言模型预训练。简单来说,CoLoR-Filter是一种智能的筛选工具,它可以帮助我们从大量数据中挑选出最有价值的一部分,以便更高效地训练语言模型,让... 阅读全文
优惠 WILDVISION:用于评估视觉-语言模型(VLMs)在现实世界中表现的在线平台
标签:WILDVISION
AI
1年前 (2024-06-18)AI
艾伦人工智能研究所、华盛顿大学、加州大学圣巴巴拉分校和滑铁卢大学的研究人员推出WILDVISION,它是一个用于评估视觉-语言模型(VLMs)在现实世界中表现的在线平台。WILDVISION通过收集人类偏好来评估这些模型,特别是在多轮对话和多模态交互中的表现。例如,你是一名AI研究员,想要比较不同视觉-语言模型在理解一... 阅读全文
优惠 在线视频大型语言模型VideoLLM-online:专为流媒体视频设计,能够实时理解和生成与视频内容相关的对话
1年前 (2024-06-18)AI
新加坡国立大学和Meta的研究人员推出在线视频大型语言模型VideoLLM-online,它专为流媒体视频设计,能够实时理解和生成与视频内容相关的对话。例如,你戴着一副智能眼镜,而这副眼镜能够实时分析你看到的场景,并与你进行交流,比如在你做饭的时候告诉你下一步该做什么,或者在你观看教学视频时回答你的问题,这就是Vide... 阅读全文