大语言模型

优惠 新型视频理解模型TRACE:专门设计来处理视频时间定位任务

  • 新型视频理解模型TRACE:专门设计来处理视频时间定位任务
    AI
  • 香港中文大学科学与工程学院、深圳市人工智能与机器人研究院、广东省未来智能网络重点实验室和腾讯的研究人员推出新型视频理解模型TRACE,它专门设计来处理视频时间定位(Video Temporal Grounding,简称VTG)任务。这项技术的核心能力是理解视频中的事件,并确定这些事件发生的具体时间点。这就像给视频安装了... 阅读全文

    优惠 video-t3:提高视频大型语言模型(Video LLMs)在处理时间推理方面的能力

  • video-t3:提高视频大型语言模型(Video LLMs)在处理时间推理方面的能力
    AI
  • 香港大学、北京大学和加州大学圣地亚哥分校的研究人员推出新方法T3,它旨在提高视频大型语言模型(Video LLMs)在处理时间推理方面的能力。这些模型通常在理解视频内容时遇到困难,尤其是在跟踪随时间变化和理解时间关系方面。 项目主页:https://video-t3.github.io 主要功能: T3的主要功能是增强... 阅读全文

    优惠 基于Mamba架构构建的大语言模型Falcon Mamba 7B

  • 基于Mamba架构构建的大语言模型Falcon Mamba 7B
    AI
  • 阿拉伯联合酋长国阿布扎比技术创新研究所推出大语言模型Falcon Mamba 7B,它是基于一种新颖的架构——Mamba架构构建的。这个模型经过了大量数据的训练,并且在性能上超过了其他一些知名的、基于Transformer架构的模型,比如Mistral 7B、Llama 3.1 8B和Falcon2 11B。Falco... 阅读全文

    优惠 TinyEmo:用于情感推理和分类的小型多模态语言模型系列

  • TinyEmo:用于情感推理和分类的小型多模态语言模型系列
    AI
  • TinyEmo是一个用于情感推理和分类的小型多模态语言模型系列。你可以把TinyEmo想象成一个迷你的情感分析专家,它能够理解图片中的情感内容,并给出相应的分类。例如,一个社交媒体用户分享了一张看起来孤独的图片,TinyEmo可以分析这张图片并识别出其中的情感,然后给出一个情感分类,比如“孤独”。接着,它还可以生成一段... 阅读全文

    优惠 CritiCS:使用大语言模型(LLMs)来创造具有叙事连贯性和创造力的长篇故事

  • CritiCS:使用大语言模型(LLMs)来创造具有叙事连贯性和创造力的长篇故事
    AI
  • 韩国蔚山科学技术研究院人工智能研究生院推出CritiCS,使用大语言模型(LLMs)来创造具有叙事连贯性和创造力的长篇故事。想象一下,你是一位作家,想要写一个既有趣又能让读者一直猜不到下一步会发生什么的长故事,但这并不容易,因为你需要保持故事的连贯性,同时还要让故事充满创意。 GitHub:https://github... 阅读全文

    优惠 新型大型视频语言模型Grounded-VideoLLM:擅长于理解视频中的精细时刻,并能够推理出具体发生在视频哪个时刻的事情

  • 新型大型视频语言模型Grounded-VideoLLM:擅长于理解视频中的精细时刻,并能够推理出具体发生在视频哪个时刻的事情
    AI
  • 加州大学戴维斯分校、弗吉尼亚理工大学、香港中文大学、英伟达、Adobe Research 、复旦大学和Meta AI的研究人员推出一种新型大型视频语言模型Grounded-VideoLLM。这个模型特别擅长于理解视频中的精细时刻,并能够推理出具体发生在视频哪个时刻的事情。例如,你是一名视频编辑,正在寻找一个视频中所有“... 阅读全文

    优惠 互动聊天创新项目Future You:通过让用户与年长版的自己进行对话,减少焦虑,指导年轻人做出更好的选择

  • 互动聊天创新项目Future You:通过让用户与年长版的自己进行对话,减少焦虑,指导年轻人做出更好的选择
    AI
  • 麻省理工学院媒体实验室、KASIKORN 实验室、哈佛大学和加利福尼亚大学安德森管理学院的研究人员推出创新项目Future You,它是一个互动聊天平台,使用人工智能技术帮助用户与他们的“未来自我”进行对话。这个平台旨在通过增强用户与未来自我的连续性(future selfcontinuity),来改善用户的心理健康和... 阅读全文

    优惠 苹果推出新型多模态大语言模型MM1.5:提升对包含丰富文本的图像理解、视觉指代和定位以及多图像推理的能力

  • 苹果推出新型多模态大语言模型MM1.5:提升对包含丰富文本的图像理解、视觉指代和定位以及多图像推理的能力
    AI
  • 苹果推出新型多模态大语言模型MM1.5,它是为了提升对包含丰富文本的图像理解、视觉指代和定位以及多图像推理的能力而设计的。简单来说,MM1.5就像一个超级聪明的助手,它可以阅读和理解图片中的文字,告诉你图片里发生了什么,甚至能够理解图片之间的关系。例如,你给MM1.5看一张超市水果区的照片,它不仅能读出水果的价格标签,... 阅读全文

    优惠 语言记忆擦除ELM:从语言模型中“抹去”特定概念的知识

  • 语言记忆擦除ELM:从语言模型中“抹去”特定概念的知识
    AI
  • 美国东北大学和Anthropic的研究人员发布论文,论文的主题是关于如何从语言模型中“抹去”特定概念的知识。想象一下,如果我们有一个人工智能助手,它在回答有关生物武器的问题时,我们并不希望它使用其在训练数据中学到的信息。我们希望它表现得就像从未见过这类信息一样。这就是所谓的“概念擦除”。 项目主页:https://el... 阅读全文

    优惠 工智能辅助工具Tutor CoPilot:通过提供专家级的指导来帮助教育工作者,特别是那些经验不足的教师或家教,以提高他们的教学质量

  • 工智能辅助工具Tutor CoPilot:通过提供专家级的指导来帮助教育工作者,特别是那些经验不足的教师或家教,以提高他们的教学质量
    AI
  • 斯坦福大学推出了一个名为Tutor CoPilot的系统,它是一个人工智能辅助工具,旨在通过提供专家级的指导来帮助教育工作者,特别是那些经验不足的教师或家教,以提高他们的教学质量。Tutor CoPilot通过分析教学互动的实时数据,给出建议,帮助教师更好地指导学生。 项目主页:https://osf.io/8d6ha... 阅读全文

    优惠 新框架MIGA:提高股票市场预测的准确性而设计

  • 新框架MIGA:提高股票市场预测的准确性而设计
    AI
  • 清华大学和XM资本的研究人员推出新框架MIGA,它是为了提高股票市场预测的准确性而设计的。简单来说,MIGA通过组合多个专家模型(Experts)来预测股票价格的未来走势,并且能够根据不同类型的股票动态选择最合适的专家模型进行预测。例如,你是一名投资者,正在考虑投资某个大型科技公司的股票。你可以使用MIGA来预测这支股... 阅读全文

    优惠 基准测试NL-EYE:评估视觉语言模型(VLMs)在图像上进行推理的能力

  • 基准测试NL-EYE:评估视觉语言模型(VLMs)在图像上进行推理的能力
    AI
  • 以色列理工学院和谷歌的研究人员推出一个名为NL-EYE的基准测试,它是为了评估视觉语言模型(VLMs)在图像上进行推理的能力而设计的。例如,一个基于VLM的机器人检测到地板湿了,它是否会警告我们小心滑倒?这就是NL-EYE想要测试的——VLMs是否能够理解图像内容,并据此做出合理的推断。 项目主页:https://ve... 阅读全文