LLaVA-MoD

优惠 新型框架LLaVA-MoD:通过专家混合(MoE)知识蒸馏技术使大型多模态语言模型变得小型化

  • 新型框架LLaVA-MoD:通过专家混合(MoE)知识蒸馏技术使大型多模态语言模型变得小型化
    AI
  • 阿里巴巴、香港中文大学、香港感知与交互智能研究中心和北京航空航天大学的研究人员推出新型框架LLaVA-MoD,通过专家混合(MoE)知识蒸馏技术使大型多模态语言模型(MLLM)变得小型化。简单来说,LLaVA-MoD的目标是 ...... 阅读全文