推荐类别

栏目分类

优惠 gemma.cpp:一个轻量级的、独立的 C++ 推理引擎,专为 Google 的 Gemma 基础模型设计

  • gemma.cpp:一个轻量级的、独立的 C++ 推理引擎,专为 Google 的 Gemma 基础模型设计
    AI
  • gemma.cpp 是一个轻量级的、独立的 C++ 推理引擎,专为 Google 的 Gemma 基础模型设计。这个项目似乎是为了填补现代大型语言模型(LLM)推理引擎和实验性 C++ 推理运行时之间的空白。它旨在为研究人员和开发者提供一个简单、直观且易于嵌入其他项目的工具,以便进行实验和研究。 以下是关于 gemma... 阅读全文

    情报 Windows 11广告泛滥:操作系统商业化冲击用户体验

  • Windows 11广告泛滥:操作系统商业化冲击用户体验
  • 微软正在Windows 11桌面大力推行广告植入,这一商业模式的转变可能对用户使用体验造成影响。尽管微软并未明确宣告Windows地位的退却,但其业务重心已明显转向云服务(如Azure)和Microsoft 365等产品。然而,疫情催生的远程工作与学习需求使个人电脑与Windows系统重回焦点,微软适时推出Window... 阅读全文

    情报 赛博选美?首届AI选美大赛“Miss AI”启动,你要参加吗?

  • 赛博选美?首届AI选美大赛“Miss AI”启动,你要参加吗?
  • 现在「选美大赛」已经逐渐因为「政治不正确」而没落,不过科技发达却导致另一种「选美大赛」应运而生,最近首届「AI 选美大赛“Miss AI”」就将会举办,除了外表更会着重社交媒体经营能力。首届「AI 选美大赛」由世界 AI 创作者大奖(WAICA)主办,旨在赞扬 AI 生成形象的技术实力与美感魅力。 不同于传统的选美比赛... 阅读全文

    优惠 截图美化工具Pretty Snap:为普通的截图添加渐变色背景、模糊阴影、圆角以及水印

  • 截图美化工具Pretty Snap:为普通的截图添加渐变色背景、模糊阴影、圆角以及水印
    工具
  • Pretty Snap 是一款在线的截图美化工具,能够为普通的截图添加渐变色背景、模糊阴影、圆角以及水印,简单易用。@Appinn... 阅读全文

    优惠 源自 Motrix 的新全平台下载工具imfile,支持 HTTP、BT、磁力

  • 源自 Motrix 的新全平台下载工具imfile,支持 HTTP、BT、磁力
    工具
  • imfile 是一款 fork 自 Motrix 的新全平台下载工具,支持下载 HTTP、FTP、BT、磁力链等资源,支持 Windows、macOS、Android。@Appinn fork 自 Motrix 的全平台下载软件,长期维护中。 Motrix 已经很长时间没有更新,同时积累了大量issues,本项目基于M... 阅读全文

    优惠 Reka推出多模态语言模型Reka Core

  • Reka推出多模态语言模型Reka Core
    AI
  • 由 Reka 团队开发的一系列强大的多模态语言模型:Reka Core、Reka Flash 和 Reka Edge。这些模型能够处理和推理文本、图像、视频和音频输入。报告详细讨论了这些模型的训练细节,并提供了全面的评估结果。Reka 模型的特点是,即使是较小的模型(如 Reka Edge 和 Reka Flash),... 阅读全文

    优惠 新型基准测试Blink:专门用于评估多模态大语言模型在核心视觉感知能力方面的表现

  • 新型基准测试Blink:专门用于评估多模态大语言模型在核心视觉感知能力方面的表现
    AI
  • 新型基准测试Blink,它专门用于评估多模态大型语言模型(LLMs)在核心视觉感知能力方面的表现。这些能力往往在其他评估中被忽视,但对于人类来说却是非常直观和本能的,例如相对深度估计、视觉对应、法医检测和多视图推理等任务。Blink基准测试包含14个经典计算机视觉任务,这些任务被重新构想为3,807个多项选择题,配以单... 阅读全文

    优惠 SurgeGlobal推出OpenBezoar模型:在多种指令数据上进行训练得到的,目的是为了提高预训练大语言模型在多种下游任务上的性能

  • SurgeGlobal推出OpenBezoar模型:在多种指令数据上进行训练得到的,目的是为了提高预训练大语言模型在多种下游任务上的性能
    AI
  • 这篇论文介绍了一个名为OpenBezoar的模型家族,这些模型是通过在多种指令数据上进行训练得到的,目的是为了提高预训练大语言模型(LLMs)在多种下游任务上的性能。这个过程就像是教一个机器人如何更好地理解人类的指令并做出合适的反应。OpenBezoar模型家族的特点是它们相对较小,但在性能上却能与更大的模型相媲美,甚... 阅读全文

    优惠 TriForce:为了提高大语言模型(LLMs)在生成长文本内容时的效率而设计

  • TriForce:为了提高大语言模型(LLMs)在生成长文本内容时的效率而设计
    AI
  • 卡内基梅隆大学和Meta的研究人员推出TriForce,它是为了提高大语言模型(LLMs)在生成长文本内容时的效率而设计的。大语言模型,比如我们熟知的GPT-4,已经在聊天机器人、视觉生成和金融分析等领域得到了广泛应用。但是,这些模型在生成长文本时面临着一些挑战,主要是因为它们需要存储大量的中间信息(称为键值(KV)缓... 阅读全文

    优惠 MLCommons AI安全工作组推出AI安全基准测试(AI Safety Benchmark)v0.5版本

  • MLCommons AI安全工作组推出AI安全基准测试(AI Safety Benchmark)v0.5版本
    AI
  • 由MLCommons AI安全工作组(AI Safety Working Group)开发的AI安全基准测试(AI Safety Benchmark)的v0.5版本。这个基准测试的目标是评估使用聊天调优语言模型(chat-tuned language models)的AI系统的安全风险。v0.5版本的基准测试不应该用来... 阅读全文

    优惠 新框架ALPHALLM:帮助大语言模型通过自我评估和学习来提高其在复杂推理和规划任务上的表现,而不需要额外的人工标注数据

  • 新框架ALPHALLM:帮助大语言模型通过自我评估和学习来提高其在复杂推理和规划任务上的表现,而不需要额外的人工标注数据
    AI
  • 腾讯AI实验室发布新框架ALPHALLM,它可以帮助大语言模型通过自我评估和学习来提高其在复杂推理和规划任务上的表现,而不需要额外的人工标注数据。 主要功能和特点: 自我改进:ALPHALLM使语言模型能够自我评估,找出回答中的不足,并据此改进。 集成蒙特卡洛树搜索(MCTS):借鉴了AlphaGo的成功经验,ALPH... 阅读全文

    优惠 Cross-lingual Reward Model Transfer:用于自然语言处理(NLP)中的零样本(Zero-Shot)跨语言对齐技术

  • Cross-lingual Reward Model Transfer:用于自然语言处理(NLP)中的零样本(Zero-Shot)跨语言对齐技术
    AI
  • 来自MIT和谷歌的研究人员发布论文介绍了“跨语言奖励模型迁移(Cross-lingual Reward Model Transfer)”,这是一种用于自然语言处理(NLP)中的零样本(Zero-Shot)跨语言对齐技术。简单来说,这项技术可以让一个已经在某种语言(源语言)上训练好的奖励模型(Reward Model,简... 阅读全文
    我要爆料 我的收藏 顶部
    快速登录

    自动登录 忘记密码?