AMD联合LM Studio推出专属AMD ROCm技术的LM Studio版本,可在本地运行开源大语言模型

分类:大语言模型 | 热度:59 ℃

继英伟达发布Chat with RTX后!AMD联合LM Studio推出专属AMD ROCm技术的LM Studio版本,用户现在可以在其平台上本地化运行开源大语言模型(LLM),并构建专属的AI聊天机器人。这一功能支持具有XDNA NPU的Ryzen 7000/8000系列处理器以及内置AI加速核心的Radeon RX 7000系列GPU设备,用户需下载对应版本的LM Studio以使用。

AMD联合LM Studio推出专属AMD ROCm技术的LM Studio版本,可在本地运行开源大语言模型

AMD表示,人工智能助手已成为提升生产力、效率以及激发创新思维的重要工具。用户设备上的本地AI聊天机器人不仅摆脱了互联网连接的束缚,而且所有对话内容都能保留在本地系统上,提高了数据安全性。

在AMD的博客文章中,详细列出了运行本地GPT大语言模型的步骤,并提供了具体用例说明。例如,若想运行Mistral 7b模型,用户可以在相应平台搜索“TheBloke/OpenHermes-2.5-Mistral-7B-GGUF”并按照指示操作;同样,如果想运行LLAMA v2 7b模型,则可以搜索“TheBloke/Llama-2-7B-Chat-GGUF”并选择相应的结果。

AMD联合LM Studio推出专属AMD ROCm技术的LM Studio版本,可在本地运行开源大语言模型

对于已经拥有支持AMD技术的CPU或GPU设备的用户,如果对构建专属AI聊天机器人感兴趣,可以查阅原文了解更多详情,并按照说明进行操作。这一功能的推出无疑为AMD用户带来了更多个性化的AI体验,同时也展示了AMD在AI领域的技术实力。

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)! 点此爆料

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论