首页 > 业界 > 关键词  > DeepSeek最新资讯  > 正文

AMD锐龙AI处理器轻松本地跑DeepSeek:支持70B参数

2025-02-12 19:24 · 稿源: 快科技

本地部署 DeepSeek,AMD 锐龙 AI 助力

DeepSeek 近期大受欢迎,但由于服务器负载限制,经常会出现无响应的情况。因此,本地部署体验成为更好的选择,具体规模取决于硬件配置。

AMD 锐龙 AI 处理器拥有业内最强大的 NPU,算力高达 50 TOPS(每秒 50 万亿次计算),是体验 DeepSeek 的理想选择。

如果您拥有 AMD 锐龙 AI 笔记本,可以通过 LM Studio 轻松在本地部署、体验 DeepSeek R1 精简版推理模型。

操作步骤:

  1. 安装 AMD Adrenalin 25.1.1 或更新版本的显卡驱动。
  2. 打开 lmstudio.ai/ryzenai,下载 LM Studio 0.3.8 或更新版本。
  3. 安装并启动 LM Studio,跳过引导屏幕。
  4. 点击“发现”标签页。
  5. 选择适合自己硬件的 DeepSeek R1 Distill 模型,具体选择见后。
  6. 在软件页面右侧,勾选“Q4 K M”量化模式,然后点击“下载”。
  7. 下载完成后,返回聊天选项页,从下拉菜单中选择 DeepSeek R1 distill,并确保勾选“手动选择参数”选项。
  8. 在“GPU 卸载”中,将滑块移至最大值。
  9. 点击“模型加载”。
  10. 现在,您可以在本地体验 DeepSeek R1 推理模型了!

不同硬件配置支持的不同参数量:

  • AMD 锐龙 AI MAX395 处理器,搭配 64GB 或 128GB 内存,最高支持 DeepSeek-R1-Distill-Llama-70B。
  • 搭配 32GB 内存,可支持 DeepSeek-R1-Distill-Qwen-32B。
  • AMD 锐龙 AI HX 370、AI 365 处理器,搭配 24GB 或 32GB 内存,支持 DeepSeek-R1-Distill-Qwen-14B。
  • AMD 锐龙 7040/8040 系列,搭配 32GB 内存,支持 DeepSeek-R1-Distill-Qwen-14B。

AMD 推荐将所有 Distill 运行在 Q4 K M 量化模式。

如果您使用的是台式机,AMD RX 7000 系列显卡也支持本地部署 DeepSeek R1。

  • RX 7900 XTX 旗舰显卡最高支持 DeepSeek-R1-Distill-Qwen-32B。
  • RX 7900 XT、7900 GRE、7800 XT、7700 XT、7600 XT 均支持 DeepSeek-R1-Distill-Qwen-14B。
  • RX 7600 和 RX 7650 GRE 适合 DeepSeek-R1-Distill-Llama-8B。

举报

  • 相关推荐
  • DeepSeek:已对AI生成合成内容添加标识 用户不得恶意删除

    今天下午,DeepSeek发布了《关于AI生成合成内容标识的公告》。 公告中称,Deepseek始终高度重视AI的安全问题,已在平台内对AI生成合成内容添加标识,并明确提醒用户相关内容由AI生成。 此举为贯彻落实《人工智能生成合成内容标识办法》(2025年9月1日起施行)及《网络安全技术 人工智能生成合成内容标识方法》等国家标准的相关要求,防止AI生成内容可能引发的公众混淆、�

  • 免费使用!腾讯地图已接入DeepSeek-V3.1

    DeepSeek V3.1于2025年8月21日发布并开源,腾讯地图率先完成接入。新版AI助手“AI叮当”在三大核心能力显著提升:思考效率更高,响应更快;上下文理解更强,支持多轮连贯对话;智能体调用更精准,尤其在中文网页理解和跨领域搜索方面表现突出。依托升级,AI叮当可提供个性化行程规划、周边推荐及景点知识问答等智能出行服务,让导航升级为全程智能生活陪伴。

  • 2025年大模型选型核心指南:Beyond GPT-4,如何理性评估Qwen、DeepSeek等强者?

    大模型选择能力已成为AI时代企业核心竞争力。文章提出“能力-成本-场景”三维评估框架,强调需超越单一指标崇拜,基于客观数据和实际需求进行理性选择。通过Qwen2-Plus与DeepSeek-V3的对比分析,展示不同模型在特定场景下的差异化优势。建议企业建立科学选型流程,采用专业工具进行多维度评估,通过三阶段验证策略确保决策既数据驱动又经实践检验。最终目标是选择最适合业务场景的模型,而非盲目追求流行模型。

  • 别再猜了!手把手教你用数据选择AI模型,我的Gemini 2.5 Flash-Lite vs DeepSeek选型心得

    开发者分享模型选择心路历程:从盲目试错到数据驱动。曾因追求低价模型导致成本飙升,后通过AIbase平台对比Gemini 2.5 Flash-Lite和DeepSeek-V3,基于价格、上下文长度和代码能力等数据,最终选择更适合代码生成任务的DeepSeek-V3。强调没有“最好”的模型,只有“最适合”的模型,建议开发者善用专业工具进行数据驱动决策,避免隐性成本。

  • Gemini 2.5 Flash-Lite与 DeepSeek-V3 深度对比:谁在性价比上更胜一筹?

    面对琳琅满目的大模型API,开发团队常陷入选择困境。文章指出,2024年既是机遇也是挑战的时代,闭源模型选择丰富但性能与成本平衡复杂。通过AIbase等数据驱动平台进行客观对比至关重要。以Gemini 2.5 Flash-Lite和DeepSeek-V3为例,前者综合能力强适合多语言场景,后者在代码生成和成本控制上优势明显。建议开发者明确需求,通过实际测试验证模型表现,理性选择最适合的方案。

  • Google Gemini vs Deepseek:谁更适合你的业务场景?AI大模型选型终极对比指南

    企业在选择大模型时面临两难:国际大厂的Gemini技术先进,但国内DeepSeek性价比突出。AIbase平台通过真实场景测试数据指出:1)跨境电商客服场景中,Gemini多语言识别准确率提升12%,但需注意API延迟问题;2)金融研报分析场景下,DeepSeek支持128K长文本且成本仅为Gemini的1/3。决策关键:抛开参数迷雾,聚焦成本、响应速度、语言支持和场景匹配四大维度。AIbase提供可视化对比工具,3分钟生成专属选型报告,让技术决策不再玄学。

  • AI日报:DeepSeek V3.1正式发布;企业微信5.0推出全新AI能力;快手 Klear-Reasoner 模型成功登顶

    AI日报栏目聚焦人工智能领域最新动态。DeepSeek V3.1发布,大幅增强长文档分析和代码理解能力;企业微信5.0集成智能搜索、总结和机器人功能;快手Klear-Reasoner模型数学推理准确率超90%;谷歌Docs新增AI语音朗读功能;Firecrawl完成1450万美元融资并推出V2版本API;Meta上线AI语音翻译功能;微软Excel集成Copilot实现一键数据分析;Claude桌面客户端推动AI编程可视化;苹果Xcode将原生集成Cl

  • Leader专注做爆款:小音浪F7热水器上市就成TOP1

    Leader统帅小音浪F7热水器凭借精准语音交互功能成为行业标杆。产品搭载离/在线双模式语音系统,支持5000条离线指令和10万条在线指令,语音识别准确率高达99%,能听懂多种方言。配合QQ音乐、喜马拉雅曲库,提供丰富音乐内容。同时采用原创小白瓶净肤科技,过滤杂质预防水垢,打造健康沐浴体验。该产品上市即成为爆款,销量突破京东电热水器首发纪录,实现站内行业销量销额TOP1,重新定义智能热水器标准。

  • 甲亢哥在美国疑因涉嫌超速被捕 被戴上手铐大声喊冤“Speed只是我的名字”

    近日,千万网红甲亢哥在美国正直播时,疑因涉嫌超速被捕。 据报道,事发时,甲亢哥正在佛罗里达州直播,他被捕全程被观众目睹。 据视频画面,在被捕过程中,他被警方拦下,并戴上手铐大声喊冤称Speed只是我的名字”,期间还解释喊冤称自己并未超速,也不开车。 不过,很快就有网友质疑,这又是在炒作。 有网友发现逮捕时执法人员”也没按流程没收设备,分析逮�

  • AI日报:腾讯开源3D世界模型HunyuanWorld-Voyager;即梦AI系列模型开放API;通义推智能体开发框架AgentScope 1.0

    本文介绍了AI日报栏目,聚焦人工智能领域最新动态。主要内容包括:腾讯开源具备3D重建能力的HunyuanWorld-Voyager模型、通义实验室推出的多智能体开发框架AgentScope 1.0、即梦AI开放图像与视频生成API、腾讯翻译模型Hunyuan-MT-7B在WMT2025斩获佳绩、苹果推出图像生成技术STARFlow和视觉语言模型FastVLM、新模型CoMPaSS-FLUX.1提升空间理解能力、Cherry Studio免费提供Qwen38B模型、谷歌Gemini API新增网页内容解析功能,以及腾讯优图开源智能体框架Youtu-Agent。这些进展展现了AI技术在多个领域的创新与应用。

今日大家都在搜的词: