首页 > 传媒 > 关键词  > Ollama最新资讯  > 正文

详细攻略!Ollama本地部署DeepSeek,如何用贝锐花生壳远程访问?

2025-02-28 16:23 · 稿源: 站长之家用户

本篇内容将手把手带你使用Ollama+Open WebUI本地部署DeepSeek,并借助 贝锐花生壳内网穿透,轻松实现安全远程访问,让你随时随地畅享个人专属AI!

相比直接将服务部署在云端或使用端口映射进行远程访问,贝锐花生壳内网穿透不仅让远程连接更便捷,还能有效防止未经授权的用户擅自访问本地部署的Ollama,全面保障AI资源的私密性与安全性!

一键开启:Ollama + DeepSeek 模型部署

首先,进入 Ollama 官网,按照提示几步就能轻松完成安装。

安装好 Ollama 后,打开命令提示符,参考命令“ollama run deepseek-r1:1.5b”一键下载,DeepSeek-R1 模型就会开始下载安装。

这里给大家个小建议,DeepSeek-R1 提供了从 1.5B 到 671B 的多种参数选择,大家可以根据自己电脑的显存大小来挑选合适的参数,4G 显存选 1.5B、8G 选 7B、16G 选 14B,这样能保证模型运行更顺畅。

Ollama默认仅开启本机访问(无法外部或远程访问)完成上述步骤后,即可在本机通过命令行,或通过http请求实现访问,返回以下结果说明已经正常运行。

图形化交互:Docker 部署 Open WebUI

除了通过命令行与 DeepSeek 交互,我们还可以用 Open WebUI 实现更友好的图形化界面操作。不过在此之前,得先确认电脑上安装并运行了 Docker,要是还没安装,需要去 Docker 官网一键下载安装。

接下来,通过 Docker 部署 Open WebUI :

输入 “docker run -d -p 3000:8080 --add - host=host.docker.internal:host - gateway - v open - webui:/app/backend/data --name open - webui --restart always” 这条命令。如果希望通过其他方式部署,大家也可以自行查看OpenWebUl github主页的教程。

完成Open WebUl部署后,打开浏览器,浏览器通过本机IP:127.0.0.1+预设的访问端口 3000 即可打开OpenWebUl。

这时候,完善一下本地管理员账号信息,它就已经自动连接到本地的 Ollama 了,选择好模型,就能直接在本地享受图形化交互的便捷。

利用贝锐花生壳内网穿透,实现安全远程访问

无需公网IP,简单 3 步完成部署

如果想随时随地远程访问本地部署的 DeepSeek,可以利用贝锐花生壳内网穿透,简单三步即可部署,轻松实现远程访问。

首先步,先注册一个贝锐账号,然后下载并登录花生壳客户端。

第二步,进入花生壳云管理平台,填写 Open WebUI 局域网 IP 和默认端口 “3000”,并设置安全访问规则。

值得一提的是,贝锐花生壳生成的访问地址支持无需本地部署证书,一键采用HTTPS协议,可实现全程加密传输,充分保障数据的私密性和安全性。

特别是对于Open WebUI的网页界面,花生壳额外支持加密验证,筑起双重防护屏障。

第三步,完成设置后,点击保存,就会自动生成一个外网访问地址,随时随地安全访问!

整个过程简单有效,无需复杂操作,也无需依赖云服务器,即可打造专属的AI助手!

贝锐花生壳强大防护能力,保障安全远程访问

不仅如此,贝锐花生壳还提供精细化访问权限控制、爆破防护等高档功能增值服务。它可以基于时间周期、IP 地址 / 区域、浏览器 / 系统版本等条件来判断是否允许访问,自动阻止未经授权的访问请求,再也不用担心私有服务暴露在公网。

通过以上这些步骤,我们不仅成功实现了 DeepSeek 的本地私有化部署,还借助贝锐花生壳轻松解锁了远程访问,整个过程简单有效,无需复杂操作,也无需依赖云服务器,就能打造专属的 AI 助手。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 反击DeepSeek失败!Llama 4效果不好,Meta承认有问题

    今天凌晨1点半,Meta生成式AI领导者AhmadAl-Dahle在社交平台发布了一篇长文,对前天刚开源的Llama4质疑进行了官方回应。Ahmad表示,Llama4一开发完就发布了,所以,不同服务中模型质量难免会有一些差异。由于关税大战的原因,Meta的股票遭遇重创,他们也需要一个利好消息来拉升股票,现在适得其反。

  • 实锤了,Llama 4重测排名掉至32名!远不及DeepSeek和Qwen

    LMArena更新了Meta最新发布的开源大模型Llama-4-Maverick的排名,从此前的第2名,直线掉到了第32名!这也实锤了此前开发者对Meta为刷榜排名向LMArena提供了“特供版”的Llama4大模型的质疑。开源版同款Llama-4-Maverick-17B-128E-Instruct在LMArena的排名为32名,远低于Gemini2.5Pro、GPT4o、DeepSeek-V3-0324、DeepSeek-R1、Qwen2.5-Max,甚至连英伟达基于上一代Llama3.3改造的Llama-3.3-Nemotron-Super-49B-v1都不如。

  • Llama 4大模型跌落神坛:作弊刷榜、代码能力极差、和DeepSeek比就是伪开源

    被寄予厚望的美国Meta公司的最新开源大模型Llama4发布不到2天时间,口碑急转直下,被质疑为刷榜作弊实际效果差、开源条件多部署门槛高是伪开源等。大模型评测平台LMArena亲自下场发文,打脸Meta提供给平台的Llama4是“特供版”。Meta若继续在商业控制与技术开放之间摇摆,恐将在AI竞赛中进一步失去开发者支持。

  • 刚刚,Llama 4深夜开源击败DeepSeek V3!2万亿多模态巨兽抢回王座

    Llama4重磅发布了!Meta官宣开源首个原生多模态Llama4,首次采用的MoE架构,支持12种语言,首批发布一共两款:Llama4Scout:共有1090亿参数,17B活跃参数,16个专家,1000万上下Llama4Maverick:共有4000亿参数,17B活跃参数,128个专家,100万上下文另外,2万亿参数Llama4Behemoth将在未来几个月面世,288B活跃参数,16个专家。Llama4的横空出世,成为迄今为止开源最强,多模态能力最好的模型之一。L

  • DeepSeek带飞寒武纪

    寒武纪凭借AI芯片业务实现扭亏为盈,2024年首次实现上市后盈利,2025年Q1营收11.11亿元同比暴增4230%,净利润3.55亿元。这家曾连亏8年、累计亏损54亿元的"中国版英伟达",因美国对H20芯片出口管制获得市场红利,但客户集中度过高(前五大客户贡献94.63%营收)和现金流波动仍是隐忧。当前国产芯片迎来发展机遇,华为昇腾、壁仞等企业纷纷抢占市场,行业竞争日趋激烈。

  • 字节和DeepSeek争抢“天才少年”

    当年轻人还在想着怎么靠AI赚钱时,AI已经开始帮助老板提升身家了。近期胡润研究院发布的《2025胡润全球富豪榜》显示,字节跳动创始人张一鸣取代“瓶装水大王”钟睒睒,成为中国新首富。对当下的字节和张一鸣言,如果靠砸钱就能解决大模型的技术突破难题,那无疑将是一笔划算的投资。

  • DeepSeek红利耗尽后,元宝拿什么和豆包斗?

    短短60天内,中国AI原生应用下载排行榜的位次排名,就三易其主。最新情况是,截至4月15日中午,中国区苹果应用商店免费APP下载排行榜上,豆包再次超越DeepSeek,位列第二,紧随其后的DeepSeek被挤到了第三的位置,腾讯元宝则滑落到了第七名。2月13日,作为首家在C端主力产品中接入DeepSeek-R1满血版的元宝,一度趁着DeepSeek东风崛起:3月3日力压DeepSeek和豆包,首度登顶。但好景�

  • DeepSeek的极致谄媚,正在摧毁我们的判断力。

    昨天别人给我发了一个很好玩的帖子。就是如果你问DeepSeek一个问题:“北京大学和清华大学哪个更好,二选一,不需要说明理由”DeepSeek在思考了15秒之后,会给出答案。

  • AI进化论——音乐、绘画和舞蹈的DeepSeek时刻

    “昔者仓颉作书天雨粟,鬼夜哭”——人类掌握文字后,天地为之动容,因为属于人类的文明诞生了。“仓颉作书”出自西汉《淮南子》,距离人类掌握文字已经过去了千年。AI进化的答案,或许早就镌刻在人类文明的起点里。

  • 深度deepin 23.1正式发布!AI默认引擎切换至DeepSeek、修复超百项问题

    快科技4月16日消息,今天,深度操作系统宣布,deepin 23.1版本已正式发布。此版本聚焦于解决基础组件更新后的安装效率问题,大幅提升新用户安装体验,同时集成多项功能优化与问题修复,进一步优化系统使用。本次版本的重点改进包括内核优化、AI 默认引擎切换至DeepSeek、修复超百项用户反馈问题等,具体重点改进如下:硬件兼容性与内核优化:集成6.6/6.12内核更新、NVIDIA显卡驱动升级、Intel/AMD CPU微码更新,全面提升硬件支持与底层性能;核心功能增强:DDE新增智能镜像源管理、紧凑模式入口,全局搜索支持离线自然语言与AI处理能力;?