news 2026/5/10 6:27:57

DeepSeek 部署报错 “Connection refused“?Ollama 本地服务连接失败的 3 种终极解决方案

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
DeepSeek 部署报错 “Connection refused“?Ollama 本地服务连接失败的 3 种终极解决方案

😭 前言:明明启动了,为什么连不上?

你是否遇到了这种情况:
在终端输入ollama run deepseek-r1能正常对话,但当你试图用DifyOpen WebUI或者Python 脚本调用 API 时,却报错:

Error: Connection refused
urllib3.exceptions.MaxRetryError: HTTPConnectionPool(host='localhost', port=11434)

这是因为 Ollama 默认采用了**“自闭模式”**。出于安全考虑,它默认只监听127.0.0.1(本机回环地址)。这意味着:

  1. 同一台机器的外部 IP 访问?拒接。
  2. 局域网其他电脑访问?拒接。
  3. Docker 容器(如 Open WebUI)访问宿主机?拒接。

我们需要让 Ollama “敞开心扉”。


🔍 故障诊断图

在动手前,先看一眼你的请求死在了哪里:

宿主机 (Ollama 所在机器)

请求 http://x.x.x.x:11434

放行

127.0.0.1 (默认)

192.168.x.x (局域网)

No (默认)

Yes (OLLAMA_HOST)

你的客户端 (WebUI/Python)

防火墙/代理

网卡接口

✅ 本地终端能通

❌ 监听 0.0.0.0 ?

🚫 Connection Refused

✅ 连接成功


🛠️ 方案一:最基础检查 —— 服务真的活著吗?

别笑,50% 的报错是因为你关掉了终端。
Ollama 分为“客户端”和“服务端”。当你关闭命令行窗口时,服务可能也随之关闭了。

检查方法:

  1. Windows/Mac: 检查任务栏有没有 Ollama 的小羊驼图标。
  2. Linux: 运行命令systemctl status ollama

解决:
如果你没有后台服务,请打开一个新的终端窗口,单独运行:

ollama serve

保持这个窗口不要关闭,然后再尝试连接。


🌍 方案二:进阶必杀 —— 配置OLLAMA_HOST(解决 Docker/局域网访问)

这是最核心的解决方案。我们需要设置环境变量OLLAMA_HOST=0.0.0.0,让 Ollama 监听所有网络接口。

1. Windows 用户

Windows 无法直接在终端set就完事,需要在系统层面设置。

  1. 退出 Ollama:在任务栏右键小图标 -> Quit Ollama。
  2. 设置环境变量
  • 打开“设置” -> “系统” -> “关于” -> “高级系统设置”。
  • 点击“环境变量”。
  • 在“用户变量”或“系统变量”中点击“新建”。
  • 变量名OLLAMA_HOST
  • 变量值0.0.0.0(或者0.0.0.0:11434)
  1. 重启 Ollama:重新运行 Ollama 应用程序。
2. Mac 用户

Mac 需要使用launchctl来设置服务变量。

  1. 打开终端,输入:
launchctl setenv OLLAMA_HOST"0.0.0.0"
  1. 重启 Ollama应用。
3. Linux (Systemd) 用户

如果你是用安装脚本安装的,Ollama 是作为 systemd 服务运行的。

  1. 编辑服务配置:
sudosystemctl edit ollama.service
  1. 在打开的编辑器中,添加以下内容:
[Service] Environment="OLLAMA_HOST=0.0.0.0"
  1. 保存退出,并重启服务:
sudosystemctl daemon-reloadsudosystemctl restart ollama

🛡️ 方案三:隐形杀手 —— 代理与端口冲突

如果你配置了 0.0.0.0 还是连不上,通常是以下两个“内鬼”在作祟。

1. 代理软件干扰

很多开发者开着代理软件拉模型,代码里请求localhost时,流量被代理软件拦截并转发到了代理服务器,导致连接失败。

解决:
在你的 Python 代码或环境变量中,显式通过NO_PROXY绕过本地地址。

importos# 告诉程序:访问本地及其端口,别走代理!os.environ['NO_PROXY']='localhost,127.0.0.1,0.0.0.0'# 然后再 import 其他库importrequests
2. 端口 11434 被占用

也许你启动了两个 Ollama 实例,或者其他 AI 服务占用了默认端口。

检查命令 (Windows):

netstat-ano|findstr 11434

检查命令 (Mac/Linux):

lsof-i:11434

解决:
如果发现端口被占,你可以通过设置OLLAMA_HOST换一个端口,例如:
OLLAMA_HOST=0.0.0.0:8888


🎯 总结

90% 的“Connection refused”都可以通过**方案二(设置 OLLAMA_HOST=0.0.0.0)**解决。

  • 本机玩:确保ollama serve在运行。
  • Docker/局域网玩:配置环境变量OLLAMA_HOST=0.0.0.0
  • 开了 VPN:记得配置NO_PROXY

DeepSeek 很强,别让这小小的网络门槛阻挡了你通往 AGI 的道路。

Next Step:
服务跑通了?下一步建议部署一个Open WebUI(Docker 一键部署),给你的 DeepSeek 穿上一层漂亮的 ChatGPT 风格外衣,体验直接起飞!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/2 0:09:23

临终关怀应用:病人最爱的人声由VoxCPM-1.5-TTS-WEB-UI永久保存

临终关怀中的声音传承:用AI永久保存至亲之音 在重症监护室的灯光下,一位老人轻声对孩子说“别怕,爸爸一直都在”。这句温柔的话语,或许将成为他最后的遗言。但今天,这句话不再只是记忆中模糊的回响——借助人工智能&am…

作者头像 李华
网站建设 2026/5/10 12:18:56

电商运营(浅数据看销量,大数据看趋势,深数据挖需求)

在数字化电商竞争的深水区,数据已从“辅助工具”升级为“核心竞争力”。多数运营者困于“只见销量波动,不见增长本质”,核心问题在于对数据的挖掘深度不足。真正高效的电商运营,需建立“浅-大-深”三层数据思维:浅数据…

作者头像 李华
网站建设 2026/5/3 23:17:26

导师严选10个AI论文写作软件,助本科生轻松搞定毕业论文!

导师严选10个AI论文写作软件,助本科生轻松搞定毕业论文! AI工具如何成为论文写作的得力助手 随着人工智能技术的不断进步,越来越多的AI工具被引入到学术写作领域,为本科生提供高效、便捷的支持。尤其是在论文写作过程中&#xff0…

作者头像 李华
网站建设 2026/4/28 21:00:32

CSDN官网夜间模式适配长时间阅读VoxCPM-1.5-TTS文档

VoxCPM-1.5-TTS:让技术文档“开口说话”的夜间阅读新体验 在程序员的日常中,通宵阅读 CSDN 上一篇万字长文、反复研读某框架源码解析或啃下一份晦涩的技术白皮书,并不罕见。然而,长时间盯着屏幕带来的视觉疲劳,往往让人…

作者头像 李华
网站建设 2026/4/27 4:44:05

MIT License版本Sonic允许自由修改与商用

MIT License版本Sonic允许自由修改与商用 在短视频、直播电商和在线教育高速发展的今天,虚拟内容的生产效率正面临前所未有的挑战。如何以更低的成本、更快的速度生成高质量的数字人视频?传统方案依赖3D建模与动作捕捉,不仅流程繁琐&#xff…

作者头像 李华
网站建设 2026/5/6 13:47:40

uniapp+ssm医院预约挂号小程序

目录摘要项目技术支持论文大纲核心代码部分展示可定制开发之亮点部门介绍结论源码获取详细视频演示 :文章底部获取博主联系方式!同行可合作摘要 医院预约挂号小程序基于Uniapp和SSM框架开发,旨在优化传统挂号流程,提升患者就医效…

作者头像 李华