Ollama如何开启非本机访问权限?端口更换及监听
发布于 作者:苏南大叔 来源:程序如此灵动~

目前通过ollama
运行大模型,是个非常通常的操作。但是,由于这些大模型都比较消耗资源。所以,ollama
和调用api
的机器可以考虑分开部署,就是个比较常见的操作。这个时候,需要设置一个全局变量OLLAMA_HOST
,对ollama
进行调整,才能实现这个操作。否则,ollama
只能在本机上面使用。
苏南大叔的“程序如此灵动”博客,记录苏南大叔的代码编程经验总结。本文测试环境:win10
,ollama@0.6.2
,deepseek-r1:7b
。
前文回顾
ollama
的安装及如何运行deepseek-r1:7b
:
如何通过open-webui
,图形化的使用本地的ollama
:
如果是mac
系统,可以参考下面这篇文章:
OLLAMA_HOST
需要设置一个用户环境变量OLLAMA_HOST
,为0.0.0.0:11434
。(当然,也可以换个其它端口号)。
然后重启ollama
(右下角托盘区有ollama
图标)。
OLLAMA_MODELS
顺便回顾一下,如何移动大模型的本地位置。解决方案是通过OLLAMA_MODELS
环境变量来实现的。这样,就可以节约宝贵的系统盘的硬盘空间了。
结语
这里修改OLLAMA_HOST
,是为了后续配置dify
的“大模型设置”选项,而做的伏笔文章。


