ollama可视化配套,open-webui如何安装使用?
发布于 作者:苏南大叔 来源:程序如此灵动~
ollama
对大模型的部署和使用,主要是基于命令行的。而open-webui
则是基于ollama
扩展的一个界面管理,支持各种大型语言模型(LLM
)运行程序,包括Ollama
和OpenAI
兼容的API
。
苏南大叔的“程序如此灵动”博客,记录苏南大叔的代码编程经验总结。本文测试环境:win10
,ollama@0.5.7
,deepseek-r1:7b
,python@3.12.3
,open-webui@0.5.10
。
前文回顾
open-webui
是基于ollama
为前提的。没有安装ollama
的话,安装单独的open-webui
是没有任何意义的。安装ollama
的方法,参考如下:
同时,open-webui
是基于python
的第三方包。所以,请确认python
基础环境,是否安装完整。
安装open-webui
因为是基于python
的缘故,安装命令如下:
pip install open-webui
这个open-webui
的安装,异常繁琐漫长,需要的依赖包非常多,需要耐心等待。并不会在当前目录下留下任何痕迹,所以,在哪个目录下面安装都可以。
启动open-webui
使用下面的命令,但是首次启动的时候,依然要下载一个非常大的模型文件,导致首次启动异常漫长。
open-webui serve
正常启动后,使用8080
端口进行访问。
首次启动,需要先注册用户名密码,据说都是存储在本地的数据,所以随便输入即可。每次启动的时候,都要经历个白屏五六秒的过程,是在检查本地已经安装的ollama
模型列表。
注意实现
虽然说安装的时候,在哪里安装都可以。但是,启动的时候,最好在一个固定的位置启动。因为会需要当前目录下面的一个.webui_secret_key
文件。
模型对话
这些大模型的最基本功能,都是chat
对话,测试界面如下。
如果顶部没有列出模型列表。那么,请检查ollama list
。在windows
环境下,ollama
是个常驻于托盘区的程序。
结语
其它的open-webui
功能,暂时用不到,待议。更多ollama
相关功能文章,请参考:


