ollama可视化配套,open-webui如何安装使用?
发布于 作者:苏南大叔 来源:程序如此灵动~
ollama对大模型的部署和使用,主要是基于命令行的。而open-webui则是基于ollama扩展的一个界面管理,支持各种大型语言模型(LLM)运行程序,包括Ollama和OpenAI兼容的API。

苏南大叔的“程序如此灵动”博客,记录苏南大叔的代码编程经验总结。本文测试环境:win10,ollama@0.5.7,deepseek-r1:7b,python@3.12.3,open-webui@0.5.10。
前文回顾
open-webui是基于ollama为前提的。没有安装ollama的话,安装单独的open-webui是没有任何意义的。安装ollama的方法,参考如下:
同时,open-webui是基于python的第三方包。所以,请确认python基础环境,是否安装完整。
安装open-webui
因为是基于python的缘故,安装命令如下:
pip install open-webui这个open-webui的安装,异常繁琐漫长,需要的依赖包非常多,需要耐心等待。并不会在当前目录下留下任何痕迹,所以,在哪个目录下面安装都可以。
启动open-webui
虽然说安装的时候,在哪里安装都可以。另外,推荐在同一个位置,启动open-webui,因为它会在当前目录下寻找配置.webui_secret_key文件。

使用下面的命令,但是首次启动的时候,依然要下载一个非常大的模型文件,导致首次启动异常漫长。
open-webui serve
正常启动后,使用8080端口进行访问。
首次启动,需要先注册用户名密码,据说都是存储在本地的数据,所以随便输入即可。每次启动的时候,都要经历个白屏五六秒的过程,是在检查本地已经安装的ollama模型列表。
模型对话
这些大模型的最基本功能,都是chat对话,测试界面如下。

如果顶部没有列出模型列表。那么,请检查ollama list。在windows环境下,ollama是个常驻于托盘区的程序。
结语
其它的open-webui功能,暂时用不到,待议。更多ollama相关功能文章,请参考: