我们相信:世界是美好的,你是我也是。平行空间的世界里面,不同版本的生活也在继续...

ollama对大模型的部署和使用,主要是基于命令行的。而open-webui则是基于ollama扩展的一个界面管理,支持各种大型语言模型(LLM)运行程序,包括OllamaOpenAI兼容的API

苏南大叔:ollama可视化配套,open-webui如何安装使用? - ollama-open-webui
ollama可视化配套,open-webui如何安装使用?(图4-1)

苏南大叔的“程序如此灵动”博客,记录苏南大叔的代码编程经验总结。本文测试环境:win10ollama@0.5.7deepseek-r1:7bpython@3.12.3open-webui@0.5.10

前文回顾

open-webui是基于ollama为前提的。没有安装ollama的话,安装单独的open-webui是没有任何意义的。安装ollama的方法,参考如下:

同时,open-webui是基于python的第三方包。所以,请确认python基础环境,是否安装完整。

安装open-webui

因为是基于python的缘故,安装命令如下:

pip install open-webui

这个open-webui的安装,异常繁琐漫长,需要的依赖包非常多,需要耐心等待。并不会在当前目录下留下任何痕迹,所以,在哪个目录下面安装都可以。

启动open-webui

使用下面的命令,但是首次启动的时候,依然要下载一个非常大的模型文件,导致首次启动异常漫长。

open-webui serve

苏南大叔:ollama可视化配套,open-webui如何安装使用? - open-weui-首次启动2
ollama可视化配套,open-webui如何安装使用?(图4-2)

正常启动后,使用8080端口进行访问。

首次启动,需要先注册用户名密码,据说都是存储在本地的数据,所以随便输入即可。每次启动的时候,都要经历个白屏五六秒的过程,是在检查本地已经安装的ollama模型列表。

注意实现

虽然说安装的时候,在哪里安装都可以。但是,启动的时候,最好在一个固定的位置启动。因为会需要当前目录下面的一个.webui_secret_key文件。

苏南大叔:ollama可视化配套,open-webui如何安装使用? - 目录serve
ollama可视化配套,open-webui如何安装使用?(图4-3)

模型对话

这些大模型的最基本功能,都是chat对话,测试界面如下。

苏南大叔:ollama可视化配套,open-webui如何安装使用? - open-webui-chat
ollama可视化配套,open-webui如何安装使用?(图4-4)

如果顶部没有列出模型列表。那么,请检查ollama list。在windows环境下,ollama是个常驻于托盘区的程序。

结语

其它的open-webui功能,暂时用不到,待议。更多ollama相关功能文章,请参考:

如果本文对您有帮助,或者节约了您的时间,欢迎打赏瓶饮料,建立下友谊关系。
本博客不欢迎:各种镜像采集行为。请尊重原创文章内容,转载请保留作者链接。

 【福利】 腾讯云最新爆款活动!1核2G云服务器首年50元!

 【源码】本文代码片段及相关软件,请点此获取更多信息

 【绝密】秘籍文章入口,仅传授于有缘之人   ollama