Ollma本地部署Qwen2.5 14B(不使用docker)

部署机器硬件情况:
内存 :32GB
显卡 :3060

为什么不使用docker:
1.网上教程大多以docker为主
2.安装docker的时间太长,在等待的时候顺便尝试一下不用docker的部署

1.安装Ollama

下载地址:https://ollama.com/
下载好之后默认安装即可。
Ollma本地部署Qwen2.5 14B(不使用docker)

Ollama常用命令

【跟docker差不多,初次安装的话这边可以忽略,先看下面的】
ollama serve # 启动ollama
ollama create # 从模型文件创建模型
ollama show # 显示模型信息
ollama run # 运行模型,会先自动下载模型
ollama pull # 从注册仓库中拉取模型
ollama push # 将模型推送到注册仓库
ollama list # 列出已下载模型
ollama ps # 列出正在运行的模型
ollama cp # 复制模型
ollama rm # 删除模型

2.下载模型

Ollama模型库类似于Docker托管镜像的Docker Hub。
链接:https://ollama.com/library/qwen2.5-coder:14b
Ollma本地部署Qwen2.5 14B(不使用docker)

复制这边的命令来拉取模型并运行。

第一次运行的时候需要下载。
Ollma本地部署Qwen2.5 14B(不使用docker)

3.启动

ollama run qwen2.5-coder:14b
正常启动大概15秒左右。
下载好之后即可运行。
可以正常对其进行提问。
Ollma本地部署Qwen2.5 14B(不使用docker)

输入/? 查看常用指令
Ollma本地部署Qwen2.5 14B(不使用docker)

4.Open-webui实现可视化

官方github界面https://github.com/open-webui/open-webui?tab=readme-ov-file
官方文档https://docs.openwebui.com/getting-started/
具体参考Quick Start 的内容:https://docs.openwebui.com/getting-started/quick-start/

0.安装anaconda并打开anaconda prompt

Ollma本地部署Qwen2.5 14B(不使用docker)

打开之后默认使用的环境是base
Ollma本地部署Qwen2.5 14B(不使用docker)

1.创建一个名为open-webui 的Python3.11的环境:

conda create -n open-webui python=3.11
安装好之后可以通过conda env list来查看
Ollma本地部署Qwen2.5 14B(不使用docker)

2.切换并激活到这个环境

conda activate open-webui
Ollma本地部署Qwen2.5 14B(不使用docker)

3.安装open-webui 库

pip install open-webui
花费的时间比较长,10min左右。

4.启动服务

open-webui serve
初次启动也需要花费一点时间,启动成功之后即可看到8080端口。
Ollma本地部署Qwen2.5 14B(不使用docker)

5.访问webui界面

在浏览器里输入localhost:8080 即可正常访问。
第一次登录会要求输入用户名、邮箱和密码,之后每次登录都会要求输入邮箱和密码。
Ollma本地部署Qwen2.5 14B(不使用docker)

左上角可以切换安装好的模型。
Ollma本地部署Qwen2.5 14B(不使用docker)

发表评论

相关文章