拿vps跑deepseek r1
前言前排提示
static/image/smiley/default/shocked.gif
llama很吃性能的,别拿你的生产力的小鸡跑
建议内存大点的鸡上跑
1 docker安装openwebui+ollama
https://github.com/open-webui/open-webui
For CPU Only: If you're not using a GPU, use this command instead:
[*]docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
[*]复制代码
2 访问及设置
① 访问
ip:3000端口打开即可,有条件的话nginx反代下
② 设置用户名密码邮箱
https://i.imgur.com/YYnrsjR.pngimage-20250129170712679
③ 切换语言
点击右上角头像下面的settings-general,选择中文,save保存
https://i.imgur.com/0GbOotp.pngimage-20250129170809543
https://i.imgur.com/0fPh5qs.pngimage-20250129170824068
④ 添加模型
左上角选择一个模型的话可以输入你想要的模型,
我们选择7b的,输入 deepseek-r1:7b,从ollama拉取
https://i.imgur.com/nOPOWHY.pngimage-20250129171023372
下载deepseek的7b模型,小鸡的性能跑个7b还是可以的
如果没法跑的话,可以跑1.5b的deepseek-r1:1.5b
其他的模型的话这边
https://ollama.com/library/deepseek-r1
3 闲言碎语
本人用签名探针上的家里云。配置为5600+32G内存跑的
占用的话大概cpu在50%左右,内存吃到10G
我的cpu的话跑分gb5单核1675多,多核8934,你可以参考下自己跑着玩
https://i.imgur.com/cpzRGgs.pngimage-20241110200910735
7.5b的效果其实不怎么样,你们跑了就知道了
https://i.imgur.com/IsaW10B.png
其实还不如自己直接调用api来的合适
跑api的话可以参考我这个帖子
https://qklg.net/post/20250127/
有条件上显卡跑,而且显存至少16G的,这种纯cpu跑的是玩具
隔壁老哥拿12400跑72b的https://linux.do/t/topic/397701/20
半小时才能回答一次,隔壁老哥cpu当一回时代先锋
1.5g 内存能跑吗 api那么便宜,真不如直接用api了啊 绑定
totti5116 发表于 2025-1-29 17:27
1.5g 内存能跑吗
有个1.5b的模型,大小1.1G,估计1.5G十分勉强能够用,
不如API。10块钱没有高需求按照现在的价格能对话一年了。。
jhsyue 发表于 2025-1-29 17:30
api那么便宜,真不如直接用api了啊
主要是拿来当玩具用
totti5116 发表于 2025-1-29 17:27
1.5g 内存能跑吗
1.5b也许可以
但是效果真不行,调用api完事了
api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建
人穷器短 发表于 2025-1-29 17:33
api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建
是的
我赞同你
这其实就是个玩具 牛逼啊。开搞
还有更厉害的模型吗,100刀独服左右能带得动那种
页:
[1]