通过自己筛选过的文档强化一下本地模型,加上 Cursor 是不是就是目前最好的 AI 辅助方式?
1
Chism 5 天前 via iPhone
多大的模型?什么配置的电脑可以跑?
|
4
bybyte 5 天前
官网 api 也是白菜价
|
5
roygong 4 天前 via iPhone
现在 DeepSeek API 在 cursor 部署的话好像没法解锁所有功能,还得开 cursor 的会员
|
6
SenLief 4 天前
直接跑 api ,都已经用 deepseek 就没必要用 cursor ,直接 vs 插件或者 copilot
|
7
hongjic93 4 天前 1
你这本地能跑的都是拿 r1 蒸馏的 qwen 之类的小模型吧,本地怎么可能能跑 v3 和 r1 。
|
9
asuraa 4 天前
这么便宜的 api ,用不着自己跑吧,我这 10 块钱用了一个礼拜了,直接就 Roo Cline 插件就完事,
|
10
esee 4 天前
本地跑的电费估计都比 api 贵了
|
11
saobilin 4 天前
7900xtx 带 32b 轻松 带不动 70b 本地运行的成本其实还是有点高的
|
12
amlee 4 天前 via Android
api 白菜价了呀,本地跑不满血的 r1 ,图啥呢,隐私要求那么高?
|
13
iorilu 4 天前
都白菜价了, 直接 api 得了, 除非企业内部, 可能有自己部署的需求
|
14
GeekGao 4 天前
32b 的模型依然渣渣 ,建议不要问,亲自租一台 GPU server 部署试一试。
|
15
ShadowPower 3 天前
我试了 R1 蒸馏出来的 Qwen 32B 模型,看 benchmark 感觉不错,然而实际用起来和原版 R1 差很多
|
16
windyboy OP deepseek 的意义实际上就是可以摆脱云端的服务,本地运行一个能力不错的模型,并且保有私有的数据
|
18
ypliang9 3 天前 via Android
q4 量化且是蒸馏 r1 知识微调的 qwen 才是你手上用的模型。这和本体效果差忒多了。
|
19
jiangbingo 2 天前
cline+deepseek v3 用了一个月,没有人提到在编程方面,大概十次基于文件夹方面的问答就会卡顿吗?
|
20
RoccoShi 2 天前
本地的模型都是💩
|
21
user8341 2 天前
本地模型最终肯定会成功的。十年后可能 1T 显存也是白菜价。
|
23
sharpy 1 天前
希望再过半年,本地的 20~32b 模型能达现在 ds 的能力,那本地就足够了
|
24
crackidz 1 天前
哪怕是 R1 Zero ,比 API 的质量都差... 不如直接跑 API
只是有些狗逼天天 DDOS 服务器 |
25
MoTao 1 天前
本地笔记本 4060 试了 8b ,一天后劝退,还是充点元子用 API 吧 :(((
|
26
wsbqdyhm 1 天前
mac m1max 64g, 跑 32b 很轻松,跑 70b 速度我也能接受,强很多。就是叫写小 h 文不给力,审核很严格
|
28
kjstart 1 天前
deepseek 怎么才能交上钱啊? 现在 https://platform.deepseek.com/都打不开...
|
29
fbqk2008 1 天前
我想给全硬盘做一个这种功能,有可能吗?
|
31
windyboy OP 如果生成式的 AI 都掌握在巨头手里,运行在一般用户买不起的硬件上,这个世界不知道会堕落成什么样。
R1 无疑给了大家一只强心针,告诉我们大可不必,一场开源的胜利 相信以后会有本地可以运行切能力越来越强的模型出现 |
32
Tink 1 天前
开发环境无法连接互联网吗
|
33
whileFalse 1 天前
@sharpy 到时候你又看着新模型眼馋了。gpt3.5 刚出的时候多风光,现在还不是牛夫人
|
34
whileFalse 1 天前
@windyboy 大哥 R1 的硬件你也买不起啊人家原始模型 600 多 B
|
35
windyboy OP |
36
kennylam777 11 小时 8 分钟前 via Android
@windyboy 可以是可以,但 4tps 只有實驗用途,驗證也做不到,更不能作為生產力
|