coefuqin 最近的时间轴更新
coefuqin

coefuqin

V2EX 第 616381 号会员,加入于 2023-02-28 17:15:35 +08:00
今日活跃度排名 6187
根据 coefuqin 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
coefuqin 最近回复了
16 小时 12 分钟前
回复了 song135711 创建的主题 Local LLM 帮忙看看这个 DIY 装机配置大模型入门怎样
思路都是错的,cpu 应该搞最便宜的 xeon 几十块搞定,然后买多 pci 主板,把资金都扑到显卡上。
1 天前
回复了 feelapi 创建的主题 Local LLM ollama 支持的一些模型测试结果
主要是你显存太少了。
1 天前
回复了 silypie 创建的主题 生活 男士一般多久理一次发比较合适呢?
4 个月,我享受飘逸的长发。
@jiejianshiwa 老弟,不要怂,就是刚。当年我是你这个年纪的时候在广州纵横披靡,怕个卵,年轻人就是冲就是闯。另外,个人经验是尽量不要给私人小老板干,有大团队尽量去大团队。因为大团队里的成本不是个人的,不会像小老板那样把钱花到刀刃上的精打细算。
老弟,北京 28 岁 6k ,还结婚了,你是我大哥。赶紧了背点八股文找下家啊。28 岁正当道,正是赚钱的时候,多面多谈,技术要多吹,工资要岗位所能给出的顶格。
中电金信?
2 天前
回复了 azev 创建的主题 问与答 大家用哪家大模型的 api?
@hkiJava int 4 24g vram 刚刚够跑,但是上下文和推理过程长点就要更多了。fp16 我还没试,估计要准备 96g vram 。
电费都够你们成本喝一壶了。
或者你把嵌入模型 改成 granite3.2-vision ,然后看看情况。
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1250 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 10ms · UTC 23:58 · PVG 07:58 · LAX 16:58 · JFK 19:58
Developed with CodeLauncher
♥ Do have faith in what you're doing.