V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  reeco  ›  全部回复第 2 页 / 共 57 页
回复总数  1132
1  2  3  4  5  6  7  8  9  10 ... 57  
117 天前
回复了 bthulu 创建的主题 程序员 有什么数据库扛断电能力最强吗?
服务装在笔记本上不就完事了吗
这两个都是半天就入门了,花个 1 天时间全部学下不就好了
你这硬件就装个 10 年前的 Debian 吧
320 天前
回复了 looo 创建的主题 Java 开发 Java 项目 Gradle 一定比 Maven 好么?
没有条件编译,交叉编译等需求的,直接 maven 就好了
346 天前
回复了 laters 创建的主题 程序员 有没有什么思路可以实现自动配置开发环境
nixos
加个冷数据归档功能就好了
2024-03-14 11:28:05 +08:00
回复了 1800ml 创建的主题 Apple 有 Mac、Win 双修的老哥吗 关于快捷键适应问题
Windows ,mac ,Linux 三修都没什么压力
2024-03-13 20:58:59 +08:00
回复了 ryncomaekawa 创建的主题 程序员 国产编程语言 MoonBit 的标准库开源
```
/// Iterates over each element.
///
/// # Arguments
///
/// - `self`: The array to iterate over.
/// - `f`: The function to apply to each element.
///
/// # Example
///
/// ```
/// [1, 2, 3, 4, 5].iter(fn(x){ print("\(x) ") }) //output: 1 2 3 4 5
/// ```
pub fn iter[T](self : Array[T], f : (T) -> Unit) {
let mut i = 0
while i < self.length() {
f(self[i])
i = i + 1
}
}
```

rust 味太重了吧
2024-03-10 00:46:10 +08:00
回复了 movq 创建的主题 程序员 转 React 还是继续 Java
这两个东西全学也没啥难度
2024-03-08 10:14:58 +08:00
回复了 suqiuluck 创建的主题 Windows AI 需求,主机配置推荐, 2024 年准备 all in AI
不如你用这预算租 GPU 用用
2024-03-07 15:07:27 +08:00
回复了 SSSSeven 创建的主题 职场话题 应届生是先就业再择业 OR 先择业再就业
这两个都是死路一条,还不如开发
2024-03-04 21:02:45 +08:00
回复了 bddxg 创建的主题 Linux 想转 manjaro 但是有几个问题困扰着我
输入法推荐用 https://github.com/iDvel/rime-ice ,就在 aur 里,词库更新还算频繁
要补 3w
2024-02-29 11:22:21 +08:00
回复了 lemoon 创建的主题 Local LLM 如何系统的深入 LLM?求资源
langchain ,ollama 都是应用层的东西,如果你要深入理解 LLM ,看这两个都没啥用,因为这两个本质上就是调 api 。
要系统得了解 LLM ,还是老老实实从理论开始看起,比如最基本的 《 attention is all you need 》,理解了它你才能看懂 transformer 的模型结构以及推理的代码。有了理论基础后再选个方向深入研究,比如推理部署,模型的结构设计,模型训练微调。现在代码资源很丰富的,没有理论基础,看起来会非常吃力。
2024-02-23 11:29:53 +08:00
回复了 Jinnrry 创建的主题 Local LLM Google Gemma 开源没人讨论下吗?
效果不行,试了几个问题就没兴趣了
2024-02-21 11:12:22 +08:00
回复了 CivAx 创建的主题 程序员 各位的家用服务器是 EXSi + OS 还是直接装 OS
debian + docker 纯手动
2024-02-18 11:20:13 +08:00
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
@wclebb 能跑,7b 量化到 2bit ,iPhone 15 Pro 上就能跑了,但没什么用,模型上限太低了
2024-02-18 10:51:48 +08:00
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
@ShadowPower 在我的 7950x 上面,llama.cpp avx512 有大约 10%到 20%的提升
2024-02-18 10:14:16 +08:00
回复了 wxd21020 创建的主题 Local LLM 配置小主机跑大模型
纯 cpu 跑买一块支持 avx512 的 cpu 加 32G 内存,跑跑量化 7b 的也还行。用 gpu 你那块 3060ti 跑 7b 也完全够了,单独配其实也可以考虑 amd rocm ,便宜大碗。但目前这块需求其实没那么强,跑起来新鲜劲一过,容易吃灰。
自己编译一下 llama.cpp ,一样的效果
1  2  3  4  5  6  7  8  9  10 ... 57  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2840 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 09:57 · PVG 17:57 · LAX 02:57 · JFK 05:57
Developed with CodeLauncher
♥ Do have faith in what you're doing.