V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  beginor  ›  全部回复第 2 页 / 共 117 页
回复总数  2330
1  2  3  4  5  6  7  8  9  10 ... 117  
楼上推荐的这些真的会更好么,手撸 SQL 开发效率更高?
48 天前
回复了 beginor 创建的主题 macOS Switch 模拟器 Ryujinx 在 Mac M1 上的体验
@chuugoku 那就别玩模拟器了,我也不知道在哪里下载游戏资源
@chikai 做代码提示还是挺有用的,显卡强的话可以跑一个 8b 的 coder 模型
继续用 continue + 本地模型,现在是推荐的模型是 qwen 2.5 coder 1.5b
Proxifier 一直在用,没啥问题。 系统更新了,Proxifier 也要装新版本才行
要说 Jetbrains 系列的 IDE 对 SQL 的智能提示是无敌的,这个应该都赞同吧?

连接数据库之后, 不管是独立的 SQL 文件, 还是嵌入在其它语言的 SQL 语句, 都有非常棒的只能提示!
54 天前
回复了 Aimirr 创建的主题 MacBook Pro 关于 MacBook Pro 使用 VNC 远程的疑惑
别吹 ARD , 其实就是 VNC , 远程的话效果很差
56 天前
回复了 dilidilid 创建的主题 macOS MacOS Sequoia 支持把 photo library 放到 NAS 上了
OneDrive 路过
59 天前
回复了 moyuman 创建的主题 程序员 最“流畅”的终端模拟器是什么?
warp +1 , 目前支持 Linux + Mac , 不过官方说 Win 也在路上了。

在 JetBrains IDE 2024.3 中的“新终端” 就是复制了 warp
59 天前
回复了 Livid 创建的主题 Local LLM Llama 3.3 70B
如果用 LM Studio 运行 mlx 版本的 [Llama-3.3-70B-Instruct-4bit]( https://huggingface.co/mlx-community/Llama-3.3-70B-Instruct-4bit) 可以稍微快一点点,5.x tokens / 秒。
59 天前
回复了 Livid 创建的主题 Local LLM Llama 3.3 70B
M1 Max 64G 用户, 在 `/etc/sysctl.conf` 文件中添加选项 `iogpu.wired_limit_mb=57344` ,这样最多可以分配 56G 内存给显卡用。

用 llama.cpp 可以运行 `llama-3.3-70b-instruct.q4_k_m.gguf` ,不过要限制一下上下文大小,不然还是内存不够, 生成速度大概是 4 token / second 。

```
main: server is listening on http://127.0.0.1:8080 - starting the main loop
srv update_slots: all slots are idle
slot launch_slot_: id 0 | task 0 | processing task
slot update_slots: id 0 | task 0 | new prompt, n_ctx_slot = 4096, n_keep = 0, n_prompt_tokens = 26
slot update_slots: id 0 | task 0 | kv cache rm [0, end)
slot update_slots: id 0 | task 0 | prompt processing progress, n_past = 26, n_tokens = 26, progress = 1.000000
slot update_slots: id 0 | task 0 | prompt done, n_past = 26, n_tokens = 26
slot release: id 0 | task 0 | stop processing: n_past = 354, truncated = 0
slot print_timing: id 0 | task 0 |
prompt eval time = 2035.41 ms / 26 tokens ( 78.29 ms per token, 12.77 tokens per second)
eval time = 79112.92 ms / 329 tokens ( 240.46 ms per token, 4.16 tokens per second)
total time = 81148.33 ms / 355 tokens
srv update_slots: all slots are idle
request: POST /v1/chat/completions 127.0.0.1 200
```
怎么忘了这个,play cover 玩原神 , 还有好多 iOS 游戏
本地跑大模型 llama.cpp / ollama 或者 lmstudio , 绝对是颠覆性的体验
打开 copilot 也经常会出现类似的错误
.NET 的话可以单文件发布啊,自带运行时就没有这个问题了。 如果是 C++的话,可以编译为静态依赖库, 做成绿色版
anywhere3
14 的福克斯,现在才跑了不到 6W 公里,换啥车? 刹车片都没换过,每天上下班 5 公里
72 天前
回复了 qingshui33 创建的主题 Android 红米 K80 感觉配置是真的拉满啊
想换,但是手上的 K40S 还感觉不卡顿🤔
如果你自己都不懂的事情,就不要问 AI 。 个人认为, 现阶段 AI 给人类打辅助还是可以的,自己解决不了的问题,不要太指望问下 AI 就能解决。
不是说达摩院都没了么,还有藏经阁么?
1  2  3  4  5  6  7  8  9  10 ... 117  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   936 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 42ms · UTC 22:31 · PVG 06:31 · LAX 14:31 · JFK 17:31
Developed with CodeLauncher
♥ Do have faith in what you're doing.