请问一下大伙儿, 现在“最快的” DeepSeek API 是哪家?

8 天前
 Int100

请问一下大伙儿, 现在“最快的” DeepSeek API 是哪家?

7949 次点击
所在节点    程序员
48 条回复
amlee
8 天前
together 的快,但是贵,输入输出都是 7 刀/m
pig198x
8 天前
https://fireworks.ai/ 现在用的是这家,速度还可以。groq 上有个 deepseek r1 蒸馏的 llama3 70b ,速度暴快。
Int100
8 天前
@amlee 谢谢, together 速度确实比硅基快多了. (钱包已捐 hh)

@pig198x 感谢, 这就去试试.
groq 上那个确实超快(纯粹的追求速度😂), 可惜蒸馏的 70B 效果比完整版还是差了一些.
Charon2050
8 天前
字节火山有满血版的,送 500,000 tokens ,兼容 OpenAI SDK ,响应快,但是有时候会抽风变成非推理模型
qianyeyixi
8 天前
直接用官方付费的吧 不贵 百万才 14
lujiaosama
8 天前
@qianyeyixi 打不开 API 平台, 一直处于不可用的状态
qianyeyixi
7 天前
@lujiaosama 我的 api 还能调通
INCerry
7 天前
我用的 azure 部署的 r1 ,速度挺快的,就是在美区
Int100
7 天前
@qianyeyixi 官方 api 在用着, 但是抽风时段太长了, 经常干活的时候用不了😂(被迫寻找替代
JensenQian
7 天前
黄老板的免费的 5000 速度还行
viktor123
7 天前
我在用这个 https://ppinfra.com ,在国内几个平台中算比较稳定的了。
iLoveSS
7 天前
@Int100 groq 上那个 70B 不好用吗? DS 原版的 R1 是什么尺寸的模型呀?
Int100
7 天前
@iLoveSS 完整版 671B ,差了将近十倍参数。
Alan3
7 天前
请问是平台 api 便宜还是自己在云平台部署划算? 比如楼上的推荐的平台:
大语言模型名称 上下文 Input Output
deepseek/deepseek-r1 64000 ¥ 4 /百万 tokens ¥ 16 /百万 tokens
iLoveSS
7 天前
@Int100 哦,那目前国内其他平台提供的也是完整版的 R1 吗? 好像没看到他们提及到该参数.
Int100
4 天前
@Alan3 api 便宜又方便

@iLoveSS 这要看平台的描述以及信用了. 目前用的是 Azure 的 API, 国内好像可以直接访问, token 生成速度很快.
together 的 api 有点奇怪, 一些问题的回答明显和 deepseek 官方以及 azure api 的不同, 甚至答错. 也许是用了过于激进的缓存技术? 已弃用.
bigbigeggs
3 天前
请教下 op ,我理解 deepseek 不是应该是只有 deepseek app 官网才可以使用么,就算用了 deepseek api ,那也是套一个壳,本质底层还是 deepseek 的服务器。
bigbigeggs
3 天前
@bigbigeggs 像楼上所说的 together firework 是 deepseek 是什么关系?难道是部署了 deepseek 的一些开源模型,然后使用 together 的 api 请求的是 together 的底层服务器,但是 together 的服务器部署的是 deepseek 开源的模型么?
Int100
3 天前
@bigbigeggs 你使用的是 deepseek 模型比如 R1 ,模型部署后通过 api 接口调用,官网只是给用户提供了一个 web 界面。
由于模型开源,其他商家如果部署后,同样可以提供 api 服务,选择相应模型即可。
chy5301
3 天前
有没有速度比较快的 deepseek v3 的 API 😂

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/1108888

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX