请问一下大伙儿, 现在“最快的” DeepSeek API 是哪家?
![]() |
1
amlee 8 天前 ![]() together 的快,但是贵,输入输出都是 7 刀/m
|
2
pig198x 8 天前 ![]() https://fireworks.ai/ 现在用的是这家,速度还可以。groq 上有个 deepseek r1 蒸馏的 llama3 70b ,速度暴快。
|
![]() |
3
Int100 OP |
![]() |
4
Charon2050 8 天前
字节火山有满血版的,送 500,000 tokens ,兼容 OpenAI SDK ,响应快,但是有时候会抽风变成非推理模型
|
5
qianyeyixi 7 天前
直接用官方付费的吧 不贵 百万才 14
|
![]() |
6
lujiaosama 7 天前
@qianyeyixi 打不开 API 平台, 一直处于不可用的状态
|
7
qianyeyixi 7 天前
@lujiaosama 我的 api 还能调通
|
8
INCerry 7 天前
我用的 azure 部署的 r1 ,速度挺快的,就是在美区
|
![]() |
9
Int100 OP @qianyeyixi 官方 api 在用着, 但是抽风时段太长了, 经常干活的时候用不了😂(被迫寻找替代
|
![]() |
10
JensenQian 7 天前
黄老板的免费的 5000 速度还行
|
![]() |
11
viktor123 7 天前 ![]() 我在用这个 https://ppinfra.com ,在国内几个平台中算比较稳定的了。
|
14
Alan3 7 天前
请问是平台 api 便宜还是自己在云平台部署划算? 比如楼上的推荐的平台:
大语言模型名称 上下文 Input Output deepseek/deepseek-r1 64000 ¥ 4 /百万 tokens ¥ 16 /百万 tokens |
![]() |
16
Int100 OP |
17
bigbigeggs 3 天前
请教下 op ,我理解 deepseek 不是应该是只有 deepseek app 官网才可以使用么,就算用了 deepseek api ,那也是套一个壳,本质底层还是 deepseek 的服务器。
|
18
bigbigeggs 3 天前
@bigbigeggs 像楼上所说的 together firework 是 deepseek 是什么关系?难道是部署了 deepseek 的一些开源模型,然后使用 together 的 api 请求的是 together 的底层服务器,但是 together 的服务器部署的是 deepseek 开源的模型么?
|
![]() |
19
Int100 OP ![]() @bigbigeggs 你使用的是 deepseek 模型比如 R1 ,模型部署后通过 api 接口调用,官网只是给用户提供了一个 web 界面。
由于模型开源,其他商家如果部署后,同样可以提供 api 服务,选择相应模型即可。 |
![]() |
20
chy5301 3 天前
有没有速度比较快的 deepseek v3 的 API 😂
|
22
bigbigeggs 2 天前
@Int100 感谢,由于 R1/V3 模型开源,所以 together 、fireworks 这种才能提供 deepseek 的模型,如果不开源也就是提供不了了,是这么意思吧
|
23
bigbigeggs 2 天前
那么我如果有一个很强的机器,我也是可以部署复现 R1 这种模型的对吧
|
24
NeedforV2 2 天前
硅基流动的也还可以: https://siliconflow.cn/zh-cn/
|
![]() |
26
tycholiu 2 天前
https://ppinfra.com 这个不错,是国内首个支持 DS 的云厂商
|
![]() |
27
jianyang 2 天前
为什么三方搭建的 DeepSeek 模型让它介绍一下自己都回复说自己是 ChatGPT ,而官网版本回复是 DeepSeek
|
![]() |
28
dong706 2 天前
@NeedforV2 硅基流动的 api 完全不行啊.......测试了大半天,单词调用返回时间到 10 秒-100 秒之间,均值大概在 30 秒。这样的 api 确定能用?
|
29
sayhello2world 2 天前 via iPhone
你们的 deepseek api 都是在哪个 APP 上调用? ios 上有好的 app 吗
|
![]() |
30
Int100 OP @sayhello2world 用的 openwebui 自建的网页做前端
|
![]() |
32
jianyang 1 天前
@zololiu R1 模型好一些、V3 模型都是回复自己是 ChatGPT 、官方版本最早也是这个问题不久就修复了、不知道这些三方搭建的是旧模型还是与实际模型不符、实则是小模型
|
34
spritecn 1 天前
阿里,阿里,阿里!!!
|
36
chenbin36255 1 天前
poe cursor 最快
|
38
ggbbddjm 1 天前
派欧算力云!! 吹爆!! 5000 万 Token 赠送使用量,我们个人用户差不多可以用一年~我的推荐码 [LF0W2T ] 哈哈哈哈
|
39
ggbbddjm 1 天前
@sayhello2world 我调用的是 派欧算力云的,目前感觉还比较稳定,挺快的
|
40
chenluo0429 1 天前 via Android ![]() 个人目前体验了官方,硅基流动,字节火山和阿里百炼。目前主用字节的 deepseek 加阿里的 qwen 。
官方的无疑质量最差,api 毫无人权。 硅基流动的 R1 体验上我感觉是最快的,前提是用 Pro ,就是不能用赠币的那个。字节稍慢一点,不过差距特别明显,阿里的明显比前两者更慢一些。 但是硅基流动有个问题,就是 R1 输出过长会中断,思考到五六千 token 就直接停了,所以被我弃用了。 字节的 V3 最快,几乎是其他服务的速度的 1.5 到 2 倍,他要不是写了满血,我都以为的蒸馏的 70B 了。硅基流动略好于阿里。但是字节的 V3 不支持 function call 。 阿里的 qwen 也都还不错,速度也还行。 硅基流动还有个问题,tpm 给的很低,只有 10000 ,多人使用容易达到上限,其他两个就给的很多。 |
41
INCerry 21 小时 17 分钟前
@gggalen 现在用 azure 的人变多了,越来越卡了,似乎 azure 也没有投入更多的资源来优化。我现在换 nvidia 的 deepseek api 了,超级快~
|
42
kakakakaka8889 19 小时 40 分钟前
@ggbbddjm #38 这代金券没法用啊,充值也没有代金券选项
|
![]() |
43
Neytoph 19 小时 39 分钟前
|
44
tiandee 19 小时 10 分钟前
@chenluo0429 感谢大佬分享使用体验,我试试火山的
|
45
ggbbddjm 17 小时 18 分钟前
@kakakakaka8889 直接点那个奖励金额旁边的 [去使用]
|