我就纳了闷了,为啥总是看见 n 个一个环境就是一个 K8S 集群

2023-03-30 09:17:20 +08:00
 sampeng
做运维到现在 5 年多了。去一个公司以看就一个环境一个 k8s 集群。再进去看看,一个业务 namespace+一个 kube-system 。
上一个东家。20 个集群。每个集群 20-30 个 pod ,线下物理机
现在这一家。我进来的时候 15 个集群。每个集群不到 10 个 pod 。而且是云上。最近被我干掉只剩 6 个了,一个产品一个环境一个。线上和 staging 的不是太好动,得找时间找机会做迁移。

应该不是我运气背,感觉是个普遍线上。难道学 k8s 得都是不知道亲和性和节点选择器的?这是偷懒还是就是懒得学?我说我一面是基本都是 yaml enginer 。也就会写个 deployment ,svc 之类的。再问细点就一问三不知了。比如 requests 和 limit 的区别,问 10 个 9 个答不出来。。

不是,k8s 的官方文档就在那放着啊。好歹看看最基础的字段是干嘛用的吧?
6443 次点击
所在节点    Kubernetes
54 条回复
salmon5
2023-03-30 17:45:47 +08:00
当然也看有没有容器 infra 的人力投入,没有容器 infra 人力投入,怎么省事沟通成本低怎么来
Nnq
2023-03-30 19:43:58 +08:00
看你的描述,感觉之前是通过不同集群部署不同服务,降低运维风险; 集群可以按需升级,很传统,很 vm 的感觉
sampeng
2023-03-30 20:48:15 +08:00
@Nnq yes..这是正解。这两个都是之前是 vm 的机器跑服务。迁移到 k8s 还是按这个逻辑去搞
cdlnls
2023-03-30 22:03:51 +08:00
想知道你们的集群一般几个机器,机器的配置是怎么样的,pod 的内存和 cpu 一般是根据什么原则分配的? 资源的利用率能达到多少?
xabcstack
2023-03-30 22:19:27 +08:00
什么能力的人搭配什么公司的技术,没毛病
saltbo
2023-03-30 23:06:14 +08:00
你这都不算啥,我司 100+个集群你敢信?
zhuantouer
2023-03-30 23:13:18 +08:00
借楼请教下,rd 想转运维,大佬们指导下路径?
LaurelHarmon
2023-03-30 23:29:51 +08:00
下次发长文前找 ChatGPT 润色一下
Nnq
2023-03-31 04:25:42 +08:00
@sampeng 那你做的很对啊,这明显的降本增效,大哥们没给发奖金么
sampeng
2023-03-31 07:48:58 +08:00
@Nnq 有啊,中午吃饭加个鸡腿


@LaurelHarmon 确实是随性而写,我自己都没读通顺…


@saltbo 我草…除非有完善的运维平台,控制面和遥测体系。运维噩梦🤔
sampeng
2023-03-31 07:51:10 +08:00
@zhuantouer 借楼回复,别了。大环境并不好。
Aumujun
2023-03-31 11:01:00 +08:00
最近也因为 requests 和 limits 吃了个大亏,一个开源的区块节点,资源推荐 16C 16G ,然而我 requests 和 limits 按照这个配置后,导致整个服务器 load 直接飙到 600 多(物理机 64C ,256G ),机器直接 hang 住卡死。后面放开 CPU 的 limits 和 requests 就没事了。
leopod1995
2023-03-31 18:02:33 +08:00
@Aumujun 为什么放开就能没事? 能详细讲讲吗
Aumujun
2023-04-02 10:48:38 +08:00
@leopod1995 我怀疑是程序需要大量使用 CPU ,但被限制导致等待 CPU 的任务越来越多,然后 load 越来越大,最后 hang 死服务器;当然这只是我的猜测,但放开 cpu 后确实没有再出现,已经观察有四天了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://tanronggui.xyz/t/928362

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX