1
iloveayu 246 天前 1
k3s 单点就可以上啊,家用 NAS 搞这干啥,这不是徒增复杂度么?
|
2
cnightmare 246 天前
true nas ?
|
3
0x663 246 天前
TrueNAS 不就有个 k3s 吗
|
4
BeautifulSoap 246 天前
家里一台 NAS 装 k8s/k3s?是图啥....开几个虚拟机练手吗
|
5
zfjdif 246 天前
我的 pve 装了 3 结点 k3s ,但是纯粹是为了练手,k3s 结点的机器一般不开机
|
6
whileFalse 246 天前 via Android
单机用 docker compose 不好吗
|
7
bumblebeek 246 天前
是不是有点太重了
|
8
superchijinpeng 246 天前
完全没必要
|
9
corvofeng 246 天前
我有的, 用 zerotier+k3s 搭了集群, 顺便把之前买的 cvm 和 ec2 也集成到了集群中, 部署的时候可以用 node selector 来指定机器. 总共跑了几十个服务, 不过你真的需要吗? 这一整套太重了
|
10
anubu 246 天前
有在用,但的确复杂度太高,心智负担有点大。需要保持稳定和家人共用的服务还是切到 Docker 部署了。
用 k8s 最大的需求是 IaC 、GitOps ,所谓的基础设施和部署状态管理,这 2 个方向 k8s 的生态更好一些。自己拿来学习练手的玩具,无可无不可。 |
11
xuegy 246 天前 via iPhone
这不就是 TrueNAS scale 吗?家庭环境简单问题复杂化。用群晖那种的直接跑 docker 镜像它不香吗?
|
12
libook 246 天前
尝试搞过,后来觉得太复杂了,家用场景收益不明显,于是换回纯 Docker 了。
|
14
xinmans OP @anubu docker 太多了,而且平时自己写的也不少,搞一些自动化。nas 设备也有好几台,有的有显卡,整个部署发布起来 k3s 更加方便,代码管理,发布流程都更好。docker-compose 管理单个 docker 没问题,但是一台机器上上百个 docker 就很麻烦了,版本管理都很麻烦
|
16
ccde8259 246 天前
K8S 挺好的,从写命令行到 YAML 工程师,家用 NAS 进程管理全靠 K8S……
|
17
rockxsj 246 天前
podman-compose
|
18
lozzow 246 天前
我也觉得 k8s 更简单,管理起来更方便(相对只用 docker 来部署服务的话),比如 ingress 这些东西
|
19
Zzdex 246 天前 2
|
20
nullico 246 天前 1
曾经给你一样 k8s ,现在还是换回 docker 了,写几个 run.sh 来管理下 docker 就行了。为什么?
1. 太重了,家里用不到这么复杂的架构。越复杂的东西越容易出错,一旦出错,会花费大量的时间来处理。而且跑 k8s 对设备性能要求也不低,不信你看看你 node 空载下的负载。k3s 默认是用的 sqlite ,你要是机械盘,嘿嘿,说多了都是泪。 2. 存储问题,家里用,你搞一个 k8s/k3s, 存储是一个问题,大部分都是 nfs 吧。你试试部署一个 gitea 这种对文件系统依赖高的试试。 至于练手啥的,单独搞几个 vm 来随便折腾也能练手。反而 nas 上搞这么一套,出问题了浪费一堆精力去弄他 |
21
juzisang 246 天前
|
22
corvofeng 246 天前
@xinmans 家用服务还会在乎延时吗, 不过用 zerotier 来做底层网络 配合 k8s 的 iptables 管理 确实没那么稳定,这种时候我用 frp 配合转发来做的
|
23
juzisang 246 天前
|
24
corvofeng 246 天前
我之前也用 swarm 搞过一套 但是更熟悉 k8s 所以换成了 k3s 我觉得这一套东西要能做到半自动化的扩容 以及支持 intra as code 才算结束, 目前我就是自己去维护一套工具. 利用 ansible+github action 来做 IAC , 同时顺便也加入 cert 自动刷新 内外网域名分离的功能, 还有快捷的服务发布,和维护. 这一套做下来 应该一个小型团队都够用了, 我也逐步把一些功能也提供给朋友们来用
|
25
Navee 246 天前
太浪费资源了,不如 docker stack 或者 compose
|
26
Unboundwill 246 天前
我一直是用 Portainer 管理 docker compose 的,Portainer 可以方便地用一个管理节点,管理多台服务器,复杂度在可接受的范围内。
我也在计划切换到 kubernetes ,主要是管理 HTTPS 证书、反向代理等比较有优势。现在要手动搞反向代理、更新证书、更新 DNS 快吐了。 |
28
xinmans OP @corvofeng 我是用 terraform+gitea+gitea action 做 cicd ,基本实现了自动化发布,扩容 node 用 ansible ,可以一起交流下呀。
|
29
xinmans OP @Unboundwill 一开始是用 portainer ,他的容器搜索功能都没打通,HA 功能有限,不如 k3s 的调度方便
|
30
xinmans OP @Unboundwill 成长为 yaml 资深工程师,一切都配置化了,其实不是很复杂。问题调查确实有点麻烦。我现在出问题就一键还原到正常的备份,用 pbs 备份 pve 里的 vm node ,非常方便
|
33
juzisang 245 天前
@xinmans #32 如果是共享配置文件或者证书密钥啥的
有 docker config ,docker secret ,对应 k8s 的 configmap 、secret 。 volume 的话有也有 docker device ,我目前只用过 sshfs ,nfs ,其它的可以查查,跨机器共享 volume 我用得不多。 |
34
Garasu 245 天前
搭了一套 3 节点 kubesphere , 本来想直接用自带的 devops ,但是太重了,然后自己单独部署 jenkins 。
现在也就是还在玩着用,没敢全上,方便是方便些,但是确实太重了,存储还是用的 nfs.... 创个群吧,看看其他佬们都怎么玩的。 |
36
corvofeng 245 天前
@xinmans 这个方案和我差不多吧, ansible 也是我的核心驱动, 初始化和扩容 node, 还有服务器证书刷新, 服务部署, 也是走了 ansible 的不同 role
|
37
noclin 245 天前
|
38
cdlnls 245 天前
@juzisang 现在还在用 swarm 的不多了。。以前公司生产环境项目也是跑在 swarm 集群里面的,轻度使用使用是没啥问题的,swarm 用起来也是简单好理解。
|
39
cdlnls 245 天前
我感觉这个场景用 k8s 没啥必要的,但是如果是以学习使用 k8s 为目的,那怎么折腾怎么来。
|
40
wm5d8b 245 天前 via Android
k3s 莫名占用 CPU 的问题,那么多年了一直没能解决,运行几天后,就会出现一个核占用 100%的情况
|
41
sunocean 245 天前
smb+docker 能就足够了,没必要增加系统的复杂性。
|
42
raynix 184 天前
我几年前用几台旧笔记本和 kubeadm 搭建了一个 k8s 集群,对于学习和实验是很有帮助的。
|