1
liprais 2020-01-04 16:39:47 +08:00 via iPhone
跑 spark 还不如装个 hadoop
存储执行一块解决了 |
2
morize OP @liprais 本来已经有一个 spark 集群了,只是查资料的时候发现 spark 新版支持了 k8s 所以才列为日后用途之一。目前规划另一个主要用途就是建 jupyterhub 给 lab 同学和老师一起用,个人顺便学习一下新技术。
|
3
ArJun 2020-01-04 16:51:07 +08:00
感觉这么多机器,性能有点过剩吧
|
4
abbottcn 2020-01-04 17:09:16 +08:00 via iPhone
你说的场景我不懂,但是用于高性能计算的集群,一般采用 NFS 方式,把存储共享给所有机器,至少其中一台机器承担 NFS 服务端,共享存储的快慢取决于存储的读写和网络带宽。 其他未涉及过,不晓得。
|
5
momocraft 2020-01-04 17:55:00 +08:00
k8s 支持不少种 volume 啊 只提这两个有什么原因吗?
|
6
xupefei 2020-01-04 18:08:07 +08:00
NFS 可以换成 HDFS,多跑几个 datanode 做负载平衡。
你甚至可以每台机器在 k8s 里面跑 HDFS datanode + Spark worker。 操作 HDFS 可以在 k8s mater 上进行,用 port-forward 把端口搞出来就可以了。 |
7
xupefei 2020-01-04 18:25:49 +08:00
另外我推荐装一个 https://rancher.com ,贼好用
|
8
morize OP @momocraft 因为刚刚才开始接触 k8s,很多东西不了解,google 到的资料都是这两种较多,我的出发点是不浪费 worker node 的硬盘空间,想找一种方法把所有的硬盘交给 master node 按需分配的方法。如果有其他的方法,我也想尝试看看。
|
10
mikumkf 2020-01-05 01:06:38 +08:00
我这边的需求的安装基于 K8S 的 OpenPAI 系统并且分配 GPU,但是没折腾好,老哥交流下?
|
11
limao693 2020-01-05 07:43:41 +08:00 via iPhone
第一反应是这些机器装个 openstack,然后就可以起任意规格的虚拟机了
|
12
lhx2008 2020-01-05 09:07:22 +08:00 via Android
NFS 不太灵活,ceph 吧,应该可以不要配备份
|
13
tyit 2020-01-05 09:08:21 +08:00 via iPhone
12=3 台 K8s Master 节点,3 台 Ceph 节点,剩余的 K8s Worker 节点?
|
14
morize OP @limao693 感谢提供思路,看了一下这个还蛮实用的,之前一直用 gcp 和 aws 的云主机,原来这种 IaaS 自己也能搞出来👍🏻
|
16
goodryb 2020-01-05 17:39:05 +08:00
如果只是跑 k8s,没必要再套一层 OpenStack,性能损耗
我理解部署 k8s 和 ceph 可以复用机器吧,ceph 主要用存储,k8s 用计算资源 |