1
F281M6Dh8DXpD1g2 2020 年 1 月 4 日 via iPhone
跑 spark 还不如装个 hadoop
存储执行一块解决了 |
2
morize OP @liprais 本来已经有一个 spark 集群了,只是查资料的时候发现 spark 新版支持了 k8s 所以才列为日后用途之一。目前规划另一个主要用途就是建 jupyterhub 给 lab 同学和老师一起用,个人顺便学习一下新技术。
|
3
ArJun 2020 年 1 月 4 日
感觉这么多机器,性能有点过剩吧
|
4
abbottcn 2020 年 1 月 4 日 via iPhone
你说的场景我不懂,但是用于高性能计算的集群,一般采用 NFS 方式,把存储共享给所有机器,至少其中一台机器承担 NFS 服务端,共享存储的快慢取决于存储的读写和网络带宽。 其他未涉及过,不晓得。
|
5
momocraft 2020 年 1 月 4 日
k8s 支持不少种 volume 啊 只提这两个有什么原因吗?
|
6
xupefei 2020 年 1 月 4 日
NFS 可以换成 HDFS,多跑几个 datanode 做负载平衡。
你甚至可以每台机器在 k8s 里面跑 HDFS datanode + Spark worker。 操作 HDFS 可以在 k8s mater 上进行,用 port-forward 把端口搞出来就可以了。 |
7
xupefei 2020 年 1 月 4 日
另外我推荐装一个 https://rancher.com ,贼好用
|
8
morize OP @momocraft 因为刚刚才开始接触 k8s,很多东西不了解,google 到的资料都是这两种较多,我的出发点是不浪费 worker node 的硬盘空间,想找一种方法把所有的硬盘交给 master node 按需分配的方法。如果有其他的方法,我也想尝试看看。
|
10
mikumkf 2020 年 1 月 5 日
我这边的需求的安装基于 K8S 的 OpenPAI 系统并且分配 GPU,但是没折腾好,老哥交流下?
|
11
limao693 2020 年 1 月 5 日 via iPhone
第一反应是这些机器装个 openstack,然后就可以起任意规格的虚拟机了
|
12
lhx2008 2020 年 1 月 5 日 via Android
NFS 不太灵活,ceph 吧,应该可以不要配备份
|
13
tyit 2020 年 1 月 5 日 via iPhone
12=3 台 K8s Master 节点,3 台 Ceph 节点,剩余的 K8s Worker 节点?
|
16
goodryb 2020 年 1 月 5 日
如果只是跑 k8s,没必要再套一层 OpenStack,性能损耗
我理解部署 k8s 和 ceph 可以复用机器吧,ceph 主要用存储,k8s 用计算资源 |