免费注册
帮助文档(华北一、二)

  • 节点配额总量: 最多可创建的节点数量。如需更大配额,可联系客户经理或技术支持申请开通。

    Master节点: 管理节点,负责协调整个集群服务。一个集群中有且仅有两个管理节点,一主一备,保证高可用。

    除了基础服务(如Hadoop、Hive、HBase)的管理端部署在Master上外,一些插件(如Hue、Oozie、Sqoop2、Airflow)也会安装于Master节点上,因此,如若安装大量插件服务,Master节点配置建议高于C1-2xlarge。

    Core节点: 核心节点,用于存储数据与运行任务。由于核心节点用于存储数据,因此数量须大于等于2(默认集群文件副本数配置为3),您可以根据业务需求添加更多的核心节点。

    ● 不同磁盘类型配置选择建议

    第一参考是数据量,数据量按照您需求的业务数据量*3计算(HDFS默认将文件存储3份拷贝,来保证高可用)。

    若数据量超过6T后,推荐使用密集存储系列节点(密集存储系列采用SATA硬盘,更适合海量数据的存储)。

    若对磁盘性能和存储量都有需求,可使用物理机。

    ● 不同CPU、MEM机型的选择

    CPU、MEM的选择可按照计算复杂度与数据读写的频度,如果计算不是很复杂,小配置即可,如果复杂度较高,建议4核以上机型。

    Spark对内存需求较大,建议选择12G MEM以上的机型。

    Task节点: 任务节点,用于执行任务。任务节点不存储数据,您可以在集群运行期间动态进行添加和删除。

    Task节点一般用于对整个集群CPU、MEM资源的补充,适合一些需大量消耗计算资源的任务,如若无法确定业务需求,可先不配置Task节点,后续根据需求再添加。

    Task所有节点机型配置需保存一致,如若需要升降级,可先删除完所有Task节点,再次添加Task节点时,Console端允许您重新选择机型。

    了解各节点配置详情,请参考产品价格页。


文档是否已解决您的问题?

  已解决   未解决

如您有其它疑问,您也可以与我们技术专家联系探讨。

联系技术专家