岗位描述
使用 Hadoop 和 Spark 技术搭建灵活的大数据处理框架,处理每天数百亿条业务数据的实时和离线计算
最大化 Kafka 数据流的吞吐能力
构建查询灵活的数据仓库
定义和推广数据处理的最佳实践
规划数据平台的长期演进
职位要求
5 年以上分布式后台服务开发经验
精通 Java , Scala, Python 其中一种或者多种语言
高性能、高可用的大型分布式系统设计和开发经验
熟悉新一代的大数据软件和平台,包括 Hadoop, HBase, Hive, Kafka, Spark, MongoDB , Kylin 等
熟悉传统的数据库和数据处理技术,包括 RDBMS, ETL, 数据仓库, BI, OLAP, OLTP
熟悉 Linux 服务器以及 Hadoop 集群的运维
熟悉常用机器学习算法可以加分
简历请投:
[email protected]
我的微信: fancyfrees