这是一个创建于 1747 天前的主题,其中的信息可能已经有所发展或是发生改变。
大数据集群开发工程师
任职要求:
本科及以上学历,计算机相关专业
- Cloudera、HDP 产品系统产品,特别 impala\kudu\clickhouse\Alluxio\Pesto\llap 等引擎之一有两年以上专攻的实际工作经验。
- 各引擎源码、机理、故障痛点的实际研究与解决经验。能够针对线上故障,快速定位源码问题并给出短期与长期方案。
- 集群保障与长期维护能力,较强的抗压与技术服务支持能力,沟通能力佳。
- 集群数仓工作经验、数据管理、权限、任务调度、指标计算、存储与计算优化、有较好的业务场景理解能力与分析能力。
- Java 或 C++开发 5 年以上经验,有平台类(如:通用组件、平台引擎)研发经验。
- 较强的一线研究、执行落地的能力,强烈自驱的技术追求,善于分享与技术文档编写能力。开源社区活跃者(如:impala 社区的 commiter 或答疑者)
后台开发工程师
任职要求:
- 计算机相关专业本科及以上学历,3 年以上 Java 开发经验,精通 java 技术,熟悉 JVM、分布式缓存、消息队列、消息中间件、RPC 框架、负载均衡等;
- 熟悉面向对象和设计模式,熟悉主流开源应用框架,如 Spring、MyBatis、SpringMVC 等应用框架并熟悉实现原理,掌握 Maven 多模块管理工程依赖、git 等代码管理工具;
- 熟悉分布式、多线程、高并发及高可用、设计、编码和调优;熟悉常用的网络通信协议原理;
- 熟练主流数据库 MySql/NoSQL 如 Redis、MongoDB,具备优秀的数据建模能力和数据库分库分表设计能;
- 责任心强,有担当,有良好的编码习惯,遵守团队开发规范和代码规范,良好的逻辑思维能力,具有很强的分析问题和解决问题的能力、团队协作能力和沟通能力。
- 熟悉 restful api 设计规范、并有相关项目经验
- 最好有企业级产品研发经验
大数据高级开发工程师
任职要求:
- 计算机或相关专业硕士及以上学历;
- 精通 Flink+kafka, Spark Streaming+kafka 开发
- 精通 Java,Scala,Python 语言等其中一种或者多种编程语言;
- 熟悉 ETL 过程,熟练使用 Hadoop(CDH) Ecosystem - HDFS,HBASE
- 有 2 年以上服务告警监控开发经验
- 具备较强的数据分析,问题分析,逻辑思维能力,良好的沟通,团队协作能力
简历投递
ZmdqdmlwQGdtYWlsLmNvbQ==