职位&公司对比
职位详情
- 福州
- 5-10年
- 本科
- 要求数据开发经验
- 数据平台开发经验
- Java
- Spark
- Flink
- 非外包类
- 数据治理经验
- 数据建模经验
岗位职责 1. 负责基于 Spark/F来自BOSS直聘link 的物联网大数据计算平台核心模块的设计、开发和运维,支撑海量数据的流式与批处理计算。 2. 优化平台计算任务的性能与资源效率,解决高并发、低延迟场景下的技术直聘瓶颈,主导调优及稳定性保障工作。 3. 参与 Hadoop 生态组件的整合与优化,包括但不限于 HDFS、YA直聘RN、Hive 等,保障数据存储与计算的可靠性。 4. 探索大数据领域新技术(如实时计算、分布式存储),结合业务需求推动平台架构演进。 任职要求 基本要求: 1. 本科及以上学历,计算机、通信、数学等相关专业,5年以上大数据平台开发经验。 2. 精通 Spark 和 Flink 框架原理,具备流批一体计算(如 Spark Structured Streaming、Flink DataStream/Table API)的实际开发与调优经验。 3. 熟悉 Apache DolphinScheduler 或类似调度系统(Airflow、Azkaban)的部署、配置。 4. 熟悉 Hadoop 生态体系,具备 HDFS/YARN/Hive 等组件的使用经验。 5. 掌握大数据性能调优方法论,熟悉 JVM、内存管理、Shuffle 优化、并行度设计等关键技术点。 6. 了解云厂商的大数据计算平台,如AWS,阿里云等的EMR。 7. 具备较强的问题排查能力,能独立解决大数据计算性能、资源调度等相关问题。 8. 良好的沟通协作能力,对技术有热情,能承担复杂系统的设计及落地压力。 加分项: 1. 熟悉 OceanBase 、ClickHouse等数据库,有大数据与数据库协同优化经验。 2. 对 Spark/Flink 源码有深入研究,具备社区贡献或定制化开发经验。
职位详情
- 福州
- 1-3年
- 本科
- Hive
- 大数据开发经验
- ETL开发经验
- 计算机相关专业
- Hbase
- Flink
岗位职责: 1.负责大数据产品研发,数据处理、ETL等平台的设计和实现; 2.负责大数据平台数据资产管理,通过数据质量kanzhun,数据血缘等方式进行数据治理; 3.负责大数据集群搭建调优、维护和升级等工作,保直聘证平台的稳定性; 4.通过团队协作kanzhun和业务部门沟通协作,完成产品开发、数据要求; 5.探索前沿大数据组件和架构,将合适的技术方案适时引入业务场景。 任职要求: 1.计算机相关专业,本科或本科以上学历,2年以上工作经验; 2.熟悉大数据相关组件,如:Hadoop、Hive、HBase、Flink、Kafka等; 3.熟悉开源调度组件,如Dolphinscbossheduler、Airflbossow等; 4.熟悉Java开发,熟悉Spring、SpringMvc、Mybatis、SpringBoot等常用开源框架技术; 5.熟悉Sql开发调优,熟悉Mysql、Doris、Clickhouse等关系型数据库和常用Nosql关系型数据库Redis、Mongodb等; 6.熟悉Linux系统常用命令,具备shell、python等脚本开发能力; 7.逻辑清晰,良好的沟通协作能力,具备良好的团队合作精神和主动意识;
技能解析
- 性能调优
- 海量数据
- 关键技术
- 分布式存储
- 内存管理
- YARN
- 系统的设计
- 数据存储
- 独立解决
- 数据计算
- 开发经验
- 平台架构
- 沟通协作能力
- 协作能力
- 好的沟通
- 沟通协作
- 良好的沟通协
数据来自CSL职业科学研究室
技能解析
- 产品开发
- 资产管理
- 数据质量
- 熟悉大数据
- 技术方案
- 数据资产管理
- 团队协作
- 合作精神
- 数据相关
- 开源框架
- 数据处理
- 关系型数据库
- 团队合作精神
- 数据产品
- 平台数据
- 团队合作
- 数据治理
- 开发能力
- 逻辑清晰
- 产品研发
- 沟通协作能力
- 协作能力
- 好的沟通
- 沟通协作
- 良好的沟通协
数据来自CSL职业科学研究室
工作时间
工作时间
公司福利
- 交通补助
- 生日福利
- 节日福利
- 高温补贴
- 通讯补贴
- 团建聚餐
- 零食下午茶
- 带薪年假
- 法定节假日三薪
- 股票期权
- 年终奖
- 定期体检
- 意外险
- 补充医疗保险
- 五险一金
公司福利
- 生日福利
- 节日福利
- 零食下午茶
- 带薪年假
- 加班补助
- 年终奖
- 定期体检
- 意外险
- 五险一金