职位&公司对比
职位详情
- 福州
- 5-10年
- 本科
- 要求数据开发经验
- 数据平台开发经验
- Java
- Spark
- Flink
- 非外包类
- 数据治理经验
- 数据建模经验
岗位职责 1. 负责基于 Spark/Flink 的物联网大数据计算平台核心模块的设计、开发和运维,支撑海量数据的流式与批处理计算。 2. 优化平台计算任务的性能与资源效率,解决高直聘并发、低延迟场景下的技术瓶颈,主导调优及稳定性保障工作。 3. 参与 Hadoop 生态组件的整合与优化,包括但不限于 HDFS、YARN、Hive 等,保障数据存储与计算的可靠性。 4. 探索大数据领域新技术(如实时计算、分来自BOSS直聘布式存储),结合业务需求推动平台架构演进。 任职要求 基本要求: 1. 本科及以上学历,计算机、通信、数学等相关专业,5年以上大数据平台开发经验。 2. 精通 Spark 和 Flink 框架原理,具备流批一体计算(如 Spark Structured Streaming、Flink DataStream/Table API)的实际开发与调优经验。 3. 熟悉 Apache DolphinScheduler 或类似调度系统(Airflow、Azkaban)的部署、配置。 4. 熟悉 Hadoop 生态体系,具备 HDFS/YARN/Hive boss等组件的使用经验。 5. 掌握大数据性能调优方法论,熟悉 JVM、内存管理、Shuffle 优化、并行度设计等关键技术点。 6. 了解云厂商的大数据计算平台,如AWS,阿里云等的EMR。 7. 具备较强的问题排查能力,能独立解决大数据计算性能、资源调度等相关问题。 8. 良好的沟通协作能力,对技术有热情,能承担复杂系统的设计及落地压力。 加分项: 1. 熟悉 OceanBase 、ClickHouse等数据库,有大数据与数据库协同优化经验。 2. 对 Spark/Flink 源码有深入研究,具备社区贡献或定制化开发经验。
职位详情
- 福州
- 不限
- 本科
- 要求数据开发经验
- 数据治理经验
- 数据平台开发经验
- Java
- Python
- Hive
- Spark
- 非外包类
岗位职责: 1、负责公司大数据项目的数据采集、预处理、分析和挖掘工作; 2、对海量数据进行清洗、整理,确保数据质量和可用性;利用大数kanzhun据技术进行数据分析和挖掘,为公司决策提供数据支持; 3、熟练运用爬虫技术,同时收集和整理互联网上的相关数据; 4、掌握RPA(机器人流程自动化)技术,优化业务流程,提高工作效率。 任职资格: 1、本科及以上学历,计算机、统计学、数据科学等相关专业; 2、熟悉大数据生态系统,如Hadoop、Spark、Hive等; 3、了解RPA原理,有来自BOSS直聘UiPath、Automation Anywhere等RPA工具使用经验直聘者优先;有大数据项目实践经验者优先。 4、具备良好的逻辑思维能力、沟通协调能力和团队合作精神; 5、精通数据预处理技术,包括数据清洗、数据转换、数据合并等; 熟练掌握至少一种编程语言(如Python、Java等),具备良好的编程习惯; 6、具备较强的爬虫技能,熟悉Scrapy、Beautiful来自BOSS直聘Soup等爬虫框架;
技能解析
- 性能调优
- 关键技术
- 分布式存储
- 内存管理
- YARN
- 系统的设计
- 沟通协作
- 数据存储
- 沟通协作能力
- 协作能力
- 独立解决
- 数据计算
- 开发经验
- 好的沟通
- 平台架构
- 良好的沟通协
- 海量数据
数据来自CSL职业科学研究室
技能解析
- 良好的逻辑
- 数据质量
- 熟悉大数据
- 数据分析和挖掘
- 编程语言
- 工具使用
- 数据分析
- 数据科学
- 合作精神
- 逻辑思维
- 良好的逻辑思维
- 编程习惯
- 良好的逻辑思维能力
- 团队合作精神
- 进行数据分析
- 提供数据支持
- 沟通协调
- 逻辑思维能力
- 团队合作
- 数据支持
- 协调能力
- 数据清洗
- 数据技术
- 沟通协调能力
- 数据采集
- 海量数据
数据来自CSL职业科学研究室
工作时间
工作时间
公司福利
- 交通补助
- 生日福利
- 节日福利
- 高温补贴
- 通讯补贴
- 团建聚餐
- 零食下午茶
- 带薪年假
- 法定节假日三薪
- 股票期权
- 年终奖
- 定期体检
- 意外险
- 补充医疗保险
- 五险一金
公司福利
- 生日福利
- 节日福利
- 员工旅游
- 带薪年假
- 年终奖
- 意外险
- 五险一金