职位&公司对比
职位详情
- 成都
- 3-5年
- 大专
- 要求数据开发经验
- 数据平台开发经验
- 数据仓库开发经验
- MySQL/SQL Server
- Hive
- Spark
- Python
- Java
- ETL开发经验
岗位职责: 1. 大数据平台基础知识:熟悉Hadoop生态系统,包括HDFS、YARN、Hive、Spark、Trino、Kudu等。 2. 大数据工具和技术:具备操作和优化Spark、Hive、Trino等大数据计算引擎的能力。 3. 操作系统与硬件知识:熟悉Linux操作系统(尤其是CentOS/Rocky Linux等)的管理和调优。 4. 脚本编程能力:熟练掌握Shell、Python等脚本语言,用于自动化运维和集群管理。 5. 容器化与Kubernetes:了解Docker和Kubernetes等容器技术,并能在集群中进行容器化部署。 6. 数据库管理经验:熟悉SQL以及常见数据库(如MySQL、PostgreSQL)的调优和管直聘理。 7. 集群管理与监控:有使用开源监控工具(如Prometkanzhunheus、Grafanakanzhun)以及集群管理工具(如Ambari、Cloudera Manager)的经验。 8. 故障排除与性能调优:能够快速定位和解决集群及应用的性能瓶颈和故障。 9. 团队合作与沟通来自BOSS直聘能力:具有良好的沟通技巧,能够与开发和数据团队合作解决问题。
职位详情
- 成都
- 3-5年
- 本科
- 要求数据开发经验
- Spark原理/源码
- Hive原理/源码
- habase
- 大数据引擎开发经验
- Flink原理/源码
- 其他数据开发经验
- 大数据开发
- 非外包类
- 实时数仓开发经验
- SQL
岗位职责: 1、负责大数据平台搭建、开发、维护;负责关系数据库开发; 2、负责基于大数据的分析和计算; 3、分析区块链地址数据特点,总结特征,并行标签化处理,包括但不限于BTC/ETH/TRX地址数据; 4、建立完整科学的标签分层,主体分类等标签体系,并基于此设计标签化数据模型。 任职要求: 1、统招本科及以上学历,计算机相关专业,3年以上大数据相关工作经验; 2、熟悉hadoop、spark、kafka等大数据相关技术一种或多种,熟练使用flink或者spark streamkanzhuning进行流式处理; 3、熟悉mysql、hbase等数据库之一;来自BOSS直聘 4、熟悉sprinBOSS直聘gboot等后端框架的优先; 5、有较强的学习能力,对区块链技术有一定的了解和热爱。 温馨提示:此岗位为自研项目;有笔试题,不接受勿扰。
技能解析
- 脚本语言
- 性能调优
- 故障排除
- 具有良好的沟
- 管理工具
- 快速定位
- 熟悉SQL
- 好的沟通技巧
- 解决问题
- 自动化运维
- 沟通技巧
- 编程能力
- 监控工具
- YARN
- 团队合作
- 数据库管理
- 良好的沟通技巧
- 管理经验
- 沟通能力
- 数据计算
- 好的沟通
- 容器技术
数据来自CSL职业科学研究室
技能解析
- 关系数据库
- 数据模型
- 数据库开发
- 数据相关
- 温馨提示
- 数据的分析
- 学习能力
- 平台搭建
- 关系数据
- 较强的学习
数据来自CSL职业科学研究室
工作时间
工作时间
公司福利
- 五险一金
- 定期体检
- 加班补助
- 年终奖
- 带薪年假
- 员工旅游
- 餐补
- 节日福利
- 零食下午茶
- 团队氛围好
公司福利
- 生日福利
- 节日福利
- 团建聚餐
- 零食下午茶
- 带薪年假
- 加班补助
- 定期体检
- 五险一金