职位&公司对比
职位详情
- 成都
- 5-10年
- 本科
- 要求数据开发经验
- 数据仓库开发经验
- Spark
- Hive
- Python
- SQL
- Shell
- 金融行业经验
职位描述核心任务: 1.独立完成大数据清洗、处理与分析(Hadoop/Spark/Hive等生态工具),输出可落地的业务洞察; 2.搭建数据监控体系与自动化报表,支撑业务部门决策及运营优化; 3.基于业务需求设计数据模型(如用户画像、推荐算法、风险预测等),推动模型上线应用。 协作要求: 1.与数据开发、产品、运营团队紧密配合,快速响应数据需求并交付结果; 2.参与数据仓库建设,优化ETL流程及数据存储效率。 职位要求任职要求: 硬性技能(必须项): 1.本科及以上学历,计算机、统计学、数学等相关专业,学信网可查; 2.5年以上数据分析经验,至少主导过3个以上完整的数据分析项目(需提供案例); 3.大数据技术栈:熟练使用SQL/Python,至少掌握一种大数据工具(Hadoop/Spark/Hive); 4.工程化能力:kanzhun熟悉数据仓库设计、ETL流程及数据可视化工具(Tableau/Power bossBI等); 5.业务适配性:有互联网、金融、零售等行业经kanzhun验者优先,能快速理解业务逻辑。 软性要求: 1.强交付导向:能独立拆解任务并高效执行,适应快节奏工作; 2.问题驱动思维:从数据中定位业务痛点,提出可落地的解决方案。 加分项: 1.熟悉分布式计算框架(Flink/Storm)或云平台(AWS/阿里云)数据处理; 2.有数据埋点、AB测试或用户增长实战经验; 3.掌握基础机器学习算法(回归/聚类/分类)并具备模型调优能力。
职位详情
- 成都
- 不限
- 本科
- 接受无数据开发经验
主要职责: 1.参与大数据平台的规划、设计和开发工作,包括数据存储、数据处理、数据分析和数据可视化等方面。 2.负责大数据系统的开发和维来自BOSS直聘护工作,包括数据采集、清洗、转换、存储和分析等流程直聘的优化。 3.深入研究大数据技术,如Hadoop、Spark、Kafka等,将其应用于实际业务场景,提高数据处理kanzhun效率和质量。 4.与数据科学家、数据分析师等团队成员紧密合作,共同推动数据驱动的业务决策和创新。 5.关注大数据技术的最新发展趋势,持续学习并引入新技术,提升团队的技术实力。 职位要求: 1.统招计算机相关专业本科及以上学历。 2.熟悉大数据生态系统,包括Hadoop、Spark、Kafka、HBase等。 3.熟练掌握SQL和至少一种大数据处理语言(如Scala、Python等)。 4.熟悉数据仓库设计、ETL过程和数据建模等技术。 5.具备良好的数据分析和问题解决能力,能够针对复杂的数据处理需求设计合理的解决方案。 6.具备良好的团队合作精神和沟通能力,能够与其他团队成员协同工作,推动项目的进展。 7.对大数据技术充满热情,有持续学习和自我提升的动力。
技能解析
- 使用SQL
- 分布式计算
- 机器学习算法
- 数据开发
- 数据监控
- 机器学习
- 数据模型
- 快速理解业务
- 学习算法
- 可视化工具
- 熟悉分布式
- 数据清洗
- 数据可视化工具
- 快速理解
- 业务逻辑
- 分析经验
- 数据分析经验
- 数据技术
- 解决方案
- 数据存储
- 数据分析
- 数据仓库
- 熟悉数据
- 仓库设计
- 数据处理
- 数据可视化
- 熟悉数据仓库
数据来自CSL职业科学研究室
技能解析
- 熟悉大数据
- 良好的数据分
- 数据科学
- 紧密合作
- 沟通能力
- 合作精神
- 开发工作
- 解决能力
- 问题解决能力
- 团队合作精神
- 良好的数据分析
- 团队合作
- 问题解决
- 数据驱动
- 维护工作
- 数据建模
- 系统的开发
- 发展趋势
- 数据采集
- 的开发和维护
- 数据技术
- 解决方案
- 数据存储
- 数据分析
- 数据仓库
- 熟悉数据
- 仓库设计
- 数据处理
- 数据可视化
- 熟悉数据仓库
数据来自CSL职业科学研究室
工作时间
公司福利
- 五险一金
- 补充医疗保险
- 定期体检
- 加班补助
- 年终奖
- 带薪年假
- 员工旅游
- 免费班车
- 餐补
- 通讯补贴
- 交通补助
- 节日福利
- 零食下午茶
公司福利
- 五险一金
- 补充医疗保险
- 定期体检
- 年终奖
- 带薪年假
- 员工旅游
- 通讯补贴
- 交通补助
- 节日福利
- 住房补贴
- 零食下午茶
备注
职位发布者未明确表明公司信息,具体可咨询职位发布人进行确认。