职位&公司对比
职位详情
- 北京
- 1-3年
- 博士
- 计算机相关专业
- 深度学习经验
- 有国际期刊/会议论文发表
与清华大学联合培养博士后招生计划 一、应聘条件: 1、品学兼优,身体健康,无不良记录; 2、获得博士学位不超过3年,或已满足颁发博士学位要求;以及从其他博士后科研流站 (工作站)出站的博士后研究人员,年龄35周岁以下; 3、具备全日制进站工作条件,不招收在职研究人员。 二kanzhun、福利待遇 1、业界最前沿科研课题; 2、中国顶级高校教授&行业领军人双导师团队; 3、有竞争力的薪酬待遇和学习成长机会。 三、研究方向: 3.1 预训练语言模型及模型小型化技术研boss究 1、在深度学习、自然语言处理、预训练模型等方向有深入的研究积累; 2、在模型蒸馏、模型量化、训练及推理加速等方面有一定经验; 3、在AI相关领域顶会发表论文不少于 3 篇,熟悉深度学习主流编程框架来自BOSS直聘。 3.2 AIGC方向研究直聘 研kanzhun究方向包括不限于自然语言生成、图像生成、代码生成、人机对话等方向。 1、在深度学习、自然语言处理、计算机视觉等方向有深入的研究积累; 2、有文本、图像生成,或人机对话等相关研究或应用实践经验优先; 3、在AI相关领域顶会发表论文不少于 3 篇,熟悉深度学习主流编程框架。
职位详情
- 北京
- 5-10年
- 本科
- 大模型基座
工作职责 1. 基座大模型预训练,包括但不限于不同规模、不同结构的语言模型和多模态模型的数据准备和优化、模型预训练、训练加速与框架优化等; 2. 大模型对齐技术(SFT、RLHF等)链路整体优化,包括数据探索与增强、对齐流程探索、奖励模型优化、强化学习策略迭代等,持续提升对齐效果; 3. 大模型训练和推理优化,包括但不限于高效训练技术和直聘框架设计与实现、模型小型化技术(稀疏化、压缩、剪枝、蒸馏等)探索与落地、高效推理技术实现等; 4. 大模型相关技术前沿探索,包括但不限于Scaling Law、模型架构探索(MoE、MAMBA等)、训练范式探索、长序列技术探索、高效训推框架探索等; 5. 支撑内部应用需求,对接搜索、推BOSS直聘荐、广告等实际业务场景,实现大模型应用落地。 任职要求 1. 对大模型开发流程有深入认知,熟悉预训练、指令微调、RLHF等流程与框架,具备模型预训练、对齐、训练和推理加速、模型小型化和部署等方面的经验; 2. 熟悉Transformer等模型架构,对GPT系列、LLAMA系列和MoE等模型架构有深入理解并拥有大规模训练经验; 3BOSS直聘. 具备扎实的算法和数学理论基础及良好的编程基础,熟悉自然语言处理、生成式AI和机器学习等技术,BOSS直聘熟悉Python、Java等至少一种编程语言,熟悉PyTorch、Tensorflow等深度学习框架,对技术开发及应用有热情; 4. 目标感强,善于分析和发现问题,拆解简化,有想法并乐于挑战自我,能够从日常工作中发现新的空间; 5. 条理性强且有推动力,能够梳理繁杂的工作并建立有效机制,推动上下游配合完成目标。
技能解析
- 计算机视觉
- 研究方向
- 技术研究
- 深度学习
- 自然语言
数据来自CSL职业科学研究室
技能解析
- 深度学习框架
- 编程基础
- 完成目标
- 善于分析
- 条理性强
- 编程语言
- 开发流程
- 框架设计
- 理论基础
- 机器学习
- 技术开发
- 发现问题
- 模型训练
- 深度学习
- 自然语言
数据来自CSL职业科学研究室
工作时间
公司福利
- 生日福利
- 节日福利
- 免费工装
- 团建聚餐
- 零食下午茶
- 餐补
- 包吃
- 带薪年假
- 股票期权
- 年终奖
- 定期体检
- 补充医疗保险
- 五险一金
- 定期团建
公司福利
- 交通补助
- 节日福利
- 高温补贴
- 团建聚餐
- 底薪加提成
备注
职位发布者未明确表明公司信息,具体可咨询职位发布人进行确认。