职位&公司对比
职位详情
- 北京
- 1-3年
- 博士
- 计算机相关专业
- 深度学习经验
- 有国际期刊/会议论文发表
与清华大学联合kanzhun培养博士后招生计划 一、应聘条件: 1、品学兼优,身体健康,无不良记录; 2、获得博士学位不超过3年,或已满足颁发博士学位要求;以及从其他博士后科研流站 (工作站)出站的博士后研究人员,年龄35周岁以下; 3、具备全日制进站工作条件,不招收在职研究人员。 二、boss福利待遇 1、业界最前沿科研课题; 2、中国顶级高校教授&行业领军人双导师团队; 3、有竞争力的薪酬待遇和学习成长机会。 三、研究方向: 3.1 预训练语言模型及模型小型化技术研究 1、在深度学习、自然语言处理、预训练模型等方向有深入的研究积累; 2、在模型蒸馏、模型量化、训练及推理加速等方面有一定经验; 3、在AI相关领域顶会发表论文不少于 3 篇,熟悉深度学习主流编程框架。 3.2 AIGC方向研究 研究方向包括不限于自然语言生成、图像生成、代码生成、人机对话等方向。 1、在直聘深度学习、自然语言处理、计boss算机视觉等方向有深入的研究积累; 2、有文本、图像生成,或人机对话等相关研究或应用实践经验优先; 3、在AI相关领域顶会发表论文不少于 3 篇,熟悉深度学习主流编程框架。
职位详情
- 北京
- 硕士
- 在校/应届
- 大模型
- 研究助理
主要职责: 研究AI大模型的关键能力,结合行业场景和数据,解决大模型系统化过程中的挑战,包括但不限于模型的微调、RL训练、LLM记忆、推理、规划等; 研究DeepSeek R1模型的使用及优化,包直聘括使用R1BOSS直聘训练和推理行业大模型,以及蒸馏行业小模型; 跟踪大语言模型的前沿技术,推动生成效果达到领先水平,持续提升业务效果天花板; 职位要求 技术背景: 计算机科学、人工智能、机器学习或相关领域的在读博士或高年级硕士,基本可以全职实习,实习期约6个月(表现优秀者毕业后优先留任); 在机器学习算法或AI工程领域有深厚的理论基础和实践经验。 大模型技术能力: 熟悉DeepSeek R1原理以及强化学习知识; 深入理解大语言模型(LLM)的基本原理,包括Transformer架构、注意力机制、预训练和微调技术; 熟悉大模型的优化技术,如LoRA、P-Tuning、RLHF(基于人类反馈的强化学习)等; 具备模型推理和规划能力,熟悉Chain-of-Thought、Prompt Engineering等技术。 编程与工具: 熟练掌握Python,熟悉PyTorch、TensorFlow等深度学习框架; 熟悉分布式训练框架和模型部署工具。 软技能: 具备强烈的工作责任心和自驱力,能够独立解决问题; 良好的沟通协作能力,能够与跨职能团队高效合作。 加分项 大模型实战经验: 有大模型预训练、微调、应用经验,熟悉LLM相关技术栈(如HuggingFace、LangChain、LLamaIndex); 在相关领域发表过顶会论文或参与过开源项目贡献。 AI基础设施经验: 熟悉AI基础设施技术栈,包括GPU、分布式系统、高并发数据处理、向量数据库、图数据库
技能解析
- 计算机视觉
- 研究方向
- 自然语言
- 技术研究
- 深度学习
数据来自CSL职业科学研究室
技能解析
- 深度学习框架
- 训练框架
- 机器学习算法
- 解决问题
- 熟悉分布式
- 高效合作
- 理论基础
- 规划能力
- 沟通协作
- 基本原理
- 沟通协作能力
- 协作能力
- 机器学习
- 独立解决
- 优化技术
- 学习算法
- 好的沟通
- 分布式系统
- 独立解决问题
- 数据处理
- 良好的沟通协
- 深度学习
数据来自CSL职业科学研究室
工作时间
工作时间
公司福利
- 定期团建
- 五险一金
- 补充医疗保险
- 定期体检
- 年终奖
- 股票期权
- 带薪年假
- 包吃
- 餐补
- 零食下午茶
- 团建聚餐
- 免费工装
- 节日福利
- 生日福利
公司福利
- 生日福利
- 节日福利
- 团建聚餐
- 零食下午茶
- 带薪年假
- 股票期权
- 保底工资
- 年终奖
- 定期体检
- 意外险
- 补充医疗保险
- 五险一金