更新于 11月10日

大模型开发工程师/大模型算法优化工程师

1.5-3万
  • 南京秦淮区
  • 新街口
  • 1-3年
  • 硕士
  • 全职
  • 招2人

职位描述

大模型算法Python大模型开发大模型算法优化人工智能
我们正在寻找一位对大型语言模型(LLM)充满热情并具备深厚技术实力的开发工程师。您将深度参与公司大模型的训练、优化与部署全流程,致力于提升模型在特定领域的性能与推理效率,解决实际业务场景中的挑战。
核心职责
1. 模型训练与微调:
◦ 负责大模型的增量预训练(Continued Pre-training),利用领域数据提升模型的基础知识水平。
◦ 负责基于高效微调技术(如LoRA, QLoRA, P-Tuning等)对模型进行指令微调(SFT),以适应下游特定任务。
◦ 探索和实验新的训练技术和策略,以持续提升模型效果和训练效率。
2. 推理优化与部署:
◦ 负责大模型的推理性能优化,显著降低响应延迟和计算成本。
◦ 优先要求:具备PD(Prefill-Decode)分离推理架构的实际项目经验,能够实现并优化该架构下的动态批处理、连续批处理(Continuous Batching)等关键技术。
◦ 熟悉并使用主流推理优化框架(如vLLM, TensorRT-LLM, TGI等)进行模型部署和加速。
◦ 实施模型量化(INT4/AWQ/GPTQ等)、模型压缩、KV-Cache优化等技术。
任职要求
1. 学历与经验:计算机科学、人工智能、数学或相关专业本科及以上学历,具备2年及以上大模型相关研发经验。
2. 技术栈:
◦ 熟练掌握PyTorch深度学习框架,具有扎实的Python编程能力。
◦ 深入理解并具备增量预训练和高效参数微调(PEFT) 的实战经验,能独立完成整个训练流程。
◦ 熟悉Transformer模型原理,以及主流大模型(如LLaMA, ChatGLM, Qwen,DeepSeek等)的结构。
◦ 优秀的分析问题和解决问题的能力,对攻克技术难题充满激情。
优先考虑:
1. 具有PD分离推理优化、连续批处理(如vLLM的实现)等项目的实际开发经验者优先。
2. 有使用Deepspeed, FSDP等进行分布式训练经验者优先。
3. 有在华为昇腾算力环境下的实际训推工作经验者优先。

工作地点

南京秦淮区新街口

职位发布者

朱先生/HR

立即沟通
中国电信股份有限公司北京云网操作系统研发中心
中国电信股份有限公司北京云网操作系统研发中心位于北京市昌平区,是中国电信集团旗下专注云网融合技术创新与智能化操作系统研发的核心机构。中心聚焦新一代云网操作系统研发、智能运维平台建设及行业数字化转型解决方案,为政企客户提供安全、高效、可扩展的云网一体化服务,助力数字经济发展。依托中国电信在通信网络与云计算领域的深厚积累,研发中心汇聚资深架构师、解决方案专家及技术研发团队,构建覆盖云网协同、智能调度、自动化运维等场景的技术体系。团队通过自主研发与开放合作,持续优化云网资源调度效率与智能化水平,支撑运营商级网络服务能力升级。作为中国电信云网融合战略的重要技术支撑单元,研发中心以推动云网基础设施智能化、服务化转型为目标,深度参与国家“东数西算”工程等重大项目建设。未来将持续强化核心技术攻关,探索AI大模型与云网操作系统的深度融合,为千行百业数字化转型提供坚实底座。
公司主页