【合作形式】
驻场甲方工作,签署乙方合同。
甲方:超威半导体(上海)有限公司(AMD)
乙方:凯捷咨询(中国)有限公司
【岗位职责】
1.负责大语言模型(LLM)推理框架的开发、迭代与GPU端适配,基于vLLM、TensorRT-LLM等主流框架完成功能定制、代码调试及问题修复,保障框架在AMD MI GPU上的稳定性与兼容性。
2.基于AMD ROCm AI SW、HIP、AITER等技术体系,开展大模型推理的性能分析、瓶颈定位与深度优化,提升LLM在AMD MI GPU上的推理吞吐量、时延等核心指标。
3.熟练运用Pytroch、Deepspeed、Triton等AI工具,结合Transformer、MOE等LLM核心架构,适配不同规模大模型在AMD算力平台的推理部署需求。
4.在Discord渠道专业、及时、主动解答AMD开发者的AI软件相关问题,提供技术解决方案,支撑AMD AI开发者生态建设。
5.独立负责AMD GPU大模型推理优化相关开发项目,自主定义项目目标、范围与实施计划,推动开发工作落地交付。
6.与AMD硬件、算法及外部开发者协同,对接MI GPU架构适配、ROCm生态迭代需求,推进技术方案落地与问题协同解决。
7.输出AMD GPU大模型推理开发、性能优化及技术支持相关文档,沉淀开发规范、调优经验与问题解决方案。
8.跟踪大模型推理框架、AMD ROCm生态及GPU计算领域前沿技术,引入行业优秀实践,持续优化技术方案与开发者支持服务。
【任职要求】
1.本科及以上学历,计算机、软件工程、电子信息、人工智能、自动化等相关专业,硕士学历优先,且需2年及以上AI软件开发、大模型推理优化或GPU编程相关行业经验。
2.精通C/C++、Python编程语言,具备扎实的软件设计能力,熟练掌握代码调试、程序性能分析与优化的方法和工具。
3.掌握GPU计算核心知识,具备AMD ROCm或CUDA GPU编程实操经验,能独立完成GPU端程序开发与调优。
4.熟悉大语言模型核心架构(Transformer、MOE等),了解大模型训练、推理的基本流程与核心原理。
5.具备扎实的英语沟通能力(书面+口语),能流畅在Discord上与海外开发者沟通,专业解答AI软件技术问题。
6.熟悉Pytroch、vLLM、Tensorflow、Deepspeed等至少2种AI工具,具备实际开发或使用经验。
7.具备独立工作能力和强烈的责任心,能快速响应开发者问题,高效推进开发项目与技术支持工作。
8.具备良好的跨团队协作与沟通表达能力,能对接内外部技术需求,推进问题协同解决。
【优先条件】
1.有AMD ROCm AI SW、HIP、AITER技术实操经验,且熟悉AMD MI GPU架构者优先。
2.熟练使用SGLang、Unsloth、Triton、TensorRT-LLM等AI工具,有大模型推理框架二次开发经验者优先。
3.有深度学习、大模型推理或C++相关开源项目参与/贡献经验者优先。
4.具备大模型工程化部署、推理服务搭建及大规模AI算力平台运维经验者优先。
5.有技术社区/开发者平台(如Discord、GitHub)技术支持经验者优先。