【快Star-X】多模态训推引擎研发工程师
北京
本科及以上
自动化类·计算机类
使用简历深度优化功能,快速提升简历质量
职位介绍
职位描述
1、基础设施与模型融合研究 :紧密关注新一代基础设施的迭代,如高性能的新一代网卡、超节点服务器以及先进的集群拓扑结构等,结合多模态任务下多模型(涵盖 visual tokenizer、diffusion、LLM 等)长 pipeline 特点,探索更先进、高效的多模态模型架构以及训推解决方案;
2、分布式系统优化 :运用分布式系统迭代、系统算法 codesign 等手段,针对模型规模、集群规模、context length 持续 scaling up 过程中出现的诸多挑战展开深入研究。具体包括但不限于解决训练过程中的 MFU 与稳定性问题,优化推理环节的时延与吞吐,以及应对超长序列带来的训推显存压力等难题;
3、卓越系统打造 :通过持续的创新与优化实践,致力于打造业界卓越的分布式训推系统,推动相关技术在实际应用场景中的高效落地,提升整体系统性能与竞争力,为 kling 等核心模型发展提供坚实支撑。
任职要求
1、本科以上学历,电子、自动化、计算机类专业优先;
2、了解分布式系统或高性能计算相关知识,具备良好的系统编程、数据结构、算法基础、系统设计能力;
3、熟悉Linux开发环境、熟练使用Pytorch训练框架,掌握 C++/Python编程语言;
4、具有良好的团队合作精神和沟通能力。热爱钻研技术,善于分析、解决工程问题,能够对算法和底层的协同优化起到核心桥梁作用。
加分项:
1、熟悉tensorflow、pytorch、TensorRT, FasterTransformer等主流推理和训练框架,并有相关优化经验者优先;
2、具备大模型训练、分布式训练、微调经验、HPC基础知识,了解集合通信和CUDA编程,熟悉triton、cutlass、有算子库开发经验者优先;
3、在国际顶级会议/期刊上有相关论文发表优先;
4、有机器学习平台开发和深度学习框架开发等领域开发经验优先。

