|
|
|
|
职位描述 用小程序查看更多 |
|
岗位职责: 1、针对大语言模型(LLM)的微调,涵盖全参数微调以及LoRA/QLoRA等参数高效微调技术; 2、负责模型评估与测试,并构建自动化测试流程;优化训练流程,利用DeepSpeed、FSDP等分布式训练技术,提高训练效率; 3、研究最新的对齐技术(DPO、RLAIF),以优化模型的交互体验和响应质量; 4、开展对比实验,分析不同模型架构、数据规模、优化策略的影响,并制定相应的优化方案; 5、参与MLOps工作,支持模型部署、推理优化(如INT4/INT8量化)、服务化(FastAPI/Triton)。 岗位要求: 1、计算机科学、人工智能、机器学习等相关专业,硕士及以上学历; 2、熟练掌握深度学习框架(PyTorch、TensorFlow),熟悉Transformers库(HuggingFace); 3、具备大模型微调经验,了解LoRA/QLoRA、PrefixTuning、P-Tuning等参数高效微调方法; 4、熟悉数据标注、数据清洗等数据处理技术,掌握NLP数据增强方法; 5、掌握常见的LLM评测方法,包括人工评测(GPT-4评分)、自动评测(BLEU、ROUGE等); |
|
|
|
|
|
|