GMagoLi/test-upload

这是一个基于Qwen架构的语言模型,使用VERL框架进行SFT训练。

模型描述

  • 模型类型: 因果语言模型
  • 架构: Qwen-32B
  • 训练框架: VERL FSDP SFT Trainer
  • 语言: 中文、英文
  • 许可证: Apache 2.0

使用方法

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# 加载模型和tokenizer
model = AutoModelForCausalLM.from_pretrained(
    "GMagoLi/test-upload", 
    trust_remote_code=True,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("GMagoLi/test-upload", trust_remote_code=True)

# 推理示例
prompt = "你好,请介绍一下你自己。"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(
    **inputs, 
    max_length=512, 
    temperature=0.7,
    do_sample=True,
    pad_token_id=tokenizer.eos_token_id
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

训练信息

  • 训练步数: 2800 steps
  • 批大小: 128
  • 学习率调度: Cosine with warmup
  • 混合精度: bfloat16
  • 数据集: RepoCoder训练数据集v2.3

模型性能

该模型在代码生成和对话任务上表现出色,特别适合:

  • 代码生成和补全
  • 技术问答
  • 多轮对话

注意事项

  • 模型较大(32B参数),建议使用GPU推理
  • 需要足够的显存(建议24GB+)
  • 支持量化推理以降低显存需求

引用

如果使用了本模型,请考虑引用:

@misc{qwen-repocoder-sft,
  title={Qwen RepoCoder SFT Model},
  author={Your Name},
  year={2025},
  howpublished={\url{https://huggingface.co/GMagoLi/test-upload}}
}
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support