Skip to content

Files

Latest commit

 

History

History
9 lines (7 loc) · 795 Bytes

README.md

File metadata and controls

9 lines (7 loc) · 795 Bytes

基于书生浦语1.8B的自我认知实验

本实验是学习用 XTuner 微调 internlm2-chat-1-8b 模型,调整模型自我认识的实验过程。

相关资源:

  • XTuner: An efficient, flexible and full-featured toolkit for fine-tuning large models (InternLM, Llama, Baichuan, Qwen, ChatGLM)
  • internlm2-chat-1-8b: 书生·浦语-1.8B (InternLM2-1.8B) 是第二代浦语模型系列的18亿参数版本
  • 课程链接: XTuner 微调 LLM:1.8B、多模态、Agent
  • 学习笔记: XTuner 微调 LLM:1.8B、多模态、Agent