Weclone配置教程

admin 发布于 2025-05-16 76 次阅读


WeClone配置教程

1. 环境准备

在Linux(WSL)环境下安装UV

curl -LsSf https://astral.sh/uv/install.sh | sh

在Windows环境下安装UV

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. 详细配置步骤

2.1 环境准备

  • 确保在AutoDL等云环境下配置网络加速(如果有)
source /etc/network_turbo

2.2 安装UV包管理器

curl -LsSf https://astral.sh/uv/install.sh | sh
source $HOME/.local/bin/env 

2.3 克隆WeClone仓库

git clone https://github.com/xming521/WeClone.git
cd WeClone

2.4 创建并激活虚拟环境

uv venv .venv --python=3.10
source .venv/bin/activate

2.5 安装依赖

uv pip install --group main -e .
uv pip install -e .

2.6 验证CUDA环境

python -c "import torch; print('CUDA是否可用:', torch.cuda.is_available()); print('CUDA版本:', torch.version.cuda); print('PyTorch版本:', torch.__version__)"
python --version
python -c "import torch; print(torch.__version__); print(torch.cuda.is_available())"
nvcc -V

2.7 配置WeClone设置

cp settings.template.jsonc settings.jsonc
# 根据需要编辑settings.jsonc文件,配置微信相关设置

2.8 安装Git LFS(用于大模型下载)

sudo apt-get update
sudo apt-get install git-lfs
git lfs install

2.9 安装LLaMA-Factory(用于模型训练)

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
uv pip install -e ".[torch,metrics]"
cd ..
llamafactory-cli version

2.10 下载基础模型

git clone https://www.modelscope.cn/Qwen/Qwen2.5-7B-Instruct.git

2.11 WeClone主要操作流程

# 生成训练数据集
weclone-cli make-dataset

# 训练SFT模型
weclone-cli train-sft

# 启动Web聊天演示
weclone-cli webchat-demo

3. 本地访问

AutoDL没有固定的公网ip,因此通过ip+端口(一般是7860)访问是不可行的,参考官方的说明port,在服务界面选择自定义服务

自定义服务

安装相关的工具(AutoDL-SSH-Tools.zip):

Tools

下载完成后解压,打开文件夹下的可执行文件AutoDL.exe,输入登录指令,密码和你要代理的端口(这里应该是7860):

AutoDL.exe

然后在本地浏览器里打开WebUI,即可启动Web聊天演示。

4. 可选步骤

安装flash-attention(提高训练速度,实测有问题故放弃使用)

wget https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.4.post1/flash_attn-2.7.4.post1+cu12torch2.6cxx11abiTRUE-cp310-cp310-linux_x86_64.whl
uv pip install flash_attn-2.7.4.post1+cu12torch2.6cxx11abiTRUE-cp310-cp310-linux_x86_64.whl

5. 常见问题解决

5.1 CUDA不可用的问题

  • 检查NVIDIA驱动是否正确安装
  • 确认PyTorch版本与CUDA版本匹配

5.2 内存不足问题

  • 减小batch_size
  • 使用gradient_checkpointing
  • 考虑使用更小的模型

5.3 数据集生成问题

  • 确保微信聊天记录可正确获取
  • 检查settings.jsonc配置是否正确

6. WSL清理

diskpart
select vdisk file = "D:\wsl\Ubuntu\ext4.vhdx"
compact vdisk
exit

7. 完整安装脚本

# 用于AutoDL环境的完整安装脚本
source /etc/network_turbo

# 安装UV包管理器
curl -LsSf https://astral.sh/uv/install.sh | sh
source $HOME/.local/bin/env 

# 克隆WeClone仓库并设置环境
git clone https://github.com/xming521/WeClone.git
cd WeClone
uv venv .venv --python=3.10
source .venv/bin/activate
uv pip install --group main -e .
uv pip install -e .

# 验证环境
python -c "import torch; print('CUDA是否可用:', torch.cuda.is_available()); print('CUDA版本:', torch.version.cuda); print('PyTorch版本:', torch.__version__)"
cp settings.template.jsonc settings.jsonc
python --version
python -c "import torch; print(torch.__version__); print(torch.cuda.is_available())"
nvcc -V

# 配置Git LFS
sudo apt-get update
sudo apt-get install git-lfs
git lfs install

# 安装LLaMA-Factory
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
uv pip install -e ".[torch,metrics]"
cd ..
llamafactory-cli version

# 下载基础模型
git clone https://www.modelscope.cn/Qwen/Qwen2.5-7B-Instruct.git

# WeClone主要操作流程
weclone-cli make-dataset  # 生成训练数据集
weclone-cli train-sft     # 训练SFT模型
weclone-cli webchat-demo  # 启动Web聊天演示

8. 参考链接

本文永久更新地址:

https://ymqs.top/p/2025-05-14-12/