摘要:龙虾AI(Claw)入门:OpenClaw安装、配置与使用安装与配置OpenClaw 是一个基于 Python 3.9+ 的开源指令模型框架。它不依赖 CUDA 运行基础推理,但微调建议使用 GPU。检查 Python 环境确保系统已安装 Python 3.9 或更高版本:python --version # 应输出类似 Python 3.10.12 pip --version #...
龙虾AI(Claw)入门:OpenClaw安装、配置与使用安装与配置
OpenClaw 是一个基于 Python 3.9+ 的开源指令模型框架。它不依赖 CUDA 运行基础推理,但微调建议使用 GPU。
检查 Python 环境
确保系统已安装 Python 3.9 或更高版本:
python --version # 应输出类似 Python 3.10.12
pip --version # pip 23.0+
若未安装,从 下载对应系统安装包。macOS 和 Linux 用户也可用 pyenv 管理多版本。
创建并激活虚拟环境
避免全局污染,推荐使用 venv:
python -m venv claw_env
激活方式因系统而异:
# macOS / Linux
source claw_env/bin/activate
# Windows(PowerShell)
claw_env\Scripts\Activate.ps1
# 若提示执行策略错误,先运行:
# Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
激活后,命令行前缀应显示 (claw_env)。
安装 OpenClaw
pip install openclaw
该命令会自动安装 torch(CPU 版)、transformers、datasets 等核心依赖。如需 GPU 支持,在安装前手动安装对应版本的 PyTorch(参考 )。
模型推理
OpenClaw 不自带模型权重,需单独下载。官方提供 claw-base(1.3B 参数,FP16)和 claw-small(350M)两个公开模型。
下载模型
克隆仓库并运行下载脚本:
git clone https://github.com/nostrus/OpenClaw.git
cd OpenClaw
python download_model.py --model_name=claw_base
脚本默认将模型存入 models/claw_base/。你也可以手动下载 config.json、pytorch_model.bin、tokenizer.json 等文件到该目录。
执行推理
python run_inference.py \
--model=models/claw_base \
--input_text="你好,龙虾AI"
输出示例:
> 你好,龙虾AI
> 你好!我是龙虾AI,一个专注指令理解的开源模型。

支持批量输入(传入 .jsonl 文件)和交互式模式(--interactive)。
指令微调
微调需准备符合 Alpaca 格式的 JSONL 数据集:
{"instruction": "将中文翻译成英文", "input": "今天天气很好。", "output": "The weather is nice today."}
{"instruction": "总结以下段落", "input": "机器学习是人工智能的一个分支...", "output": "这段文字介绍了机器学习的定义和常见任务。"}
每行一个样本,input 字段可为空字符串。
启动微调
python finetune.py \
--model=models/claw_base \
--data_path=my_data.jsonl \
--output_dir=finetuned_claw \
--batch_size=4 \
--epochs=3
训练完成后,finetuned_claw/ 目录包含适配后的权重和 tokenizer。
使用微调后模型
python run_inference.py \
--model=finetuned_claw \
--input_text="请用 Python 写一个快速排序"
验证安装
运行内置测试确认环境就绪:
python test_openclaw.py
成功时输出:
Model loading OK
Tokenizer works
Inference runs (CPU)
LoRA adapter loads
All tests passed.
若失败,检查:
常见问题依赖冲突或安装失败推理输出异常(空、乱码、卡死)微调显存不足(CUDA out of memory)模型下载慢
国内用户可替换下载源。编辑 download_model.py,将 HF_ENDPOINT 环境变量设为镜像:
export HF_ENDPOINT=https://hf-mirror.com
python download_model.py --model_name=claw_base
或直接从 下载文件,手动解压到 models/claw_base/。