vLLM
vLLM có thể phục vụ các mô hình mã nguồn mở (và một số mô hình tùy chỉnh) thông qua API HTTP tương thích OpenAI. OpenClaw có thể kết nối với vLLM bằng API openai-completions.
OpenClaw cũng có thể tự động phát hiện các mô hình có sẵn từ vLLM khi bạn kích hoạt VLLM_API_KEY (bất kỳ giá trị nào cũng được nếu máy chủ của bạn không yêu cầu xác thực) và bạn không định nghĩa rõ ràng mục models.providers.vllm.
Bắt đầu nhanh
- Khởi động vLLM với máy chủ tương thích OpenAI.
URL cơ bản của bạn nên cung cấp các endpoint /v1 (ví dụ: /v1/models, /v1/chat/completions). vLLM thường chạy trên:
- Kích hoạt (bất kỳ giá trị nào cũng được nếu không cấu hình xác thực):
export VLLM_API_KEY="vllm-local"
- Chọn một mô hình (thay thế bằng một trong các ID mô hình vLLM của bạn):
{
agents: {
defaults: {
model: { primary: "vllm/your-model-id" },
},
},
}
Phát hiện mô hình (nhà cung cấp ngầm định)
Khi VLLM_API_KEY được thiết lập (hoặc có hồ sơ xác thực) và bạn không định nghĩa models.providers.vllm, OpenClaw sẽ truy vấn:
GET http://127.0.0.1:8000/v1/models
…và chuyển đổi các ID trả về thành các mục mô hình.
Nếu bạn thiết lập models.providers.vllm rõ ràng, tự động phát hiện sẽ bị bỏ qua và bạn phải định nghĩa mô hình thủ công.
Cấu hình rõ ràng (mô hình thủ công)
Sử dụng cấu hình rõ ràng khi:
- vLLM chạy trên một host/port khác.
- Bạn muốn cố định các giá trị
contextWindow/maxTokens.
- Máy chủ của bạn yêu cầu một API key thực sự (hoặc bạn muốn kiểm soát header).
{
models: {
providers: {
vllm: {
baseUrl: "http://127.0.0.1:8000/v1",
apiKey: "${VLLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "your-model-id",
name: "Local vLLM Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
Khắc phục sự cố
- Kiểm tra xem máy chủ có thể truy cập được không:
curl http://127.0.0.1:8000/v1/models
- Nếu yêu cầu thất bại với lỗi xác thực, hãy thiết lập một
VLLM_API_KEY thực sự phù hợp với cấu hình máy chủ của bạn, hoặc cấu hình nhà cung cấp rõ ràng dưới models.providers.vllm.
Last modified on March 22, 2026