Documentation Index
Fetch the complete documentation index at: https://openclawhub.vn/llms.txt
Use this file to discover all available pages before exploring further.
Hugging Face (Inference)
Hugging Face Inference Providers cung cấp các hoàn thành hội thoại tương thích với OpenAI thông qua một API router duy nhất. Bạn có thể truy cập nhiều mô hình (DeepSeek, Llama, và nhiều hơn nữa) chỉ với một token. OpenClaw sử dụng endpoint tương thích OpenAI (chỉ hoàn thành hội thoại); để chuyển đổi văn bản thành hình ảnh, nhúng, hoặc giọng nói, hãy sử dụng trực tiếp HF inference clients.- Nhà cung cấp:
huggingface - Xác thực:
HUGGINGFACE_HUB_TOKENhoặcHF_TOKEN(token chi tiết với quyền Gọi đến Inference Providers) - API: Tương thích OpenAI (
https://router.huggingface.co/v1) - Thanh toán: Một token HF duy nhất; giá cả theo mức giá của nhà cung cấp với một tầng miễn phí.
Bắt đầu nhanh
- Tạo một token chi tiết tại Hugging Face → Settings → Tokens với quyền Gọi đến Inference Providers.
- Chạy onboarding và chọn Hugging Face trong danh sách nhà cung cấp, sau đó nhập API key khi được yêu cầu:
- Trong danh sách Default Hugging Face model, chọn mô hình bạn muốn (danh sách được tải từ Inference API khi bạn có token hợp lệ; nếu không, một danh sách tích hợp sẵn sẽ được hiển thị). Lựa chọn của bạn sẽ được lưu làm mô hình mặc định.
- Bạn cũng có thể đặt hoặc thay đổi mô hình mặc định sau này trong cấu hình:
Ví dụ không tương tác
huggingface/deepseek-ai/DeepSeek-R1 làm mô hình mặc định.
Lưu ý về môi trường
Nếu Gateway chạy dưới dạng daemon (launchd/systemd), đảm bảoHUGGINGFACE_HUB_TOKEN hoặc HF_TOKEN có sẵn cho tiến trình đó (ví dụ, trong ~/.openclaw/.env hoặc thông qua env.shellEnv).
Khám phá mô hình và danh sách onboarding
OpenClaw khám phá các mô hình bằng cách gọi trực tiếp Inference endpoint:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN hoặc $HF_TOKEN để có danh sách đầy đủ; một số endpoint trả về một phần mà không cần xác thực.) Phản hồi theo kiểu OpenAI { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Khi bạn cấu hình một Hugging Face API key (qua onboarding, HUGGINGFACE_HUB_TOKEN, hoặc HF_TOKEN), OpenClaw sử dụng GET này để khám phá các mô hình hoàn thành hội thoại có sẵn. Trong quá trình thiết lập tương tác, sau khi bạn nhập token, bạn sẽ thấy một danh sách Default Hugging Face model được điền từ danh sách đó (hoặc từ danh mục tích hợp sẵn nếu yêu cầu thất bại). Khi chạy (ví dụ, khi Gateway khởi động), nếu có key, OpenClaw lại gọi GET https://router.huggingface.co/v1/models để làm mới danh mục. Danh sách này được hợp nhất với danh mục tích hợp sẵn (cho các thông tin như cửa sổ ngữ cảnh và chi phí). Nếu yêu cầu thất bại hoặc không có key, chỉ danh mục tích hợp sẵn được sử dụng.
Tên mô hình và tùy chọn có thể chỉnh sửa
- Tên từ API: Tên hiển thị của mô hình được lấy từ GET /v1/models khi API trả về
name,title, hoặcdisplay_name; nếu không, nó được suy ra từ id mô hình (ví dụ:deepseek-ai/DeepSeek-R1→ “DeepSeek R1”). - Ghi đè tên hiển thị: Bạn có thể đặt nhãn tùy chỉnh cho mỗi mô hình trong cấu hình để nó hiển thị theo cách bạn muốn trong CLI và UI:
-
Lựa chọn nhà cung cấp / chính sách: Thêm hậu tố vào id mô hình để chọn cách router chọn backend:
:fastest— thông lượng cao nhất (router chọn; lựa chọn nhà cung cấp bị khóa — không có bộ chọn backend tương tác).:cheapest— chi phí thấp nhất cho mỗi token đầu ra (router chọn; lựa chọn nhà cung cấp bị khóa).:provider— buộc một backend cụ thể (ví dụ::sambanova,:together).
models.providers.huggingface.modelshoặc đặtmodel.primaryvới hậu tố. Bạn cũng có thể đặt thứ tự mặc định của mình trong Inference Provider settings (không có hậu tố = sử dụng thứ tự đó). -
Hợp nhất cấu hình: Các mục hiện có trong
models.providers.huggingface.models(ví dụ, trongmodels.json) được giữ lại khi cấu hình được hợp nhất. Vì vậy, bất kỳname,alias, hoặc tùy chọn mô hình tùy chỉnh nào bạn đặt ở đó đều được bảo toàn.
ID mô hình và ví dụ cấu hình
Tham chiếu mô hình sử dụng dạnghuggingface/<org>/<model> (ID kiểu Hub). Danh sách dưới đây là từ GET https://router.huggingface.co/v1/models; danh mục của bạn có thể bao gồm nhiều hơn.
Ví dụ về ID (từ endpoint inference):
| Mô hình | Tham chiếu (tiền tố với huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest, :cheapest, hoặc :provider (ví dụ: :together, :sambanova) vào id mô hình. Đặt thứ tự mặc định của bạn trong Inference Provider settings; xem Inference Providers và GET https://router.huggingface.co/v1/models để có danh sách đầy đủ.