Documentation Index
Fetch the complete documentation index at: https://openclawhub.vn/llms.txt
Use this file to discover all available pages before exploring further.
Ollama
Ollama là một runtime LLM cục bộ giúp bạn dễ dàng chạy các mô hình mã nguồn mở trên máy của mình. OpenClaw tích hợp với API gốc của Ollama (/api/chat), hỗ trợ streaming và gọi công cụ, và có thể tự động phát hiện các mô hình Ollama cục bộ khi bạn chọn tham gia với OLLAMA_API_KEY (hoặc hồ sơ xác thực) và không định nghĩa một mục models.providers.ollama rõ ràng.
Bắt đầu nhanh
Onboarding (khuyến nghị)
Cách nhanh nhất để thiết lập Ollama là thông qua onboarding:- Yêu cầu URL cơ sở của Ollama nơi có thể truy cập instance của bạn (mặc định
http://127.0.0.1:11434). - Cho phép bạn chọn Cloud + Local (mô hình đám mây và mô hình cục bộ) hoặc Local (chỉ mô hình cục bộ).
- Mở luồng đăng nhập trình duyệt nếu bạn chọn Cloud + Local và chưa đăng nhập vào ollama.com.
- Phát hiện các mô hình có sẵn và đề xuất mặc định.
- Tự động tải mô hình đã chọn nếu nó không có sẵn cục bộ.
Thiết lập thủ công
- Cài đặt Ollama: https://ollama.com/download
- Tải một mô hình cục bộ nếu bạn muốn suy luận cục bộ:
- Nếu bạn muốn sử dụng mô hình đám mây, hãy đăng nhập:
- Chạy onboarding và chọn
Ollama:
Local: chỉ mô hình cục bộCloud + Local: mô hình cục bộ cộng với mô hình đám mây- Các mô hình đám mây như
kimi-k2.5:cloud,minimax-m2.5:cloud, vàglm-5:cloudkhông yêu cầuollama pullcục bộ
- mặc định cục bộ:
glm-4.7-flash - mặc định đám mây:
kimi-k2.5:cloud,minimax-m2.5:cloud,glm-5:cloud
- Nếu bạn thích thiết lập thủ công, kích hoạt Ollama cho OpenClaw trực tiếp (bất kỳ giá trị nào cũng được; Ollama không yêu cầu khóa thực):
- Kiểm tra hoặc chuyển đổi mô hình:
- Hoặc đặt mặc định trong cấu hình:
Phát hiện mô hình (nhà cung cấp ngầm định)
Khi bạn đặtOLLAMA_API_KEY (hoặc hồ sơ xác thực) và không định nghĩa models.providers.ollama, OpenClaw sẽ phát hiện các mô hình từ instance Ollama cục bộ tại http://127.0.0.1:11434:
- Truy vấn
/api/tags - Sử dụng tra cứu
/api/showtốt nhất để đọccontextWindowkhi có sẵn - Đánh dấu
reasoningvới một heuristic tên mô hình (r1,reasoning,think) - Đặt
maxTokenstheo giới hạn token tối đa của Ollama mà OpenClaw sử dụng - Đặt tất cả chi phí về
0
models.providers.ollama rõ ràng, việc tự động phát hiện sẽ bị bỏ qua và bạn phải định nghĩa mô hình thủ công (xem bên dưới).
Cấu hình
Thiết lập cơ bản (phát hiện ngầm định)
Cách đơn giản nhất để kích hoạt Ollama là qua biến môi trường:Thiết lập rõ ràng (mô hình thủ công)
Sử dụng cấu hình rõ ràng khi:- Ollama chạy trên một host/port khác.
- Bạn muốn ép buộc các cửa sổ ngữ cảnh cụ thể hoặc danh sách mô hình.
- Bạn muốn định nghĩa mô hình hoàn toàn thủ công.
OLLAMA_API_KEY được đặt, bạn có thể bỏ qua apiKey trong mục nhà cung cấp và OpenClaw sẽ tự động điền cho các kiểm tra khả dụng.
URL cơ sở tùy chỉnh (cấu hình rõ ràng)
Nếu Ollama đang chạy trên một host hoặc port khác (cấu hình rõ ràng vô hiệu hóa tự động phát hiện, vì vậy hãy định nghĩa mô hình thủ công):Lựa chọn mô hình
Khi đã cấu hình, tất cả các mô hình Ollama của bạn sẽ có sẵn:Mô hình đám mây
Mô hình đám mây cho phép bạn chạy các mô hình được lưu trữ trên đám mây (ví dụkimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud) cùng với các mô hình cục bộ của bạn.
Để sử dụng mô hình đám mây, chọn chế độ Cloud + Local trong quá trình thiết lập. Trình hướng dẫn sẽ kiểm tra xem bạn đã đăng nhập chưa và mở luồng đăng nhập trình duyệt khi cần. Nếu không thể xác thực, trình hướng dẫn sẽ quay lại các mặc định mô hình cục bộ.
Bạn cũng có thể đăng nhập trực tiếp tại ollama.com/signin.
Nâng cao
Mô hình suy luận
OpenClaw mặc định coi các mô hình có tên nhưdeepseek-r1, reasoning, hoặc think là có khả năng suy luận:
Chi phí mô hình
Ollama miễn phí và chạy cục bộ, vì vậy tất cả chi phí mô hình được đặt là $0.Cấu hình Streaming
Tích hợp Ollama của OpenClaw sử dụng API gốc của Ollama (/api/chat) theo mặc định, hỗ trợ đầy đủ streaming và gọi công cụ đồng thời. Không cần cấu hình đặc biệt.
Chế độ tương thích OpenAI cũ
Nếu bạn cần sử dụng endpoint tương thích OpenAI thay thế (ví dụ, đằng sau một proxy chỉ hỗ trợ định dạng OpenAI), đặtapi: "openai-completions" rõ ràng:
params: { streaming: false } trong cấu hình mô hình.
Khi api: "openai-completions" được sử dụng với Ollama, OpenClaw tự động chèn options.num_ctx để Ollama không âm thầm quay lại cửa sổ ngữ cảnh 4096. Nếu proxy/upstream của bạn từ chối các trường options không xác định, hãy tắt hành vi này:
Cửa sổ ngữ cảnh
Đối với các mô hình được phát hiện tự động, OpenClaw sử dụng cửa sổ ngữ cảnh được báo cáo bởi Ollama khi có sẵn, nếu không sẽ quay lại cửa sổ ngữ cảnh mặc định của Ollama mà OpenClaw sử dụng. Bạn có thể ghi đècontextWindow và maxTokens trong cấu hình nhà cung cấp rõ ràng.
Khắc phục sự cố
Ollama không được phát hiện
Đảm bảo rằng Ollama đang chạy và bạn đã đặtOLLAMA_API_KEY (hoặc hồ sơ xác thực), và bạn không định nghĩa một mục models.providers.ollama rõ ràng:
Không có mô hình nào khả dụng
Nếu mô hình của bạn không được liệt kê, hãy:- Tải mô hình cục bộ, hoặc
- Định nghĩa mô hình rõ ràng trong
models.providers.ollama.
Kết nối bị từ chối
Kiểm tra xem Ollama có đang chạy trên cổng đúng không:Xem thêm
- Nhà cung cấp mô hình - Tổng quan về tất cả các nhà cung cấp
- Lựa chọn mô hình - Cách chọn mô hình
- Cấu hình - Tham khảo cấu hình đầy đủ