Tận dụng AI để quản lý nội dung web một cách dễ dàng - từ hiểu sâu và trò chuyện thông minh đến dịch tức thì - tất cả đều nằm trong tầm kiểm soát của bạn.
Cài đặt ngayPhân tích thông minh nội dung web hiện tại, nhanh chóng tạo tóm tắt, tổ chức logic, tìm ra các lỗ hổng logic và viết lại bài viết. Có thể cấu hình cao để đáp ứng nhu cầu xử lý thông tin web cá nhân hóa của bạn.
Cllama cung cấp trải nghiệm trò chuyện thông minh vượt ra ngoài các cuộc trò chuyện truyền thống. Tham gia vào giao tiếp tự do hoặc các kịch bản và vai trò được thiết lập sẵn, chẳng hạn như mô phỏng một chuyên gia tư vấn tâm lý chuyên nghiệp để giao tiếp sâu sắc và tự khám phá.
Chọn bất kỳ văn bản nào trên trang web và nhận bản dịch chất lượng cao được hỗ trợ bởi các mô hình AI ngay lập tức thông qua menu chuột phải. Cllama hỗ trợ các prompt dịch tùy chỉnh để đảm bảo kết quả dịch đáp ứng tốt hơn mong đợi của bạn.
Kết nối liền mạch với các dịch vụ Ollama cục bộ để bảo mật và quyền riêng tư dữ liệu; cũng tương thích với giao thức OpenAI API 1.0 để dễ dàng kết nối với các dịch vụ AI trực tuyến khác nhau.
Mô-đun Insight có thể dễ dàng mở rộng các chức năng khác nhau bằng cách sử dụng các prompt, chẳng hạn như tóm tắt trang web, tổ chức điểm chính và viết lại nội dung, để đáp ứng nhu cầu cá nhân hóa của bạn.
Tiện ích mở rộng Cllama dễ dàng tạo và quản lý nhiều kịch bản trò chuyện, cho phép chuyển đổi linh hoạt để giao tiếp hiệu quả và có tổ chức hơn trong các ngữ cảnh khác nhau.
Tiện ích mở rộng Cllama hỗ trợ dịch đa ngôn ngữ và các prompt dịch tùy chỉnh, cung cấp dịch vụ dịch chất lượng cao.
Hỗ trợ nhập và xuất dữ liệu để dễ dàng di chuyển, sao lưu và chia sẻ dữ liệu.
Tiện ích mở rộng Cllama có số lượng lớn các tài nguyên insight và kịch bản tuyệt vời có sẵn để nhập và sử dụng, đáp ứng nhiều nhu cầu ứng dụng hơn.
Nhấp vào nút bên dưới để truy cập cửa hàng Tiện ích bổ sung Firefox và cài đặt plugin Cllama.
Cài đặt ngay (Firefox)Lỗi 403 xảy ra do cài đặt bảo mật mặc định của Ollama không cho phép truy cập chéo nguồn gốc. Đây là cách khắc phục:
/etc/systemd/system/ollama.service
)[Service]
:
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0" # Thêm dòng này nếu bạn cần các máy khác truy cập dịch vụ Ollama cục bộ
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
OLLAMA_ORIGINS=*
cho phép truy cập từ tất cả các nguồn gốc. Trong môi trường sản xuất, nên đặt các tên miền cụ thể.
Loại trừ tường lửa và các yếu tố mạng khác, bạn cần thêm các cài đặt sau vào cấu hình dịch vụ Ollama trên máy chủ đích:
[Service]
:
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
Sau khi cấu hình, bạn có thể truy cập bằng cách nhập địa chỉ IP và cổng (thường là 11434) của máy chủ đích trong cài đặt Cllama.
Ngoài việc sửa đổi cấu hình Ollama, bạn cũng có thể sử dụng reverse proxy như Nginx để giải quyết các vấn đề chéo nguồn gốc:
location /api/chat {
proxy_set_header Origin http://localhost:11434;
proxy_pass http://localhost:11434;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
add_header 'Access-Control-Allow-Headers' 'Content-Type';
}
sudo nginx -s reload
Sau khi cấu hình, đặt địa chỉ Ollama trong Cllama thành địa chỉ proxy Nginx.
Phản hồi của bạn là động lực để cải thiện. Chúng tôi mong nhận được những đề xuất quý báu của bạn!