智能分析當前網頁內容,可以快速生成摘要、梳理邏輯、查找邏輯漏洞,進行文章改寫等。功能高度可配置,滿足您的個性化網頁資訊處理需求。
Cllama提供超越傳統聊天的智能對話體驗。可自由交流,也可預設場景和角色,如模擬專業心理諮詢師,進行深度溝通和自我探索。
選中網頁任意文本,通過右鍵選單即時獲取由AI模型驅動的高品質翻譯。Cllama支援自訂翻譯提示語,確保翻譯結果更符合您的期望。
無縫對接本地 Ollama 服務,保障資料隱私安全;同時相容 OpenAI API 1.0 協定,輕鬆連接各類線上 AI 服務。
洞察模組可以利用提示詞輕鬆拓展各種功能,如網頁摘要、關鍵點梳理,內容改寫等來滿足您的個性化需求。
Cllama擴充功能輕鬆創建和管理多個對話場景,靈活切換,讓您在不同情境下的交流更加高效有序。
Cllama擴充功能支援多種語言翻譯及自訂翻譯提示詞,提供高品質翻譯服務。
支援資料的匯入和匯出,方便您進行資料遷移、備份和分享。
Cllama擴充功能有大量優秀的洞察和場景資源可供匯入使用,滿足更多應用需求。
出現 403 錯誤是因為 Ollama 預設的安全設定不允許跨來源存取。解決方法如下:
/etc/systemd/system/ollama.service
)[Service]
部分加入以下兩行設定:
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0" # 如果需要其他機器存取本機 Ollama 服務則要加入本行
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
OLLAMA_ORIGINS=*
允許所有來源存取,在生產環境中建議設定具體的網域。
排除防火牆等網路因外,需要在目標主機上的 Ollama 服務設定中加入以下設定:
[Service]
部分加入:
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
設定完成後,在 Cllama 設定中填寫目標主機的 IP 位址和連接埠(通常是 11434)即可存取。
除了修改 Ollama 設定外,還可以利用 Nginx 等反向代理來解決跨來源問題:
location /api/chat {
proxy_set_header Origin http://localhost:11434;
proxy_pass http://localhost:11434;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
add_header 'Access-Control-Allow-Headers' 'Content-Type';
}
sudo nginx -s reload
設定完成後,將 Cllama 中的 Ollama 位址設定為 Nginx 代理位址即可。
您的回饋是改進的動力,期待您的寶貴意見!