智能分析当前网页内容,可以快速生成摘要、梳理逻辑、查找逻辑漏洞,进行文章改写等。功能高度可配置,满足您的个性化网页信息处理需求。
Cllama提供超越传统聊天的智能对话体验。可自由交流,也可预设场景和角色,如模拟专业心理咨询师,进行深度沟通和自我探索。
选中网页任意文本,通过右键菜单即时获取由AI模型驱动的高质量翻译。Cllama支持自定义翻译提示语,确保翻译结果更符合您的期望。
无缝对接本地 Ollama 服务,保障数据隐私安全;同时兼容 OpenAI API 1.0 协议,轻松连接各类在线 AI 服务。
洞察模块可以利用提示词轻松拓展各种功能,如网页摘要、关键点梳理,内容改写等来满足您的个性化需求。
Cllama插件轻松创建和管理多个对话场景,灵活切换,让您在不同情境下的交流更加高效有序。
Cllama插件支持多种语言翻译及自定义翻译提示词,提供高质量翻译服务。
支持数据的导入和导出,方便您进行数据迁移、备份和分享。
Cllama插件有大量优秀的洞察和场景资源可供导入使用,满足更多应用需求。
出现403错误是因为Ollama默认的安全设置不允许跨域访问。解决方法如下:
/etc/systemd/system/ollama.service
)[Service]
部分添加以下两行配置:
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0" # 如果需要其他机器访问本机Ollama服务则要添加本行
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
OLLAMA_ORIGINS=*
允许所有来源访问,在生产环境中建议设置具体的域名。
排除防火墙等网络因素外,需要在目标主机上的Ollama服务配置中添加以下设置:
[Service]
部分添加:
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
配置完成后,在Cllama设置中填写目标主机的IP地址和端口(通常是11434)即可访问。
除了修改Ollama配置外,还可以使用Nginx等反向代理来解决跨域问题:
location /api/chat {
proxy_set_header Origin http://localhost:11434;
proxy_pass http://localhost:11434;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
add_header 'Access-Control-Allow-Headers' 'Content-Type';
}
sudo nginx -s reload
配置完成后,将Cllama中的Ollama地址设置为Nginx代理地址即可。
您的反馈是改进的动力,期待您的宝贵意见!