현재 웹 콘텐츠를 지능적으로 분석하여 요약 생성, 논리 정리, 논리적 오류 발견, 기사 재작성 등을 신속하게 수행합니다. 개인화된 웹 정보 처리 요구 사항을 충족하도록 고도로 구성 가능합니다.
Cllama는 기존 대화를 넘어선 스마트 채팅 경험을 제공합니다. 자유롭게 소통하거나 전문 심리 상담사를 시뮬레이션하는 등 시나리오와 역할을 미리 설정하여 심층적인 소통과 자기 탐색을 수행할 수 있습니다.
웹 페이지의 임의의 텍스트를 선택하고 마우스 오른쪽 버튼 메뉴를 통해 AI 모델 기반의 고품질 번역을 즉시 얻을 수 있습니다. Cllama는 사용자 정의 번역 프롬프트를 지원하여 번역 결과가 기대에 더 잘 부합하도록 합니다.
로컬 Ollama 서비스에 원활하게 연결하여 데이터 개인 정보 보호 및 보안을 보장합니다. 또한 OpenAI API 1.0 프로토콜과 호환되어 다양한 온라인 AI 서비스에 쉽게 연결할 수 있습니다.
인사이트 모듈은 프롬프트를 사용하여 웹 페이지 요약, 핵심 포인트 정리, 콘텐츠 재작성 등 다양한 기능을 쉽게 확장하여 개인화된 요구 사항을 충족할 수 있습니다.
Cllama 확장 프로그램은 여러 대화 시나리오를 쉽게 생성 및 관리하여 유연한 전환을 통해 다양한 상황에서 보다 효율적이고 체계적인 소통을 가능하게 합니다.
Cllama 확장 프로그램은 다국어 번역 및 사용자 정의 번역 프롬프트를 지원하여 고품질 번역 서비스를 제공합니다.
데이터 가져오기 및 내보내기를 지원하여 데이터 마이그레이션, 백업 및 공유에 편리합니다.
Cllama 확장 프로그램에는 가져와서 사용할 수 있는 우수한 인사이트 및 시나리오 리소스가 많이 있어 더 많은 애플리케이션 요구 사항을 충족합니다.
403 오류는 Ollama의 기본 보안 설정이 크로스 오리진 액세스를 허용하지 않기 때문에 발생합니다. 해결 방법은 다음과 같습니다.
/etc/systemd/system/ollama.service
에 위치)을 엽니다.[Service]
섹션에 다음 두 줄을 추가합니다.
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0" # 다른 머신이 로컬 Ollama 서비스에 액세스해야 하는 경우 이 줄을 추가합니다.
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
OLLAMA_ORIGINS=*
를 설정하면 모든 오리진에서의 액세스가 허용됩니다. 프로덕션 환경에서는 특정 도메인을 설정하는 것이 좋습니다.
방화벽 및 기타 네트워크 요인을 제외하고, 대상 호스트의 Ollama 서비스 구성에 다음 설정을 추가해야 합니다.
[Service]
섹션에 추가합니다.
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
구성 후 Cllama 설정에서 대상 호스트의 IP 주소와 포트 (일반적으로 11434)를 입력하여 액세스할 수 있습니다.
Ollama 구성을 수정하는 것 외에도 Nginx와 같은 리버스 프록시를 사용하여 크로스 오리진 문제를 해결할 수 있습니다.
location /api/chat {
proxy_set_header Origin http://localhost:11434;
proxy_pass http://localhost:11434;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
add_header 'Access-Control-Allow-Headers' 'Content-Type';
}
sudo nginx -s reload
구성 후 Cllama에서 Ollama 주소를 Nginx 프록시 주소로 설정합니다.
여러분의 피드백은 개선의 원동력입니다. 소중한 제안을 기다립니다!