Cllama - 스마트 정보 처리 및 창의적 생성 파트너

강력한 AI 기능을 활용하여 심층적인 이해, 스마트한 대화, 즉각적인 번역 등 웹 콘텐츠를 손쉽게 관리하세요.

지금 설치

핵심 기능

💡

심층 분석

현재 웹 콘텐츠를 지능적으로 분석하여 요약 생성, 논리 정리, 논리적 오류 발견, 기사 재작성 등을 신속하게 수행합니다. 개인화된 웹 정보 처리 요구 사항을 충족하도록 고도로 구성 가능합니다.

💬

스마트 채팅

Cllama는 기존 대화를 넘어선 스마트 채팅 경험을 제공합니다. 자유롭게 소통하거나 전문 심리 상담사를 시뮬레이션하는 등 시나리오와 역할을 미리 설정하여 심층적인 소통과 자기 탐색을 수행할 수 있습니다.

🌐

텍스트 선택 번역 기능

웹 페이지의 임의의 텍스트를 선택하고 마우스 오른쪽 버튼 메뉴를 통해 AI 모델 기반의 고품질 번역을 즉시 얻을 수 있습니다. Cllama는 사용자 정의 번역 프롬프트를 지원하여 번역 결과가 기대에 더 잘 부합하도록 합니다.

Cllama 브라우저 확장 프로그램 기능

⚙️

유연한 모델 호환성

로컬 Ollama 서비스에 원활하게 연결하여 데이터 개인 정보 보호 및 보안을 보장합니다. 또한 OpenAI API 1.0 프로토콜과 호환되어 다양한 온라인 AI 서비스에 쉽게 연결할 수 있습니다.

📝

쉬운 기능 확장

인사이트 모듈은 프롬프트를 사용하여 웹 페이지 요약, 핵심 포인트 정리, 콘텐츠 재작성 등 다양한 기능을 쉽게 확장하여 개인화된 요구 사항을 충족할 수 있습니다.

🗣️

다중 시나리오 대화 관리

Cllama 확장 프로그램은 여러 대화 시나리오를 쉽게 생성 및 관리하여 유연한 전환을 통해 다양한 상황에서 보다 효율적이고 체계적인 소통을 가능하게 합니다.

🌍

스마트 번역

Cllama 확장 프로그램은 다국어 번역 및 사용자 정의 번역 프롬프트를 지원하여 고품질 번역 서비스를 제공합니다.

💾

편리한 데이터 관리

데이터 가져오기 및 내보내기를 지원하여 데이터 마이그레이션, 백업 및 공유에 편리합니다.

풍부한 리소스 확장

Cllama 확장 프로그램에는 가져와서 사용할 수 있는 우수한 인사이트 및 시나리오 리소스가 많이 있어 더 많은 애플리케이션 요구 사항을 충족합니다.

기능 소개

Cllama 확장 프로그램 설치

Firefox 부가 기능 스토어

아래 버튼을 클릭하여 Firefox 부가 기능 스토어로 이동하여 Cllama 확장 프로그램을 설치하세요.

지금 설치 (Firefox)
Chrome 웹 스토어

아래 버튼을 클릭하여 Chrome 웹 스토어로 이동하여 Cllama 확장 프로그램을 설치하세요.

지금 설치 (Chrome)

자주 묻는 질문

403 오류는 Ollama의 기본 보안 설정이 크로스 오리진 액세스를 허용하지 않기 때문에 발생합니다. 해결 방법은 다음과 같습니다.

  1. Ollama 서비스 구성 파일 (일반적으로 /etc/systemd/system/ollama.service에 위치)을 엽니다.
  2. [Service] 섹션에 다음 두 줄을 추가합니다.
[Service] ... Environment="OLLAMA_HOST=0.0.0.0" # 다른 머신이 로컬 Ollama 서비스에 액세스해야 하는 경우 이 줄을 추가합니다. Environment="OLLAMA_ORIGINS=*" ...
  1. 구성 파일을 저장합니다.
  2. Ollama 서비스를 다시 시작합니다:
    sudo systemctl daemon-reload
    sudo systemctl restart ollama
참고: OLLAMA_ORIGINS=*를 설정하면 모든 오리진에서의 액세스가 허용됩니다. 프로덕션 환경에서는 특정 도메인을 설정하는 것이 좋습니다.

방화벽 및 기타 네트워크 요인을 제외하고, 대상 호스트의 Ollama 서비스 구성에 다음 설정을 추가해야 합니다.

  1. 대상 호스트에서 Ollama 서비스 구성 파일을 엽니다.
  2. [Service] 섹션에 추가합니다.
[Service] ... Environment="OLLAMA_HOST=0.0.0.0" Environment="OLLAMA_ORIGINS=*" ...
  1. 구성 파일을 저장합니다.
  2. 대상 호스트에서 Ollama 서비스를 다시 시작합니다:
    sudo systemctl daemon-reload
    sudo systemctl restart ollama

구성 후 Cllama 설정에서 대상 호스트의 IP 주소와 포트 (일반적으로 11434)를 입력하여 액세스할 수 있습니다.

네트워크 확인: 두 장치가 동일한 로컬 네트워크에 있고 방화벽이 포트 11434에서의 통신을 허용하는지 확인하십시오.

Ollama 구성을 수정하는 것 외에도 Nginx와 같은 리버스 프록시를 사용하여 크로스 오리진 문제를 해결할 수 있습니다.

  1. Nginx 구성 파일에 다음 위치 구성을 추가합니다.
location /api/chat { proxy_set_header Origin http://localhost:11434; proxy_pass http://localhost:11434; add_header 'Access-Control-Allow-Origin' '*'; add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS'; add_header 'Access-Control-Allow-Headers' 'Content-Type'; }
  1. 구성 파일을 저장합니다.
  2. Nginx 구성을 다시 로드합니다: sudo nginx -s reload

구성 후 Cllama에서 Ollama 주소를 Nginx 프록시 주소로 설정합니다.

팁: 이 방법은 Ollama 구성을 직접 수정할 수 없거나 추가 보안 제어가 필요한 상황에 적합합니다.

피드백 및 제안

여러분의 피드백은 개선의 원동력입니다. 소중한 제안을 기다립니다!

피드백 제출