現在のウェブコンテンツをインテリジェントに分析し、要約の迅速な生成、ロジックの整理、論理的なギャップの発見、記事の書き換えなどを行います。高度に設定可能で、パーソナライズされたウェブ情報処理ニーズに対応します。
Cllamaは従来の会話を超えたスマートなチャット体験を提供します。自由にコミュニケーションしたり、専門の心理カウンセラーをシミュレートするなど、シナリオや役割を事前に設定して深いコミュニケーションや自己探求を行うことができます。
ウェブページの任意のテキストを選択し、右クリックメニューからAIモデルによる高品質な翻訳を即座に取得できます。Cllamaはカスタム翻訳プロンプトをサポートしており、翻訳結果があなたの期待に沿うようにします。
ローカルOllamaサービスにシームレスに接続し、データプライバシーとセキュリティを確保します。また、OpenAI API 1.0プロトコルと互換性があり、さまざまなオンラインAIサービスに簡単に接続できます。
洞察モジュールは、プロンプトを使用して、ウェブページの要約、キーポイントの整理、コンテンツの書き換えなど、さまざまな機能を簡単に拡張でき、パーソナライズされたニーズに対応します。
Cllama拡張機能は、複数の会話シナリオを簡単に作成および管理でき、柔軟な切り替えにより、さまざまな状況でのコミュニケーションをより効率的かつ整理されたものにします。
Cllama拡張機能は、多言語翻訳とカスタム翻訳プロンプトをサポートし、高品質な翻訳サービスを提供します。
データのインポートとエクスポートをサポートしており、データの移行、バックアップ、共有に便利です。
Cllama拡張機能には、インポートして使用できる優れた洞察とシナリオリソースが多数あり、より多くのアプリケーションニーズに対応します。
403エラーは、Ollamaのデフォルトのセキュリティ設定がクロスオリジンアクセスを許可していないために発生します。解決策は以下の通りです。
/etc/systemd/system/ollama.service
にあります)[Service]
セクションに以下の2行を追加します。
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0" # 他のマシンからローカルのOllamaサービスにアクセスする必要がある場合は、この行を追加します
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
OLLAMA_ORIGINS=*
を設定すると、すべてのオリジンからのアクセスが許可されます。本番環境では、特定のドメインを設定することをお勧めします。
ファイアウォールやその他のネットワーク要因を除いて、ターゲットホスト上のOllamaサービス設定に以下の設定を追加する必要があります。
[Service]
セクションに追加します。
[Service]
...
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
...
sudo systemctl daemon-reload
sudo systemctl restart ollama
設定後、Cllamaの設定でターゲットホストのIPアドレスとポート(通常は11434)を入力することでアクセスできます。
Ollamaの設定を変更する以外に、Nginxなどのリバースプロキシを使用してクロスオリジン問題を解決することもできます。
location /api/chat {
proxy_set_header Origin http://localhost:11434;
proxy_pass http://localhost:11434;
add_header 'Access-Control-Allow-Origin' '*';
add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
add_header 'Access-Control-Allow-Headers' 'Content-Type';
}
sudo nginx -s reload
設定後、CllamaのOllamaアドレスをNginxプロキシアドレスに設定します。
皆様からのフィードバックは改善の原動力となります。貴重なご意見をお待ちしております!