スマートな情報処理とクリエイティブ生成のパートナー

強力なAI機能を活用して、深い理解、スマートな会話、即時翻訳など、ウェブコンテンツを簡単に管理できます。

今すぐインストール

コア機能

💡

深い洞察

現在のウェブコンテンツをインテリジェントに分析し、要約の迅速な生成、ロジックの整理、論理的なギャップの発見、記事の書き換えなどを行います。高度に設定可能で、パーソナライズされたウェブ情報処理ニーズに対応します。

💬

スマートチャット

Cllamaは従来の会話を超えたスマートなチャット体験を提供します。自由にコミュニケーションしたり、専門の心理カウンセラーをシミュレートするなど、シナリオや役割を事前に設定して深いコミュニケーションや自己探求を行うことができます。

🌐

テキスト選択翻訳機能

ウェブページの任意のテキストを選択し、右クリックメニューからAIモデルによる高品質な翻訳を即座に取得できます。Cllamaはカスタム翻訳プロンプトをサポートしており、翻訳結果があなたの期待に沿うようにします。

Cllamaブラウザ拡張機能の特長

⚙️

柔軟なモデル互換性

ローカルOllamaサービスにシームレスに接続し、データプライバシーとセキュリティを確保します。また、OpenAI API 1.0プロトコルと互換性があり、さまざまなオンラインAIサービスに簡単に接続できます。

📝

簡単な機能拡張

洞察モジュールは、プロンプトを使用して、ウェブページの要約、キーポイントの整理、コンテンツの書き換えなど、さまざまな機能を簡単に拡張でき、パーソナライズされたニーズに対応します。

🗣️

マルチシナリオ会話管理

Cllama拡張機能は、複数の会話シナリオを簡単に作成および管理でき、柔軟な切り替えにより、さまざまな状況でのコミュニケーションをより効率的かつ整理されたものにします。

🌍

スマート翻訳

Cllama拡張機能は、多言語翻訳とカスタム翻訳プロンプトをサポートし、高品質な翻訳サービスを提供します。

💾

便利なデータ管理

データのインポートとエクスポートをサポートしており、データの移行、バックアップ、共有に便利です。

豊富なリソース拡張

Cllama拡張機能には、インポートして使用できる優れた洞察とシナリオリソースが多数あり、より多くのアプリケーションニーズに対応します。

機能紹介

Cllama拡張機能のインストール

Firefox アドオンストア

以下のボタンをクリックして、Firefoxアドオンストアにアクセスし、Cllama拡張機能をインストールしてください。

今すぐインストール (Firefox)
Chrome ウェブストア

以下のボタンをクリックして、Chromeウェブストアにアクセスし、Cllama拡張機能をインストールしてください。

今すぐインストール (Chrome)

よくある質問

403エラーは、Ollamaのデフォルトのセキュリティ設定がクロスオリジンアクセスを許可していないために発生します。解決策は以下の通りです。

  1. Ollamaサービスの設定ファイルを開きます(通常は /etc/systemd/system/ollama.service にあります)
  2. [Service] セクションに以下の2行を追加します。
[Service] ... Environment="OLLAMA_HOST=0.0.0.0" # 他のマシンからローカルのOllamaサービスにアクセスする必要がある場合は、この行を追加します Environment="OLLAMA_ORIGINS=*" ...
  1. 設定ファイルを保存します
  2. Ollamaサービスを再起動します:
    sudo systemctl daemon-reload
    sudo systemctl restart ollama
注意: OLLAMA_ORIGINS=* を設定すると、すべてのオリジンからのアクセスが許可されます。本番環境では、特定のドメインを設定することをお勧めします。

ファイアウォールやその他のネットワーク要因を除いて、ターゲットホスト上のOllamaサービス設定に以下の設定を追加する必要があります。

  1. ターゲットホスト上のOllamaサービス設定ファイルを開きます
  2. [Service] セクションに追加します。
[Service] ... Environment="OLLAMA_HOST=0.0.0.0" Environment="OLLAMA_ORIGINS=*" ...
  1. 設定ファイルを保存します
  2. ターゲットホスト上のOllamaサービスを再起動します:
    sudo systemctl daemon-reload
    sudo systemctl restart ollama

設定後、Cllamaの設定でターゲットホストのIPアドレスとポート(通常は11434)を入力することでアクセスできます。

ネットワーク確認: 両方のデバイスが同じローカルネットワーク上にあり、ファイアウォールがポート11434での通信を許可していることを確認してください。

Ollamaの設定を変更する以外に、Nginxなどのリバースプロキシを使用してクロスオリジン問題を解決することもできます。

  1. Nginx設定ファイルに以下のロケーション設定を追加します。
location /api/chat { proxy_set_header Origin http://localhost:11434; proxy_pass http://localhost:11434; add_header 'Access-Control-Allow-Origin' '*'; add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS'; add_header 'Access-Control-Allow-Headers' 'Content-Type'; }
  1. 設定ファイルを保存します
  2. Nginx設定をリロードします:sudo nginx -s reload

設定後、CllamaのOllamaアドレスをNginxプロキシアドレスに設定します。

ヒント: この方法は、Ollamaの設定を直接変更できない場合や、追加のセキュリティ制御が必要な場合に適しています。

ご意見・ご提案

皆様からのフィードバックは改善の原動力となります。貴重なご意見をお待ちしております!

フィードバックを送信