はじめに
CleverBeeはGitHubでホストされているオープンソースのAI研究アシスタントで、SureScaleAIによって開発された。大規模な言語モデル(例. ジェミニ CleverBeeは、Webブラウジング技術と、引用された研究レポートを作成するための迅速な情報収集、分析、要約機能を組み合わせたWebブラウジングソリューションです。ユーザーは、ウェブページ、PDF、YouTubeビデオ、または学術リソースから正確なコンテンツに簡単にアクセスすることができます。CleverBeeは、クラウドとローカルの両方のモデルをサポートしており、学術研究、ビジネス分析、およびその他のシナリオに適しています。インターフェイスはChainlitをベースとしており、シンプルで直感的な操作と柔軟な設定で、個人や研究チームに適しています。
機能一覧
- Gemini、Claude、ネイティブGGUFモデルなど、幅広い大規模言語モデルをサポート。
- ウェブ閲覧を自動化し、HTMLコンテンツを抽出して構造化データにクレンジングします。
- 出典の引用や制限事項の注記を含む引用を含む研究論文を作成する。
- YouTube動画字幕抽出、PDF解析、PubMed学術検索をサポート。
- トークンの使用量とコストをリアルタイムで追跡し、リソース管理を最適化します。
- とおす
config.yaml
カスタマイズモデル、ブラウザの動作、調査ツールを文書化する。 - ユーザーがクエリーを入力し、結果を表示するための統合されたChainlit対話型インターフェース。
- SQLiteデータベースのNormalizingCacheキャッシュを使用することで、パフォーマンスを向上させ、コストを削減します。
ヘルプの使用
設置プロセス
CleverBeeのインストールは簡単で、GitHubリポジトリから詳細な手順が入手できる。以下がその手順だ:
- クローン倉庫
ターミナルを開き、以下のコマンドを実行して CleverBee リポジトリをクローンします:git clone https://github.com/SureScaleAI/cleverbee.git cd cleverbee
- インストール・スクリプトの実行
インストールスクリプトを実行して環境を設定する:bash setup.sh
スクリプトは以下のタスクを自動化する:
- 必要な依存関係をチェックする(例えば
python3
そしてjq
そしてyq
歌で応えるcmake
). - Python仮想環境(
venv/
). - 取り付け
requirements.txt
Pythonの依存関係を - ハードウェアを検出し、ローカルモデルが有効かどうかを尋ねます(24GB以上のビデオメモリを搭載したNVIDIA GPUを推奨)。
- ローカルモデルを選択した場合、インストール
llama-cpp-python
とCUDAアクセラレーション(NVIDIA GPU用)を有効にします。 - Hugging Faceへのログインを促します(ローカルモデルを使用している場合)。
- メインの推論モデルとサマリーモデルの設定に役立ち、以下を更新する。
config.yaml
. - 選択したローカルGGUFモデル(該当する場合)をダウンロードします。
- 必要な依存関係をチェックする(例えば
- APIキーの設定
GeminiやClaudeなどのクラウドモデルを使用する場合は、APIキーが必要です。インストールスクリプトはモデルの選択をチェックし、ユーザーにキーを.env
ドキュメンテーション- Anthropic APIキーより アンソロピック コンソールの取得 クロード モデル
- Google Gemini APIキーより グーグルAIスタジオ 双子座モデル用。
キーを追加した後、有効にするにはアプリケーションを再起動する必要があります。ユーザーは.env
ファイル更新キー。
- アプリケーションを起動する
インストールが完了したら、以下のコマンドを実行して CleverBee を起動します:bash run.sh
これによってチェインリットのインタラクティブ・インターフェイスが起動し、ブラウザー経由でユーザーがアクセスできるようになる。
システム要件
- オペレーティングシステムmacOS(IntelおよびApple Silicon、Rosetta 2が必要)とLinuxをサポート。
- ソフトウェアクラウドモデルには高性能ハードウェアは必要ありません。ローカルモデルにはNVIDIA GPU(グラフィックメモリ≥24GB)を推奨します。
- 依存関係インストールを確認してください。
python3
そしてgit
そしてjq
そしてcmake
歌で応えるnode
macOSユーザーはHomebrew経由でインストールできる:brew install python cmake git jq node
使用方法
CleverBeeの中心的な機能は、引用を含む調査レポートを作成することです。以下はその詳細な手順です:
- 起動インターフェース
うごきだすrun.sh
ブラウザはChainlitインターフェイスを開きます。ここでユーザーは、「量子コンピューティングの最近の進歩」や「持続可能なエネルギーの経済的影響」など、研究上の質問やトピックを入力することができる。 - クエリーを入力する
インターフェイスの入力ボックスに質問を入力すると、CleverBeeは自動的に調査経路をプロットし、ウェブ閲覧ツール、YouTubeの字幕抽出、または学術検索モジュールを呼び出して情報を収集します。ユーザーは、研究の進捗状況をリアルタイムで確認することができます。 - レポートを見る
調査が完了すると、CleverBee は以下の内容を含むレポートを作成します:- 統合と要約:収集した情報に基づいて簡潔な結論を導き出す。
- 出典の引用:すべての参考文献のリンクまたは出典を記載する。
- 制限事項:AIの制限事項を説明し、出典を確認するよう注意を促す。
- トークン使用量:モデル呼び出し時のリソース消費量を示す。
- カスタム設定
ユーザーが編集可能config.yaml
このファイルは、例えば、設定を調整する:- メインの推論モデルを変更する(Gemini 2.5 Pro推奨)。
- プロキシの動作設定(ウェブ閲覧の深さなど)。
- トークン制限やキャッシュポリシーを調整する。
設定ドキュメントはhttps://cleverb.ee/docs
.
- 注目の機能操作
- YouTube字幕抽出YouTubeビデオへのリンクを入力すると、CleverBeeが自動的に字幕を抽出し、レポートに統合します。
- PDFパースPDFファイルをアップロードすると、CleverBeeがテキストを抽出し、主要な要素を要約します。
- パブコメ検索医療関連のトピックを入力すると、PubMedデータベースから権威ある文献を検索します。
- リアルタイムのコスト追跡このインターフェイスは、ユーザーが予算を最適化できるように、クエリごとのトークン消費量を表示します。
ほら
- ローカルモデルはハードウェア要件が高く、最適なパフォーマンスを得るにはクラウドモデルが推奨される。
- AIが幻覚を見ている可能性もある。
- このプロジェクトは非商用利用であり、GNU Afferoライセンスに従っている。
アプリケーションシナリオ
- 学術研究
学生や研究者は、CleverBeeを使用して、学術論文、ウェブ記事、ビデオをすばやく収集し、完全に引用された文献レビューを作成することができます。例えば、「人工知能の倫理」を研究する場合、CleverBeeはPubMedや学術サイトから関連文献を抽出することができます。 - ビジネス分析
ビジネスユーザは、市場動向や競合他社の情報を分析することができます。例えば、"Electric Vehicle Market Forecast 2025 "と入力すると、CleverBeeは業界レポートやニュースを閲覧し、データに基づいたサマリーを生成します。 - パーソナル・ラーニング
CleverBeeは、「ブロックチェーン技術の応用」のような複雑なトピックを探求するカジュアルユーザー向けに、YouTubeのチュートリアルや権威ある記事など、多角的な視点を提供し、ユーザーが包括的な理解を深められるよう支援します。
品質保証
- クレバービーの対応機種を教えてください。
Gemini、Claude、ネイティブGGUFモデル(例)をサポート。 ディープシーク (R1、ラマ)。クラウドモデルはより安定した性能を持ち、ローカルモデルはプライバシー要件に適している。 - ランニングコストを削減するには?
NormalisingCacheキャッシュで重複クエリを減らす。Gemini 2.5 Flashのような低コストのモデルを選択し、インターフェイスを通してトークンの使用状況を監視します。 - その報告書は信頼できるのか?
レポートは信頼できる情報源に基づいており、引用も提供されているが、AIには幻覚があるかもしれない。利用者は重要な情報を確認することをお勧めする。 - プログラミングの経験は必要ですか?
プログラミングの経験は必要ありません。インストール・スクリプトが設定を自動化し、Chainlitインターフェースは使いやすい。