Allgemeine Einführung
Local Deep Research ist ein quelloffener KI-Forschungsassistent, der Nutzern helfen soll, tiefgreifende Forschungen durchzuführen und detaillierte Berichte für komplexe Probleme zu erstellen. Er unterstützt den lokalen Betrieb, so dass Nutzer Forschungsaufgaben erledigen können, ohne auf Cloud-Dienste angewiesen zu sein. Das Tool kombiniert Local Large Language Modelling (LLM) mit einer Vielzahl von Suchfunktionen, die Quellen wie akademische Datenbanken, Wikipedia, Webinhalte und mehr abdecken. Durch einfache Installation und Konfiguration können Nutzer schnell umfassende Berichte mit Zitaten erstellen. Das Projekt betont den Schutz der Privatsphäre und die Flexibilität und eignet sich für die akademische Forschung, die Erforschung von Technologien oder das persönliche Wissensmanagement.
Funktionsliste
- Unterstützt lokale große Sprachmodelle zum Schutz des Datenschutzes.
- Automatische Auswahl geeigneter Suchwerkzeuge wie Wikipedia, arXiv, PubMed usw.
- Erstellen Sie detaillierte Berichte mit strukturierten Abschnitten und Zitaten.
- Bietet eine Schnellzusammenfassungsfunktion, die in Sekundenschnelle kurze Antworten liefert.
- Unterstützt die lokale Dokumentensuche, kombiniert mit der Websuche für umfassende Analysen.
- Bietet eine Webschnittstelle und eine Befehlszeilenschnittstelle für einen flexiblen Betrieb.
- Unterstützt die mehrsprachige Suche für globale Benutzer.
Hilfe verwenden
Einbauverfahren
Local Deep Research erfordert die Installation der Python-Umgebung und der zugehörigen Abhängigkeiten. Hier sind die detaillierten Installationsschritte:
- Klon-Lager
Führen Sie den folgenden Befehl im Terminal aus, um das Projekt lokal zu klonen:git clone https://github.com/LearningCircuit/local-deep-research.git cd local-deep-research
- Installation von Abhängigkeiten
Verwenden Sie die Python-Paketverwaltungswerkzeuge, um die erforderlichen Bibliotheken zu installieren:pip install -e .
Wenn Sie Funktionen zur Browser-Automatisierung benötigen, installieren Sie Playwright:
playwright install
- Installation von lokalen Modellen (Ollama)
Local Deep Research unterstützt die Einführung von Ollama Führen Sie ein lokales großes Sprachmodell aus. Besuchen Sie https://ollama.ai, um Ollama herunterzuladen und zu installieren, und ziehen Sie dann das Empfehlungsmodell:ollama pull gemma3:12b
Stellen Sie sicher, dass der Ollama-Dienst im Hintergrund läuft.
- SearXNG konfigurieren (optional)
Um optimale Suchergebnisse zu erzielen, wird empfohlen, den Suchdienst SearXNG selbst zu hosten. Führen Sie den folgenden Befehl aus, um SearXNG zu starten:docker pull searxng/searxng docker run -d -p 8080:8080 --name searxng searxng/searxng
Im Projektstammverzeichnis des
.env
Datei, um die SearXNG-Adresse zu konfigurieren:SEARXNG_INSTANCE=http://localhost:8080 SEARXNG_DELAY=2.0
- Einsteigerpaket
- WebschnittstelleFühren Sie den folgenden Befehl aus, um die Webversion zu starten, besuchen Sie http://127.0.0.1:5000:
ldr-web
- Befehlszeilenschnittstelle: Führen Sie den folgenden Befehl aus, um die Kommandozeilenversion zu starten:
ldr
- WebschnittstelleFühren Sie den folgenden Befehl aus, um die Webversion zu starten, besuchen Sie http://127.0.0.1:5000:
Bedienung der Hauptfunktionen
1. die Erstellung einer kurzen Zusammenfassung
Die Funktion "Quick Summary" ist für Benutzer gedacht, die eine schnelle Antwort benötigen. Öffnen Sie die Webschnittstelle und geben Sie eine Forschungsfrage ein, z. B. "Jüngste Fortschritte in der Fusionsenergie". Klicken Sie auf die Schaltfläche "Quick Summary", und das Tool liefert in wenigen Sekunden eine kurze Antwort mit den wichtigsten Informationen und Quellen. Wenn Sie die Befehlszeile verwenden, führen Sie es aus:
from local_deep_research import quick_summary
results = quick_summary(query="核聚变能源的最新进展", search_tool="auto", iterations=1, questions_per_iteration=2, max_results=30)
print(results["summary"])
Die Ergebnisse werden als Text mit einer kurzen Zusammenfassung und Verweislinks ausgegeben.
2. die Erstellung von detaillierten Berichten
Die Funktion "Detaillierter Bericht" ist für Benutzer geeignet, die eine umfassende Analyse benötigen. Nach Eingabe einer Frage in der Weboberfläche wählen Sie die Option "Bericht erstellen". Das Tool führt mehrere Such- und Analyserunden durch und erstellt einen Bericht im Markdown-Format mit einem Inhaltsverzeichnis, Kapiteln und Zitaten. Die Dauer der Berichterstellung hängt von der Komplexität des Problems und der Anzahl der Suchdurchgänge (standardmäßig 2) ab. Beispiel für eine Befehlszeilenoperation:
from local_deep_research import generate_report
report = generate_report(query="核聚变能源的最新进展", search_tool="auto", iterations=2)
print(report)
Der erzeugte Bericht wird lokal gespeichert, normalerweise im Stammverzeichnis des Projekts unter dem Pfad examples
Mappe.
3. lokales Auffinden von Dokumenten
Benutzer können private Dokumente (z.B. PDF, TXT) in einen bestimmten Ordner hochladen, um sie mit der Retrieval Augmented Generation (RAG) Funktion zu analysieren. Konfigurieren Sie den Dokumentenpfad:
DOC_PATH=/path/to/your/documents
Wählen Sie in der Weboberfläche "Lokale Dokumente" als Berichtsquelle, und das Tool erstellt einen Bericht, der lokale Dokumente und Websuche kombiniert. Befehlszeilenbetrieb:
results = quick_summary(query="分析我的文档中的AI趋势", report_source="local")
4. mehrsprachige Suche
Das Tool unterstützt die mehrsprachige Suche nach nicht-englischen Fragen. Geben Sie eine Frage in Chinesisch oder einer anderen Sprache in die Weboberfläche ein, und das Tool passt die Suchfunktion automatisch an, um relevante Ergebnisse zu liefern. Wenn Sie zum Beispiel "Neueste Durchbrüche im Quantencomputing" eingeben, sucht das Tool sowohl in chinesischen als auch in englischen Quellen.
Konfigurationsparameter
Die Benutzer können die config.py
vielleicht .env
Die Datei passt die Parameter an:
search_tool
: Suchwerkzeug auswählen (Standard)auto
).iterations
Legen Sie die Anzahl der Studienrunden fest (Standardwert 2).max_results
Maximale Anzahl von Ergebnissen pro Suchrunde (Standardwert 50).max_filtered_results
Anzahl der gefilterten Ergebnisse (Standardwert: 5).
caveat
- Stellen Sie eine stabile Internetverbindung für die Suche nach externen Ressourcen sicher.
- Die Leistung des lokalen Modells hängt von der Hardware ab, und eine GPU-Beschleunigung wird empfohlen.
- Aktualisieren Sie Ollama und den Projektcode regelmäßig mit den neuesten Funktionen.
Anwendungsszenario
- akademische Forschung
Studierende und Forscher können Local Deep Research nutzen, um schnell Informationen aus akademischen Artikeln und Webseiten zu sammeln und zitierte Berichte zu erstellen. Bei der Recherche zu "Breakthroughs in Quantum Computing" zum Beispiel ruft das Tool die neuesten Veröffentlichungen von arXiv und PubMed ab und erstellt einen strukturierten Bericht. - Technologie-Erkundung
Technologiebegeisterte können aufkommende Technologietrends wie "Blockchain in der Lieferkette" erkunden. Das Tool kombiniert lokale Dokumentationen und Websuchen, um umfassende Analysen zu erstellen. - Persönliches Wissensmanagement
Nutzer können private Notizen oder Dokumente hochladen, um ihre Wissensdatenbank mit externen Informationen zu organisieren. Zum Beispiel ein persönlicher Bericht über "KI-Entwicklungsprognosen 2025".
QA
- Erfordert die lokale Tiefenforschung eine Vernetzung?
Das lokale Modell läuft ohne Internetverbindung, aber die Suchfunktionen (z. B. Wikipedia, arXiv) erfordern eine Internetverbindung. Die Benutzer können wählen, ob sie nur lokale Dokumente verwenden möchten. - Welche großen Sprachmodelle werden unterstützt?
Von Ollama gehostete Modelle werden standardmäßig unterstützt, wie z. B.gemma3:12b
. Die Nutzer können auf diese Informationen über dieconfig.py
Konfigurieren Sie andere Modelle wie z. B. vLLM oder LMStudio. - Wie kann die Qualität der Berichterstattung verbessert werden?
Suchrunden erhöhen (iterations
) und Anzahl der Ergebnisse (max_results
), oder ein leistungsfähigeres Modell verwenden. Eine klare Beschreibung des Problems kann ebenfalls zur Verbesserung der Genauigkeit beitragen. - Werden Windows-Systeme unterstützt?
Ja, das Projekt bietet ein Windows-Ein-Klick-Installationsprogramm, um den Konfigurationsprozess zu vereinfachen. Besuchen Sie das GitHub-Repository zum Herunterladen.