AI Personal Learning
und praktische Anleitung
CyberKnife-Zeichenspiegel

Local Deep Research: ein lokal betriebenes Tool zur Erstellung detaillierter Forschungsberichte

Allgemeine Einführung

Local Deep Research ist ein quelloffener KI-Forschungsassistent, der Nutzern helfen soll, tiefgreifende Forschungen durchzuführen und detaillierte Berichte für komplexe Probleme zu erstellen. Er unterstützt den lokalen Betrieb, so dass Nutzer Forschungsaufgaben erledigen können, ohne auf Cloud-Dienste angewiesen zu sein. Das Tool kombiniert Local Large Language Modelling (LLM) mit einer Vielzahl von Suchfunktionen, die Quellen wie akademische Datenbanken, Wikipedia, Webinhalte und mehr abdecken. Durch einfache Installation und Konfiguration können Nutzer schnell umfassende Berichte mit Zitaten erstellen. Das Projekt betont den Schutz der Privatsphäre und die Flexibilität und eignet sich für die akademische Forschung, die Erforschung von Technologien oder das persönliche Wissensmanagement.

Local Deep Research: ein lokal betriebenes Tool zur Erstellung eingehender Forschungsberichte-1


 

Funktionsliste

  • Unterstützt lokale große Sprachmodelle zum Schutz des Datenschutzes.
  • Automatische Auswahl geeigneter Suchwerkzeuge wie Wikipedia, arXiv, PubMed usw.
  • Erstellen Sie detaillierte Berichte mit strukturierten Abschnitten und Zitaten.
  • Bietet eine Schnellzusammenfassungsfunktion, die in Sekundenschnelle kurze Antworten liefert.
  • Unterstützt die lokale Dokumentensuche, kombiniert mit der Websuche für umfassende Analysen.
  • Bietet eine Webschnittstelle und eine Befehlszeilenschnittstelle für einen flexiblen Betrieb.
  • Unterstützt die mehrsprachige Suche für globale Benutzer.

 

Hilfe verwenden

Einbauverfahren

Local Deep Research erfordert die Installation der Python-Umgebung und der zugehörigen Abhängigkeiten. Hier sind die detaillierten Installationsschritte:

  1. Klon-Lager
    Führen Sie den folgenden Befehl im Terminal aus, um das Projekt lokal zu klonen:

    git clone https://github.com/LearningCircuit/local-deep-research.git
    cd local-deep-research
  1. Installation von Abhängigkeiten
    Verwenden Sie die Python-Paketverwaltungswerkzeuge, um die erforderlichen Bibliotheken zu installieren:

    pip install -e .
    

    Wenn Sie Funktionen zur Browser-Automatisierung benötigen, installieren Sie Playwright:

    playwright install
    
  2. Installation von lokalen Modellen (Ollama)
    Local Deep Research unterstützt die Einführung von Ollama Führen Sie ein lokales großes Sprachmodell aus. Besuchen Sie https://ollama.ai, um Ollama herunterzuladen und zu installieren, und ziehen Sie dann das Empfehlungsmodell:

    ollama pull gemma3:12b
    

    Stellen Sie sicher, dass der Ollama-Dienst im Hintergrund läuft.

  3. SearXNG konfigurieren (optional)
    Um optimale Suchergebnisse zu erzielen, wird empfohlen, den Suchdienst SearXNG selbst zu hosten. Führen Sie den folgenden Befehl aus, um SearXNG zu starten:

    docker pull searxng/searxng
    docker run -d -p 8080:8080 --name searxng searxng/searxng
    

    Im Projektstammverzeichnis des .env Datei, um die SearXNG-Adresse zu konfigurieren:

    SEARXNG_INSTANCE=http://localhost:8080
    SEARXNG_DELAY=2.0
    
  4. Einsteigerpaket
    • WebschnittstelleFühren Sie den folgenden Befehl aus, um die Webversion zu starten, besuchen Sie http://127.0.0.1:5000:
      ldr-web
      
    • Befehlszeilenschnittstelle: Führen Sie den folgenden Befehl aus, um die Kommandozeilenversion zu starten:
      ldr
      

Bedienung der Hauptfunktionen

1. die Erstellung einer kurzen Zusammenfassung

Die Funktion "Quick Summary" ist für Benutzer gedacht, die eine schnelle Antwort benötigen. Öffnen Sie die Webschnittstelle und geben Sie eine Forschungsfrage ein, z. B. "Jüngste Fortschritte in der Fusionsenergie". Klicken Sie auf die Schaltfläche "Quick Summary", und das Tool liefert in wenigen Sekunden eine kurze Antwort mit den wichtigsten Informationen und Quellen. Wenn Sie die Befehlszeile verwenden, führen Sie es aus:

from local_deep_research import quick_summary
results = quick_summary(query="核聚变能源的最新进展", search_tool="auto", iterations=1, questions_per_iteration=2, max_results=30)
print(results["summary"])

Die Ergebnisse werden als Text mit einer kurzen Zusammenfassung und Verweislinks ausgegeben.

2. die Erstellung von detaillierten Berichten

Die Funktion "Detaillierter Bericht" ist für Benutzer geeignet, die eine umfassende Analyse benötigen. Nach Eingabe einer Frage in der Weboberfläche wählen Sie die Option "Bericht erstellen". Das Tool führt mehrere Such- und Analyserunden durch und erstellt einen Bericht im Markdown-Format mit einem Inhaltsverzeichnis, Kapiteln und Zitaten. Die Dauer der Berichterstellung hängt von der Komplexität des Problems und der Anzahl der Suchdurchgänge (standardmäßig 2) ab. Beispiel für eine Befehlszeilenoperation:

from local_deep_research import generate_report
report = generate_report(query="核聚变能源的最新进展", search_tool="auto", iterations=2)
print(report)

Der erzeugte Bericht wird lokal gespeichert, normalerweise im Stammverzeichnis des Projekts unter dem Pfad examples Mappe.

3. lokales Auffinden von Dokumenten

Benutzer können private Dokumente (z.B. PDF, TXT) in einen bestimmten Ordner hochladen, um sie mit der Retrieval Augmented Generation (RAG) Funktion zu analysieren. Konfigurieren Sie den Dokumentenpfad:

DOC_PATH=/path/to/your/documents

Wählen Sie in der Weboberfläche "Lokale Dokumente" als Berichtsquelle, und das Tool erstellt einen Bericht, der lokale Dokumente und Websuche kombiniert. Befehlszeilenbetrieb:

results = quick_summary(query="分析我的文档中的AI趋势", report_source="local")

4. mehrsprachige Suche

Das Tool unterstützt die mehrsprachige Suche nach nicht-englischen Fragen. Geben Sie eine Frage in Chinesisch oder einer anderen Sprache in die Weboberfläche ein, und das Tool passt die Suchfunktion automatisch an, um relevante Ergebnisse zu liefern. Wenn Sie zum Beispiel "Neueste Durchbrüche im Quantencomputing" eingeben, sucht das Tool sowohl in chinesischen als auch in englischen Quellen.

Konfigurationsparameter

Die Benutzer können die config.py vielleicht .env Die Datei passt die Parameter an:

  • search_tool: Suchwerkzeug auswählen (Standard) auto).
  • iterationsLegen Sie die Anzahl der Studienrunden fest (Standardwert 2).
  • max_resultsMaximale Anzahl von Ergebnissen pro Suchrunde (Standardwert 50).
  • max_filtered_resultsAnzahl der gefilterten Ergebnisse (Standardwert: 5).

caveat

  • Stellen Sie eine stabile Internetverbindung für die Suche nach externen Ressourcen sicher.
  • Die Leistung des lokalen Modells hängt von der Hardware ab, und eine GPU-Beschleunigung wird empfohlen.
  • Aktualisieren Sie Ollama und den Projektcode regelmäßig mit den neuesten Funktionen.

 

Anwendungsszenario

  1. akademische Forschung
    Studierende und Forscher können Local Deep Research nutzen, um schnell Informationen aus akademischen Artikeln und Webseiten zu sammeln und zitierte Berichte zu erstellen. Bei der Recherche zu "Breakthroughs in Quantum Computing" zum Beispiel ruft das Tool die neuesten Veröffentlichungen von arXiv und PubMed ab und erstellt einen strukturierten Bericht.
  2. Technologie-Erkundung
    Technologiebegeisterte können aufkommende Technologietrends wie "Blockchain in der Lieferkette" erkunden. Das Tool kombiniert lokale Dokumentationen und Websuchen, um umfassende Analysen zu erstellen.
  3. Persönliches Wissensmanagement
    Nutzer können private Notizen oder Dokumente hochladen, um ihre Wissensdatenbank mit externen Informationen zu organisieren. Zum Beispiel ein persönlicher Bericht über "KI-Entwicklungsprognosen 2025".

 

QA

  1. Erfordert die lokale Tiefenforschung eine Vernetzung?
    Das lokale Modell läuft ohne Internetverbindung, aber die Suchfunktionen (z. B. Wikipedia, arXiv) erfordern eine Internetverbindung. Die Benutzer können wählen, ob sie nur lokale Dokumente verwenden möchten.
  2. Welche großen Sprachmodelle werden unterstützt?
    Von Ollama gehostete Modelle werden standardmäßig unterstützt, wie z. B. gemma3:12b. Die Nutzer können auf diese Informationen über die config.py Konfigurieren Sie andere Modelle wie z. B. vLLM oder LMStudio.
  3. Wie kann die Qualität der Berichterstattung verbessert werden?
    Suchrunden erhöhen (iterations) und Anzahl der Ergebnisse (max_results), oder ein leistungsfähigeres Modell verwenden. Eine klare Beschreibung des Problems kann ebenfalls zur Verbesserung der Genauigkeit beitragen.
  4. Werden Windows-Systeme unterstützt?
    Ja, das Projekt bietet ein Windows-Ein-Klick-Installationsprogramm, um den Konfigurationsprozess zu vereinfachen. Besuchen Sie das GitHub-Repository zum Herunterladen.
Darf nicht ohne Genehmigung vervielfältigt werden:Leiter des AI-Austauschkreises " Local Deep Research: ein lokal betriebenes Tool zur Erstellung detaillierter Forschungsberichte
de_DEDeutsch