AI个人学习
和实操指南
TRAE

Local Deep Research:本地运行的生成深度研究报告工具

综合介绍

Local Deep Research 是一个开源的人工智能研究助手,旨在帮助用户针对复杂问题进行深度研究并生成详细的报告。它支持本地运行,使用户可以在不依赖云服务的情况下完成研究任务。工具结合了本地大语言模型(LLM)与多种搜索功能,覆盖学术数据库、维基百科、网页内容等来源。用户可以通过简单的安装和配置,快速生成包含引文的综合报告。项目强调隐私保护和灵活性,适合学术研究、技术探索或个人知识管理。

Local Deep Research:本地运行的生成深度研究报告工具-1


 

功能列表

  • 支持本地大语言模型,保护数据隐私。
  • 自动选择合适的搜索工具,如维基百科、arXiv、PubMed 等。
  • 生成详细的报告,包含结构化章节和引文。
  • 提供快速摘要功能,数秒内生成简要答案。
  • 支持本地文档检索,结合网页搜索进行综合分析。
  • 提供网页界面和命令行界面,操作灵活。
  • 支持多语言搜索,适合全球用户。

 

使用帮助

安装流程

Local Deep Research 需要安装 Python 环境和相关依赖。以下是详细的安装步骤:

  1. 克隆仓库
    在终端运行以下命令,将项目克隆到本地:

    git clone https://github.com/LearningCircuit/local-deep-research.git
    cd local-deep-research
  1. 安装依赖
    使用 Python 的包管理工具安装所需库:

    pip install -e .
    

    如果需要浏览器自动化功能,安装 Playwright:

    playwright install
    
  2. 安装本地模型(Ollama)
    Local Deep Research 支持通过 Ollama 运行本地大语言模型。访问 https://ollama.ai 下载并安装 Ollama,然后拉取推荐模型:

    ollama pull gemma3:12b
    

    确保 Ollama 服务在后台运行。

  3. 配置 SearXNG(可选)
    为获得最佳搜索效果,建议自托管 SearXNG 搜索服务。运行以下命令启动 SearXNG:

    docker pull searxng/searxng
    docker run -d -p 8080:8080 --name searxng searxng/searxng
    

    在项目根目录的 .env 文件中配置 SearXNG 地址:

    SEARXNG_INSTANCE=http://localhost:8080
    SEARXNG_DELAY=2.0
    
  4. 启动工具
    • 网页界面:运行以下命令启动网页版,访问 http://127.0.0.1:5000:
      ldr-web
      
    • 命令行界面:运行以下命令启动命令行版:
      ldr
      

操作主要功能

1. 生成快速摘要

快速摘要功能适合需要快速答案的用户。打开网页界面,输入研究问题,例如“核聚变能源的最新进展”。点击“快速摘要”按钮,工具会在几秒内返回简要答案,包含关键信息和来源。如果使用命令行,运行:

from local_deep_research import quick_summary
results = quick_summary(query="核聚变能源的最新进展", search_tool="auto", iterations=1, questions_per_iteration=2, max_results=30)
print(results["summary"])

结果会以文本形式输出,包含简短的总结和参考链接。

2. 生成详细报告

详细报告功能适合需要全面分析的用户。在网页界面输入问题后,选择“生成报告”选项。工具会进行多轮搜索和分析,生成包含目录、章节和引文的 Markdown 格式报告。报告生成时间取决于问题的复杂度和搜索轮次(默认 2 轮)。命令行操作示例:

from local_deep_research import generate_report
report = generate_report(query="核聚变能源的最新进展", search_tool="auto", iterations=2)
print(report)

生成的报告会保存在本地,路径通常为项目根目录下的 examples 文件夹。

3. 本地文档检索

用户可以将私人文档(如 PDF、TXT)上传至指定文件夹,通过检索增强生成(RAG)功能分析。配置文档路径:

DOC_PATH=/path/to/your/documents

在网页界面选择“本地文档”作为报告来源,工具会结合本地文档和网页搜索生成报告。命令行操作:

results = quick_summary(query="分析我的文档中的AI趋势", report_source="local")

4. 多语言搜索

工具支持多语言搜索,适合非英语问题。在网页界面输入中文或其他语言的问题,工具会自动适配搜索工具,返回相关结果。例如,输入“量子计算的最新突破”,工具会搜索中文和英文来源。

配置参数

用户可以通过修改 config.py 或 .env 文件调整参数:

  • search_tool:选择搜索工具(默认 auto)。
  • iterations:设置研究轮次(默认 2)。
  • max_results:每轮搜索的最大结果数(默认 50)。
  • max_filtered_results:过滤后的结果数(默认 5)。

注意事项

  • 确保网络连接稳定,以便搜索外部资源。
  • 本地模型性能取决于硬件,推荐使用 GPU 加速。
  • 定期更新 Ollama 和项目代码,以获取最新功能。

 

应用场景

  1. 学术研究
    学生和研究人员可以使用 Local Deep Research 快速收集学术论文和网页信息,生成带引文的报告。例如,研究“量子计算的突破”时,工具会从 arXiv 和 PubMed 检索最新论文,生成结构化报告。
  2. 技术探索
    技术爱好者可以探索新兴技术趋势,如“区块链在供应链中的应用”。工具结合本地文档和网页搜索,提供全面分析。
  3. 个人知识管理
    用户可以将私人笔记或文档上传,结合外部信息整理知识库。例如,整理“2025年AI发展预测”的个人报告。

 

QA

  1. Local Deep Research 是否需要联网?
    本地模型运行不需要联网,但搜索功能(如维基百科、arXiv)需要网络连接。用户可选择仅使用本地文档。
  2. 支持哪些大语言模型?
    默认支持 Ollama 托管的模型,如 gemma3:12b。用户可通过 config.py 配置其他模型,如 vLLM 或 LMStudio。
  3. 如何提高报告质量?
    增加搜索轮次(iterations)和结果数量(max_results),或使用更强大的模型。确保问题描述清晰也有助于提高准确性。
  4. 是否支持 Windows 系统?
    是的,项目提供 Windows 一键安装包,简化配置流程。访问 GitHub 仓库下载。
未经允许不得转载:首席AI分享圈 » Local Deep Research:本地运行的生成深度研究报告工具
zh_CN简体中文