Introdução geral
O Local Deep Research é um assistente de pesquisa de IA de código aberto projetado para ajudar os usuários a realizar pesquisas profundas e gerar relatórios detalhados para problemas complexos. Ele oferece suporte à operação local, permitindo que os usuários concluam tarefas de pesquisa sem depender de serviços em nuvem. A ferramenta combina o LLM (Large Language Modelling) local com uma variedade de funções de pesquisa que abrangem fontes como bancos de dados acadêmicos, Wikipedia, conteúdo da Web e muito mais. Os usuários podem gerar rapidamente relatórios abrangentes com citações por meio de instalação e configuração simples. O projeto enfatiza a proteção da privacidade e a flexibilidade e é adequado para pesquisa acadêmica, exploração de tecnologia ou gerenciamento de conhecimento pessoal.
Lista de funções
- Oferece suporte a modelos locais de big language para proteger a privacidade dos dados.
- Selecione automaticamente as ferramentas de pesquisa apropriadas, como Wikipedia, arXiv, PubMed, etc.
- Gerar relatórios detalhados com seções e citações estruturadas.
- Oferece uma função de resumo rápido que gera respostas breves em segundos.
- Oferece suporte à pesquisa de documentos locais, combinada com a pesquisa na Web para uma análise abrangente.
- Oferece interface web e interface de linha de comando para uma operação flexível.
- Oferece suporte à pesquisa em vários idiomas para usuários globais.
Usando a Ajuda
Processo de instalação
O Local Deep Research requer a instalação do ambiente Python e das dependências relacionadas. Aqui estão as etapas detalhadas de instalação:
- armazém de clones
Execute o seguinte comando no terminal para clonar o projeto localmente:git clone https://github.com/LearningCircuit/local-deep-research.git cd local-deep-research
- Instalação de dependências
Use as ferramentas de gerenciamento de pacotes do Python para instalar as bibliotecas necessárias:pip install -e .
Se você precisar de recursos de automação do navegador, instale o Playwright:
playwright install
- Instalação de modelos locais (Ollama)
A Local Deep Research apóia a adoção de Ollama Execute um modelo de idioma local grande. Visite https://ollama.ai para fazer o download e instalar o Ollama e, em seguida, extrair o modelo de recomendação:ollama pull gemma3:12b
Certifique-se de que o serviço Ollama esteja sendo executado em segundo plano.
- Configuração do SearXNG (opcional)
Para obter melhores resultados de pesquisa, é recomendável hospedar o serviço de pesquisa SearXNG. Execute o seguinte comando para iniciar o SearXNG:docker pull searxng/searxng docker run -d -p 8080:8080 --name searxng searxng/searxng
No diretório raiz do projeto do
.env
para configurar o endereço SearXNG:SEARXNG_INSTANCE=http://localhost:8080 SEARXNG_DELAY=2.0
- kit inicial
- interface da webExecute o seguinte comando para iniciar a versão da Web, visite http://127.0.0.1:5000:
ldr-web
- interface de linha de comandoExecute o seguinte comando para iniciar a versão de linha de comando:
ldr
- interface da webExecute o seguinte comando para iniciar a versão da Web, visite http://127.0.0.1:5000:
Operação das principais funções
1. geração de um resumo rápido
O recurso Quick Summary é para usuários que precisam de uma resposta rápida. Abra a interface da Web e insira uma pergunta de pesquisa, como "Recent advances in fusion energy" (Avanços recentes em energia de fusão). Clique no botão "Quick Summary" (Resumo rápido) e a ferramenta retornará uma resposta breve com as principais informações e fontes em alguns segundos. Se estiver usando a linha de comando, execute-a:
from local_deep_research import quick_summary
results = quick_summary(query="核聚变能源的最新进展", search_tool="auto", iterations=1, questions_per_iteration=2, max_results=30)
print(results["summary"])
Os resultados serão exibidos como texto com um breve resumo e links de referência.
2. geração de relatórios detalhados
A função de relatório detalhado é adequada para usuários que precisam de uma análise abrangente. Depois de inserir uma pergunta na interface da Web, selecione a opção "Generate Report" (Gerar relatório). A ferramenta realiza várias rodadas de pesquisa e análise e gera um relatório no formato Markdown com um índice, capítulos e citações. O tempo de geração do relatório depende da complexidade do problema e do número de rodadas de pesquisa (2 por padrão). Exemplo de operação de linha de comando:
from local_deep_research import generate_report
report = generate_report(query="核聚变能源的最新进展", search_tool="auto", iterations=2)
print(report)
O relatório gerado é salvo localmente, geralmente no diretório raiz do projeto, no caminho examples
Pasta.
3. recuperação de documentos locais
Os usuários podem carregar documentos particulares (por exemplo, PDF, TXT) em uma pasta especificada para serem analisados pela função Retrieval Augmented Generation (RAG). Configure o caminho do documento:
DOC_PATH=/path/to/your/documents
Selecione "Local Documents" (Documentos locais) como fonte de relatório na interface da Web, e a ferramenta gerará um relatório combinando documentos locais e pesquisa na Web. Operação de linha de comando:
results = quick_summary(query="分析我的文档中的AI趋势", report_source="local")
4. pesquisa multilíngue
A ferramenta oferece suporte à pesquisa em vários idiomas para perguntas que não estejam em inglês. Digite uma pergunta em chinês ou em outro idioma na interface da Web e a ferramenta adaptará automaticamente a ferramenta de pesquisa para retornar resultados relevantes. Por exemplo, se você digitar "latest breakthroughs in quantum computing", a ferramenta pesquisará fontes em chinês e inglês.
Parâmetros de configuração
Os usuários podem modificar o config.py
talvez .env
O arquivo ajusta os parâmetros:
search_tool
Selecione a ferramenta de pesquisa (padrão)auto
).iterations
Número de rodadas de estudo: defina o número de rodadas de estudo (padrão 2).max_results
Número máximo de resultados por rodada de pesquisa (padrão: 50).max_filtered_results
Número de resultados filtrados (padrão 5): Número de resultados filtrados (padrão 5).
advertência
- Garanta uma conexão estável com a Internet para pesquisar recursos externos.
- O desempenho do modelo local depende do hardware e recomenda-se a aceleração da GPU.
- Atualize regularmente o Ollama e o código do projeto para obter os recursos mais recentes.
cenário do aplicativo
- pesquisa acadêmica
Estudantes e pesquisadores podem usar o Local Deep Research para reunir rapidamente informações de artigos acadêmicos e páginas da Web para gerar relatórios citados. Por exemplo, ao pesquisar "Breakthroughs in Quantum Computing" (Avanços na computação quântica), a ferramenta recupera os artigos mais recentes do arXiv e do PubMed e gera um relatório estruturado. - Exploração de tecnologia
Os entusiastas da tecnologia podem explorar as tendências tecnológicas emergentes, como "Blockchain in the Supply Chain". A ferramenta combina documentação local e pesquisas na Web para fornecer análises abrangentes. - Gerenciamento de conhecimento pessoal
Os usuários podem carregar notas ou documentos particulares para organizar sua base de conhecimento com informações externas. Por exemplo, um relatório pessoal sobre "Previsões de desenvolvimento de IA para 2025".
QA
- A pesquisa aprofundada local exige rede?
O modelo local é executado sem uma conexão com a Internet, mas as funções de pesquisa (por exemplo, Wikipedia, arXiv) exigem uma conexão com a Internet. Os usuários podem optar por usar apenas documentos locais. - Quais modelos de linguagem grandes são suportados?
Os modelos hospedados pela Ollama são suportados por padrão, comogemma3:12b
. Os usuários podem acessar essas informações por meio doconfig.py
Configure outros modelos, como vLLM ou LMStudio. - Como a qualidade dos relatórios pode ser aprimorada?
Aumentar as rodadas de pesquisa (iterations
) e o número de resultados (max_results
), ou usar um modelo mais poderoso. Garantir que o problema seja claramente descrito também pode ajudar a aumentar a precisão. - Os sistemas Windows são compatíveis?
Sim, o projeto fornece um instalador de um clique do Windows para simplificar o processo de configuração. Visite o repositório do GitHub para fazer o download.