Antecedentes Com base na Wenshin Intelligent Body Platform, o assistente de recomendação de livros desenvolvido com o modelo mais recente do DeepSeek é capaz de fazer recomendações inteligentes de produtos com base no conteúdo do diálogo do usuário, obter conversões precisas e transações em dinheiro e criar um negócio de ciclo fechado. Este tutorial analisará profundamente a prática de desenvolvimento do assistente de recomendação de livros do DeepSeek e ajudará...
Deseja criar um aplicativo que forneça recomendações personalizadas de jogos? Este tutorial o guiará passo a passo na criação de um sistema de recomendação de jogos personalizado usando as técnicas Retrieval Augmented Generation (RAG), combinadas com os modelos DeepSeek e Ollama. Usaremos o conjunto de dados da loja Epic Games games....
Habilite o modo de programação inteligente Builder, uso ilimitado do DeepSeek-R1 e DeepSeek-V3, experiência mais suave do que a versão internacional. Basta digitar os comandos chineses, sem conhecimento de programação, para escrever seus próprios aplicativos.
Para facilitar a diferenciação, as bases de conhecimento fora da plataforma Dify são coletivamente chamadas de "bases de conhecimento externas" neste artigo. Introdução A funcionalidade da base de conhecimento integrada e os mecanismos de recuperação de texto da Dify podem não atender às necessidades de alguns desenvolvedores avançados, que podem exigir um controle mais preciso sobre os resultados da recuperação de texto. Algumas equipes optam por criar suas próprias...
Recentemente, a Dify lançou a versão 1.0.1, que corrige alguns problemas da versão anterior. De acordo com o feedback dos usuários, muitos deles estão interessados no efeito da integração do RAGFlow pela Dify. Neste artigo, apresentaremos as etapas específicas da Dify para integrar a base de conhecimento do RAGFlow e avaliaremos o efeito real da integração....
Recentemente, a Anthropic lançou o Claude 3.7 Sonnet, uma atualização para o modelo Claude 3.5 Sonnet. Embora apenas 0,2 tenha sido adicionado ao número da versão, essa atualização traz várias alterações no desempenho e na funcionalidade. Já se passaram mais de quatro meses desde a última atualização do modelo Claude, em...
Já faz algum tempo que a bolt.new uniu forças com a Anima para introduzir um recurso incrível que gera um aplicativo de pilha completa que funciona simplesmente copiando o URL do design do Figma. Na página inicial do bolt.new, clique em "Import from Figma": Em seguida, cole o URL da estrutura do Figma no campo de texto...
Introdução Este documento detalha como criar um aplicativo RAG (Retrieval Augmented Generation) localizado usando o DeepSeek R1 e o Ollama. Ele também complementa o uso do LangChain para criar aplicativos RAG localizados. Demonstraremos o processo completo de implementação com exemplos, incluindo processamento de documentos, armazenamento de vetores...
Introdução Este documento descreve como usar o ReActAgent no LlamaIndex para implementar um agente local simples em combinação com o Ollama. O LLM usado neste documento é o modelo qwen2:0.5b, porque modelos diferentes têm capacidade diferente de chamar ferramentas, você pode tentar usar um modelo diferente para implementar ...
Introdução O ReAct (Reasoning and Acting) é uma estrutura que combina raciocínio e ação para aprimorar o desempenho das inteligências em tarefas complexas. A estrutura permite que as inteligências realizem tarefas de forma mais eficaz em ambientes dinâmicos, integrando fortemente o raciocínio lógico com a ação prática. Fonte : ReAct: ...
Introdução Este documento detalha como usar a estrutura do LlamaIndex para criar um aplicativo RAG (Retrieval-Augmented Generation) local. Ao integrar o LlamaIndex, é possível criar um sistema RAG em um ambiente local que combine os recursos de recuperação e geração para melhorar a eficiência da recuperação de informações...
Este tutorial pressupõe que você já esteja familiarizado com os seguintes conceitos: Modelos de bate-papo Encadeamento de runnables Embeddings Armazenamentos de vetores Geração aumentada por recuperação Muitos projetos populares, como llama.cpp, Ollama e llamafile, mostraram a importância de executar modelos de linguagem grandes em um ambiente local. O ambiente local para a execução de grandes modelos de linguagem ...
A Dify oferece suporte ao acesso a recursos de inferência e incorporação de modelos de linguagem em larga escala implantados pelo Ollama. Acesso rápido Faça o download do Ollama Acesse a instalação e a configuração do Ollama e veja os tutoriais de implantação local do Ollama. Execute o Ollama e converse com o Llama ollama run llama3.1 Inicie o...
Introdução Este documento descreve como criar um assistente de programação local do tipo Copilot para ajudá-lo a escrever códigos mais bonitos e eficientes. Neste curso, você aprenderá a usar o Ollama para integrar assistentes de programação locais, incluindo o Continue Aider Observação: Vamos nos concentrar no VScode...
I. Implantando com o Node.js 1. Instalando o Node.js Faça o download e instale a ferramenta Node.js: https://www.nodejs.com.cn/download.html Defina a fonte espelho, por exemplo, use a seguinte fonte espelho. npm config set registry http://mirrors.cloud.tencent.com/np...
I. Estrutura de diretórios Na pasta C6 do notebook do repositório: fastapi_chat_app/ │ ├── app.py ├── websocket_handler.py ├── static/ │ └── index.html └── requirements.txt app.py FastAPI Configurações principais e roteamento do aplicativo. webso...
Introdução Este documento descreve como usar o Ollama em um ambiente JavaScript para integrar-se ao LangChain e criar aplicativos avançados de IA. O Ollama é uma ferramenta de implementação de código aberto para grandes modelos de linguagem, enquanto o LangChain é uma estrutura para criar aplicativos baseados em modelos de linguagem. Ao combinar...
Introdução Este documento descreve como usar o Ollama em um ambiente Python para se integrar ao LangChain e criar aplicativos avançados de IA. O Ollama é uma ferramenta de implantação de código aberto para modelos de linguagem grandes, enquanto o LangChain é uma estrutura para criar aplicativos baseados em modelos de linguagem. Ao combinar esses dois...
Este artigo descreve como usar a API do Ollama em Golang. Este documento foi criado para ajudar os desenvolvedores a se familiarizarem rapidamente e aproveitarem ao máximo os recursos do Ollama. O próprio Ollama foi desenvolvido na linguagem Golang, e o código da interface para a versão da linguagem Golang está disponível no diretório do repositório oficial em https://github.com/olla...
Este artigo descreve como usar a API do Ollama em C++. Este documento foi criado para ajudar os desenvolvedores de C++ a se familiarizarem rapidamente e aproveitarem ao máximo os recursos do Ollama. Ao estudar este documento, você poderá integrar facilmente o Ollama aos seus projetos. Observe que a comunidade e a documentação do Ollama podem ser mais...
Não consegue encontrar ferramentas de IA? Tente aqui!
Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.