Aprendizagem pessoal com IA
e orientação prática
讯飞绘镜

Tutoriais práticos de IA

文心智能体挂载商品链接变现实战教程-首席AI分享圈

Tutoriais práticos de caixa de link de mercadoria montado em corpo inteligente Wenxin

Antecedentes Com base na Wenshin Intelligent Body Platform, o assistente de recomendação de livros desenvolvido com o modelo mais recente do DeepSeek é capaz de fazer recomendações inteligentes de produtos com base no conteúdo do diálogo do usuário, obter conversões precisas e transações em dinheiro e criar um negócio de ciclo fechado. Este tutorial analisará profundamente a prática de desenvolvimento do assistente de recomendação de livros do DeepSeek e ajudará...

Dify 连接外部知识库教程-首席AI分享圈

Tutorial da Dify sobre como se conectar a bases de conhecimento externas

Para facilitar a diferenciação, as bases de conhecimento fora da plataforma Dify são coletivamente chamadas de "bases de conhecimento externas" neste artigo. Introdução A funcionalidade da base de conhecimento integrada e os mecanismos de recuperação de texto da Dify podem não atender às necessidades de alguns desenvolvedores avançados, que podem exigir um controle mais preciso sobre os resultados da recuperação de texto. Algumas equipes optam por criar suas próprias...

一键将Figma设计转换为全栈应用-首席AI分享圈

Converta os designs do Figma em aplicativos de pilha completa com um clique

Já faz algum tempo que a bolt.new uniu forças com a Anima para introduzir um recurso incrível que gera um aplicativo de pilha completa que funciona simplesmente copiando o URL do design do Figma. Na página inicial do bolt.new, clique em "Import from Figma": Em seguida, cole o URL da estrutura do Figma no campo de texto...

使用 DeepSeek R1 和 Ollama 实现本地 RAG 应用-首席AI分享圈

Aplicativos RAG nativos com DeepSeek R1 e Ollama

Introdução Este documento detalha como criar um aplicativo RAG (Retrieval Augmented Generation) localizado usando o DeepSeek R1 e o Ollama. Ele também complementa o uso do LangChain para criar aplicativos RAG localizados. Demonstraremos o processo completo de implementação com exemplos, incluindo processamento de documentos, armazenamento de vetores...

Agente local com Ollama+LlamaIndex

Introdução Este documento descreve como usar o ReActAgent no LlamaIndex para implementar um agente local simples em combinação com o Ollama. O LLM usado neste documento é o modelo qwen2:0.5b, porque modelos diferentes têm capacidade diferente de chamar ferramentas, você pode tentar usar um modelo diferente para implementar ...

使用 Ollama+LangChain 实现本地 Agent-首席AI分享圈

Implementação de um agente local com Ollama+LangChain

Introdução O ReAct (Reasoning and Acting) é uma estrutura que combina raciocínio e ação para aprimorar o desempenho das inteligências em tarefas complexas. A estrutura permite que as inteligências realizem tarefas de forma mais eficaz em ambientes dinâmicos, integrando fortemente o raciocínio lógico com a ação prática. Fonte : ReAct: ...

使用 Ollama+LlamaIndex 搭建本地 RAG 应用-首席AI分享圈

Criação de um aplicativo RAG local com Ollama+LlamaIndex

Introdução Este documento detalha como usar a estrutura do LlamaIndex para criar um aplicativo RAG (Retrieval-Augmented Generation) local. Ao integrar o LlamaIndex, é possível criar um sistema RAG em um ambiente local que combine os recursos de recuperação e geração para melhorar a eficiência da recuperação de informações...

Criação de um aplicativo RAG nativo com Ollama+LangChain

Este tutorial pressupõe que você já esteja familiarizado com os seguintes conceitos: Modelos de bate-papo Encadeamento de runnables Embeddings Armazenamentos de vetores Geração aumentada por recuperação Muitos projetos populares, como llama.cpp, Ollama e llamafile, mostraram a importância de executar modelos de linguagem grandes em um ambiente local. O ambiente local para a execução de grandes modelos de linguagem ...

Ollama 本地部署模型接入 Dify-首席AI分享圈

Modelo de implantação local Ollama Access Dify

A Dify oferece suporte ao acesso a recursos de inferência e incorporação de modelos de linguagem em larga escala implantados pelo Ollama. Acesso rápido Faça o download do Ollama Acesse a instalação e a configuração do Ollama e veja os tutoriais de implantação local do Ollama. Execute o Ollama e converse com o Llama ollama run llama3.1 Inicie o...

Ollama 接入本地 AI Copilot 编程助手-首席AI分享圈

Acesso da Ollama ao assistente de programação local AI Copilot

Introdução Este documento descreve como criar um assistente de programação local do tipo Copilot para ajudá-lo a escrever códigos mais bonitos e eficientes. Neste curso, você aprenderá a usar o Ollama para integrar assistentes de programação locais, incluindo o Continue Aider Observação: Vamos nos concentrar no VScode...

OpenWebUI 部署 Ollama 可视化对话界面-首席AI分享圈

OpenWebUI Implementando a interface de diálogo visual Ollama

I. Implantando com o Node.js 1. Instalando o Node.js Faça o download e instale a ferramenta Node.js: https://www.nodejs.com.cn/download.html Defina a fonte espelho, por exemplo, use a seguinte fonte espelho. npm config set registry http://mirrors.cloud.tencent.com/np...

FastAPI 部署 Ollama 可视化对话界面-首席AI分享圈

Implementação da FastAPI Interface de diálogo visual Ollama

I. Estrutura de diretórios Na pasta C6 do notebook do repositório: fastapi_chat_app/ │ ├── app.py ├── websocket_handler.py ├── static/ │ └── index.html └── requirements.txt app.py FastAPI Configurações principais e roteamento do aplicativo. webso...

Ollama 在 LangChain 中的使用 - JavaScript 集成-首席AI分享圈

Ollama em LangChain - Integração com JavaScript

Introdução Este documento descreve como usar o Ollama em um ambiente JavaScript para integrar-se ao LangChain e criar aplicativos avançados de IA. O Ollama é uma ferramenta de implementação de código aberto para grandes modelos de linguagem, enquanto o LangChain é uma estrutura para criar aplicativos baseados em modelos de linguagem. Ao combinar...

Ollama 在 LangChain 中的使用 - Python 集成-首席AI分享圈

Ollama em LangChain - Integração com Python

Introdução Este documento descreve como usar o Ollama em um ambiente Python para se integrar ao LangChain e criar aplicativos avançados de IA. O Ollama é uma ferramenta de implantação de código aberto para modelos de linguagem grandes, enquanto o LangChain é uma estrutura para criar aplicativos baseados em modelos de linguagem. Ao combinar esses dois...

Usando a API Ollama em Golang

Este artigo descreve como usar a API do Ollama em Golang. Este documento foi criado para ajudar os desenvolvedores a se familiarizarem rapidamente e aproveitarem ao máximo os recursos do Ollama. O próprio Ollama foi desenvolvido na linguagem Golang, e o código da interface para a versão da linguagem Golang está disponível no diretório do repositório oficial em https://github.com/olla...

Usando a API Ollama em C++

Este artigo descreve como usar a API do Ollama em C++. Este documento foi criado para ajudar os desenvolvedores de C++ a se familiarizarem rapidamente e aproveitarem ao máximo os recursos do Ollama. Ao estudar este documento, você poderá integrar facilmente o Ollama aos seus projetos. Observe que a comunidade e a documentação do Ollama podem ser mais...

pt_BRPortuguês do Brasil