Se você já leu o último artigo clássico de Jina, "Design and Implementation of DeepSearch/DeepResearch", talvez queira se aprofundar em alguns detalhes que podem melhorar significativamente a qualidade das respostas. Desta vez, vamos nos concentrar em dois detalhes: extração de segmentos de texto ideais de páginas da Web longas: como usar a...
Introdução abrangente O VACE é um projeto de código aberto desenvolvido pelo Alitongyi Visual Intelligence Lab (ali-vilab), com foco na criação e edição de vídeos. É uma ferramenta completa que integra vários recursos, como geração de vídeos com base em referências, edição de conteúdo de vídeo existente, modificações de localização e assim por diante. O projeto foi lançado em 2025 ...
Habilite o modo de programação inteligente Builder, uso ilimitado do DeepSeek-R1 e DeepSeek-V3, experiência mais suave do que a versão internacional. Basta digitar os comandos chineses, sem conhecimento de programação, para escrever seus próprios aplicativos.
Em dezembro passado, o Gemini 2.0 Flash foi apresentado pela primeira vez a testadores beta selecionados com seus recursos de saída de imagem nativa. Agora, os desenvolvedores podem experimentar esse novo recurso em todas as áreas suportadas pelo Google AI Studio. Os desenvolvedores podem acessar o Gemini 2.0 Flash por meio do Google AI Studio (gemini-2.0-flash-exp ...
Introdução O Ollama fornece uma API REST avançada que permite que os desenvolvedores interajam facilmente com grandes modelos de linguagem. Com a API do Ollama, os usuários podem enviar solicitações e receber respostas geradas pelo modelo, aplicadas a tarefas como processamento de linguagem natural, geração de texto e assim por diante. Neste documento, apresentaremos os detalhes da geração de complementos, geração de diálogos ...
Windows A seguir, um exemplo de como personalizar o Ollama para ser executado na GPU em um sistema Windows. Para obter uma inferência mais rápida, você pode configurar a GPU usada pelo Ollama. Este tutorial o orientará sobre como configurar o anel em um sistema Windows...
Tomando o sistema Windows como exemplo, os modelos extraídos pelo Ollama são armazenados na unidade C por padrão. Se você precisar extrair mais de um modelo, a unidade C ficará cheia, afetando o espaço de armazenamento da unidade C. Portanto, esta seção apresentará como personalizar o modelo do Ollama no Windows, Linux e MacOS...
Introdução Nesta seção, aprenderemos a usar o Modelfile para personalizar a importação de modelos, que está dividida nas seguintes seções: Importando do GGUF Importando do Pytorch ou Safetensors Importando de modelos diretamente Importando de modelos Personalizando prompts I. Importando do GGUF Importando do GGUF (GPT-Generated Unified ...
Introdução Esta seção ensina como concluir a instalação e a configuração do Ollama no Docker. O Docker é uma tecnologia de contêineres virtualizados que se baseia em imagens e pode iniciar vários contêineres em segundos. Cada um desses contêineres é um ambiente de tempo de execução completo que permite o isolamento entre os contêineres. Ollama Download ...
Introdução Esta seção ensina como concluir a instalação e a configuração do Ollama em um sistema Linux, bem como a atualização do Ollama, instalações específicas de versões, visualização de registros e desinstalação. I. Instalação rápida do Ollama Download: https://ollama.com/download Página inicial oficial do Ollama: https://ollama....
Introdução Esta seção ensina como concluir a instalação e a configuração do Ollama no sistema Windows e está dividida nas seguintes partes: Visite o site oficial diretamente para concluir o download Configuração da variável de ambiente Execute o Ollama para verificar o sucesso da instalação 🎉 Primeiro, visite o site oficial diretamente para concluir o download Visite a página inicial oficial do Ollama em ...
Introdução Nesta seção, aprenderemos como concluir a instalação e a configuração do Ollama no sistema macOS, que se divide principalmente nas três partes a seguir: Visite o site oficial para concluir o download diretamente Execute a instalação do Ollama Enchanted a. Visite o site oficial para concluir o download diretamente Visite a página inicial oficial do download do Ollama: https://ollama.com/d...
Com o rápido desenvolvimento da tecnologia de agentes, o MCP (Model Communication Protocol) tornou-se gradualmente o principal padrão de comunicação no ecossistema de agentes devido à sua facilidade de uso e eficiência. Cada vez mais editores de código de IA principais (por exemplo, Cursor, Windsurf etc.) começaram a oferecer suporte ao MCP ...
Já publiquei muitos tutoriais sobre a instalação e a implementação do Ollama, mas as informações são bastante fragmentadas. Desta vez, reuni um tutorial completo em uma única etapa sobre como usar o Ollama em um computador local. Esse tutorial é voltado para iniciantes, para evitar pisar em poças d'água, e recomendamos a leitura da documentação oficial do Ollama, se você puder fazer isso. A seguir, vou explicar passo a passo...
Gemma 3 Resumo das principais informações I. Principais métricas Parâmetros Detalhes Tamanho do modelo 100 milhões a 27 bilhões de parâmetros em quatro versões: 1B, 4B, 12B, 27B Arquitetura Arquitetura específica de decodificador baseada em transformador herdada do Gemma 2 com vários aprimoramentos Recursos multimodais Suporte para texto e imagem...
Introdução geral O Autiobooks é uma ferramenta de código aberto criada para ajudar os usuários a converter rapidamente livros eletrônicos no formato .epub em audiolivros no formato .m4b. Ela usa tecnologia de síntese de fala de alta qualidade fornecida pela Kokoro para gerar áudio natural e suave. A ferramenta foi desenvolvida por David Nesbitt e segue o padrão MIT ...
Introdução abrangente O Story-Flicks é uma ferramenta de IA de código aberto focada em ajudar os usuários a gerar rapidamente vídeos de histórias em HD. Os usuários só precisam inserir um tópico de história, e o sistema gerará o conteúdo da história por meio de um grande modelo de linguagem e combinará imagens, áudio e legendas gerados por IA para produzir um trabalho de vídeo completo. Após o projeto...
A automação do fluxo de trabalho está passando por uma nova onda de mudanças diante da rápida evolução da tecnologia de inteligência artificial. Por muito tempo, os processos automatizados tradicionais se basearam em ações fixas predefinidas, que são esticadas ao lidar com problemas complexos, como ter um pianista apenas tocando mecanicamente uma partitura musical, sem flexibilidade e criatividade...
Introdução abrangente O mcp-server-qdrant é um servidor de protocolo de contexto de modelo (MCP) criado no mecanismo de pesquisa vetorial Qdrant. Ele é usado principalmente para ajudar os sistemas de IA a armazenar e recuperar memórias e é particularmente adequado a cenários que exigem pesquisa semântica. Essa ferramenta transforma informações em vetores por meio de...
A Baidu Wenxin Intelligent Body Platform lançou uma nova ferramenta chamada "Lead Intelligence Body". O Lead Intelligence baseia-se na tecnologia de grandes modelos e foi projetado especificamente para ajudar as empresas a identificar, adquirir e converter leads com mais eficiência. O que é o Lead Intelligence? O Lead Intelligence é uma nova ferramenta fornecida pela Baidu Wenshin Intelligent Body Platform para empresas...
Não consegue encontrar ferramentas de IA? Tente aqui!
Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.