Windows A seguir, um exemplo de como personalizar o Ollama para ser executado na GPU em um sistema Windows. Para obter uma inferência mais rápida, você pode configurar a GPU usada pelo Ollama. Este tutorial o orientará sobre como configurar o anel em um sistema Windows...
Tomando o sistema Windows como exemplo, os modelos extraídos pelo Ollama são armazenados na unidade C por padrão. Se você precisar extrair mais de um modelo, a unidade C ficará cheia, afetando o espaço de armazenamento da unidade C. Portanto, esta seção apresentará como personalizar o modelo do Ollama no Windows, Linux e MacOS...
Habilite o modo de programação inteligente Builder, uso ilimitado do DeepSeek-R1 e DeepSeek-V3, experiência mais suave do que a versão internacional. Basta digitar os comandos chineses, sem conhecimento de programação, para escrever seus próprios aplicativos.
Introdução Nesta seção, aprenderemos a usar o Modelfile para personalizar a importação de modelos, que está dividida nas seguintes seções: Importando do GGUF Importando do Pytorch ou Safetensors Importando de modelos diretamente Importando de modelos Personalizando prompts I. Importando do GGUF Importando do GGUF (GPT-Generated Unified ...
Introdução Esta seção ensina como concluir a instalação e a configuração do Ollama no Docker. O Docker é uma tecnologia de contêineres virtualizados que se baseia em imagens e pode iniciar vários contêineres em segundos. Cada um desses contêineres é um ambiente de tempo de execução completo que permite o isolamento entre os contêineres. Ollama Download ...
Introdução Esta seção ensina como concluir a instalação e a configuração do Ollama em um sistema Linux, bem como a atualização do Ollama, instalações específicas de versões, visualização de registros e desinstalação. I. Instalação rápida do Ollama Download: https://ollama.com/download Página inicial oficial do Ollama: https://ollama....
Introdução Esta seção ensina como concluir a instalação e a configuração do Ollama no sistema Windows e está dividida nas seguintes partes: Visite o site oficial diretamente para concluir o download Configuração da variável de ambiente Execute o Ollama para verificar o sucesso da instalação 🎉 Primeiro, visite o site oficial diretamente para concluir o download Visite a página inicial oficial do Ollama em ...
Introdução Nesta seção, aprenderemos como concluir a instalação e a configuração do Ollama no sistema macOS, que se divide principalmente nas três partes a seguir: Visite o site oficial para concluir o download diretamente Execute a instalação do Ollama Enchanted a. Visite o site oficial para concluir o download diretamente Visite a página inicial oficial do download do Ollama: https://ollama.com/d...
Com o rápido desenvolvimento da tecnologia de agentes, o MCP (Model Communication Protocol) tornou-se gradualmente o principal padrão de comunicação no ecossistema de agentes devido à sua facilidade de uso e eficiência. Cada vez mais editores de código de IA principais (por exemplo, Cursor, Windsurf etc.) começaram a oferecer suporte ao MCP ...
A Dify é um mecanismo e uma plataforma de desenvolvimento para aplicativos de IA. Se precisar desenvolver um aplicativo de IA de nível empresarial ou um aplicativo de corpo inteligente, você geralmente tem as seguintes opções: - Escrever manualmente todo o código e fazer a interface com as interfaces de API de vários fornecedores de modelos grandes. - Usar alguns SDKs que encapsulam uma camada, como...
Já publiquei muitos tutoriais sobre a instalação e a implementação do Ollama, mas as informações são bastante fragmentadas. Desta vez, reuni um tutorial completo em uma única etapa sobre como usar o Ollama em um computador local. Esse tutorial é voltado para iniciantes, para evitar pisar em poças d'água, e recomendamos a leitura da documentação oficial do Ollama, se você puder fazer isso. A seguir, vou explicar passo a passo...
Gemma 3 Resumo das principais informações I. Principais métricas Parâmetros Detalhes Tamanho do modelo 100 milhões a 27 bilhões de parâmetros em quatro versões: 1B, 4B, 12B, 27B Arquitetura Arquitetura específica de decodificador baseada em transformador herdada do Gemma 2 com vários aprimoramentos Recursos multimodais Suporte para texto e imagem...
Introdução geral O Autiobooks é uma ferramenta de código aberto criada para ajudar os usuários a converter rapidamente livros eletrônicos no formato .epub em audiolivros no formato .m4b. Ela usa tecnologia de síntese de fala de alta qualidade fornecida pela Kokoro para gerar áudio natural e suave. A ferramenta foi desenvolvida por David Nesbitt e segue o padrão MIT ...
Introdução abrangente O Story-Flicks é uma ferramenta de IA de código aberto focada em ajudar os usuários a gerar rapidamente vídeos de histórias em HD. Os usuários só precisam inserir um tópico de história, e o sistema gerará o conteúdo da história por meio de um grande modelo de linguagem e combinará imagens, áudio e legendas gerados por IA para produzir um trabalho de vídeo completo. Após o projeto...
A automação do fluxo de trabalho está passando por uma nova onda de mudanças diante da rápida evolução da tecnologia de inteligência artificial. Por muito tempo, os processos automatizados tradicionais se basearam em ações fixas predefinidas, que são esticadas ao lidar com problemas complexos, como ter um pianista apenas tocando mecanicamente uma partitura musical, sem flexibilidade e criatividade...
Introdução abrangente O mcp-server-qdrant é um servidor de protocolo de contexto de modelo (MCP) criado no mecanismo de pesquisa vetorial Qdrant. Ele é usado principalmente para ajudar os sistemas de IA a armazenar e recuperar memórias e é particularmente adequado a cenários que exigem pesquisa semântica. Essa ferramenta transforma informações em vetores por meio de...
A Baidu Wenxin Intelligent Body Platform lançou uma nova ferramenta chamada "Lead Intelligence Body". O Lead Intelligence baseia-se na tecnologia de grandes modelos e foi projetado especificamente para ajudar as empresas a identificar, adquirir e converter leads com mais eficiência. O que é o Lead Intelligence? O Lead Intelligence é uma nova ferramenta fornecida pela Baidu Wenshin Intelligent Body Platform para empresas...
Introdução geral O R1-Omni é um projeto de código aberto lançado no GitHub pela equipe do HumanMLLM. É a primeira aplicação de técnicas de Aprendizado por Reforço com Recompensas Verificáveis (RLVR) a um modelo multimodal de linguagem grande, com foco no reconhecimento de emoções. O projeto analisa dados de vídeo e áudio para identificar as emoções dos personagens, como raiva,...
Introdução geral O Prompt Jailbreak Manual é um projeto de código aberto hospedado no GitHub e mantido pela equipe da Acmesec. Ele se concentra em ensinar aos usuários como romper os limites do macromodelo de IA por meio de palavras de alerta bem projetadas (Prompt), ajudando entusiastas da tecnologia e pesquisadores de segurança a explorar os recursos potenciais da IA. O projeto é baseado em ...
O objetivo do reconhecimento de tabelas é analisar tabelas em imagens, identificar com precisão as estruturas das tabelas e os locais das células e reduzi-las a formatos de tabelas estruturadas (por exemplo, HTML). Na atual era da informação, uma grande quantidade de dados tabulares importantes ainda existe em um estado não estruturado (por exemplo, imagens de estatísticas de informações em documentos digitalizados, p...
Não consegue encontrar ferramentas de IA? Tente aqui!
Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.