AI个人学习
和实操指南
讯飞绘镜

AI实操教程 第2页

在 JavaScript 中使用 Ollama API

本文介绍了如何在 JavaScript 中使用 Ollama API 。这篇文档旨在帮助开发者快速上手并充分利用 Ollama 的能力。你可以在 Node.js 环境中使用,也可以在浏览器中直接导入对应的模块。通过学习本文档,你可以轻松集...

在 Java 中使用 Ollama API-首席AI分享圈

在 Java 中使用 Ollama API

本文介绍了如何在 Java 中使用 Ollama API。这篇文档旨在帮助开发者快速上手并充分利用Ollama的能力。你可以直接在程序中调用 Ollama API,也可以通过 Spring AI 组件调用 Ollama。通过学习本文档,你可以轻松集...

在 Python 中使用 Ollama API

在本文中,我们将简单介绍如何在 Python 中使用 Ollama API。无论你是想进行简单的聊天对话、使用流式响应处理大数据、还是希望在本地进行模型的创建、复制、删除等操作,本文都可以为你提供指导。此外,我们还展...

带你体验 Gemini 2.0 Flash 原生图像生成与编辑能力-首席AI分享圈

带你体验 Gemini 2.0 Flash 原生图像生成与编辑能力

在 去年 12 月,Gemini 2.0 Flash 首次向部分测试人员展示了其原生图像输出功能。目前,开发者可以在 Google AI Studio 支持的所有区域 体验这项新功能。开发者可以通过 Google AI Studio (gemini-2.0-flash-exp ...

Ollama API 使用指南-首席AI分享圈

Ollama API 使用指南

简介 Ollama 提供了强大的 REST API,使开发者能够方便地与大语言模型进行交互。通过 Ollama API,用户可以发送请求并接收模型生成的响应,应用于自然语言处理、文本生成等任务。本文将详细介绍生成补全、对话生...

Ollama 自定义在 GPU 中运行-首席AI分享圈

Ollama 自定义在 GPU 中运行

Windows 以下以 Windows 系统为例,介绍如何自定义在 GPU 中运行 Ollama。 Ollama 默认情况下使用 CPU 进行推理。为了获得更快的推理速度,可以配置 Ollama 使用的 GPU。本教程将指导如何在 Windows 系统上设置环...

Ollama 自定义模型存储位置-首席AI分享圈

Ollama 自定义模型存储位置

以 Windows 系统为例,Ollama 拉取的模型默认存储在 C 盘中,若需要拉取多个模型,则让 C 盘爆满,影响 C 盘存储空间。 因此,本节将介绍如何在 Windows、Linux 和 MacOS 三大主流操作系统中自定义 Ollama 模型的...

Ollama 自定义导入模型-首席AI分享圈

Ollama 自定义导入模型

简介 本节学习如何使用 Modelfile 来自定义导入模型,主要分为以下几个部分: 从 GGUF 导入 从 Pytorch 或 Safetensors 导入 由模型直接导入 自定义 Prompt   一、从 GGUF 导入 GGUF (GPT-Generated Unified ...

Ollama 安装与配置 - docker 篇-首席AI分享圈

Ollama 安装与配置 - docker 篇

简介 本节学习如何在 Docker 中完成 Ollama 的安装与配置。 Docker是一种虚拟化的容器技术,其基于镜像,可以秒级启动各种容器。其中的每一种容器都是一个完整的运行环境,可以实现容器之间的隔离。 Ollama 下载...

Ollama 安装与配置 - Linux 系统篇-首席AI分享圈

Ollama 安装与配置 - Linux 系统篇

简介 本节学习如何在 Linux 系统中完成 Ollama 的安装与配置,以及对 Ollama 更新,特定版本的安装,查看日志和卸载。 一、快速安装 Ollama 下载:https://ollama.com/download Ollama 官方主页:https://ollama....

Ollama 安装与配置 - Windows 系统篇-首席AI分享圈

Ollama 安装与配置 - Windows 系统篇

简介 本节学习如何在 Windows 系统中完成 Ollama 的安装与配置,主要分为以下几个部分: 访问官网直接完成下载 环境变量配置 运行 Ollama 验证安装成功🎉   一、访问官网直接完成下载 访问官网主页 Ollama 下...

Ollama 安装与配置 - macOS 系统篇-首席AI分享圈

Ollama 安装与配置 - macOS 系统篇

简介 本节学习如何在 macOS 系统中完成 Ollama 的安装与配置,主要分为以下三部分: 访问官网直接完成下载 运行 Ollama 安装 Enchanted 一、访问官网直接完成下载 访问官网主页 Ollama 下载:https://ollama.com/d...

Ollama 安装与使用详细教学-首席AI分享圈

Ollama 安装与使用详细教学

之前出了很多期关于 Ollama 安装部署的教程,信息较为零散,这次一步到位整理出完整的面向本地电脑使用 Ollama 的完整教学。教学面向初级使用者避免踩坑,有能力推荐阅读 Ollama 官方说明文档。接下来我会一步步...

Dify 搭建私有数据可视化分析智能体-首席AI分享圈

Dify 搭建私有数据可视化分析智能体

人工智能技术持续发展,聊天应用的功能也日趋丰富。近日,Dify 平台推出一项引人注目的更新,其新发布的聊天应用能够直接在对话中实现数据可视化分析,为用户带来更直观、更高效的交流体验。尽管文章标题提及该功...

Dify工作流:告别繁琐 API 对接,一键生成代码与查询参数-首席AI分享圈

Dify工作流:告别繁琐 API 对接,一键生成代码与查询参数

在数字化时代,API(应用程序编程接口)已成为不同软件系统之间交互的基石。然而,传统的 API 对接方式往往效率低下,让开发者苦不堪言。 你是否也曾面临以下困境: 文档天书: 接口文档晦涩难懂,参数说明含糊不...

OpenManus 开源解读,深入剖析背后的 AI Agent 架构-首席AI分享圈

OpenManus 开源解读,深入剖析背后的 AI Agent 架构

开篇:Manus 的火爆与 OpenManus 的破局 最近,AI 圈子里出了一件大事,那就是 Manus AI Agent 的横空出世。Manus 以其强大的功能和灵活的使用方式,迅速吸引了无数目光。简单来说,Manus 就像一个全能助手,无论...

Unsloth 解决 QwQ-32B 量化版本重复推理问题-首席AI分享圈

Unsloth 解决 QwQ-32B 量化版本重复推理问题

最近,Qwen 团队发布了 QwQ-32B 模型,这款推理模型在诸多 评测基准 上展现出媲美 DeepSeek-R1 的卓越性能。然而,不少用户在使用过程中遇到了 无限生成 、 重复内容过多 、token 问题以及微调难题。本文旨在提供...

本地部署 QwQ-32B 大模型:个人电脑轻松上手指南-首席AI分享圈

本地部署 QwQ-32B 大模型:个人电脑轻松上手指南

人工智能 (AI) 模型领域总是充满惊喜,每一次技术突破都能牵动业界的神经。近日,阿里巴巴千问团队在凌晨时分发布了其最新的推理模型 QwQ-32B,再次引发了广泛关注。 根据官方发布的公告,QwQ-32B 是一款参数规模...

zh_CN简体中文