Aprendizagem pessoal com IA
e orientação prática
TRAE

Usando a API Ollama em Golang

Este artigo descreve como usar o Ollama Este documento foi criado para ajudar os desenvolvedores a se familiarizarem e aproveitarem ao máximo os recursos do Ollama. O próprio Ollama é desenvolvido na linguagem Golang, e o código da interface para a versão em linguagem Golang está disponível no diretório oficial do repositório em https://github.com/ollama/ollama/tree/main/api e na documentação oficial em https://github.com/ollama/ollama/tree/main/api. A documentação oficial está disponível em https://pkg.go.dev/github.com/ollama/ollama/api. Ao estudar esse documento, você poderá integrar facilmente o Ollama aos seus projetos.

O repositório oficial https://github.com/ollama/ollama/tree/main/api/examples提供了一些示例代 code, e o código abaixo faz referência e modifica esses exemplos. Todos os exemplos estão disponíveis no diretórionotebook/C4/Golang_API_examplemédio

 

Preparação ambiental

Antes de começar, certifique-se de que seu ambiente de desenvolvimento atenda às seguintes condições:

  1. Ambiente de desenvolvimento Golang, por meio dogo versionVerifique a versão do golang, a versão usada neste artigo égo1.23.6

    Referência https://golang.google.cn/doc/install进行安装

  2. Crie um diretório de projeto e inicialize-o
mkdir ollama-demo && cd ollama-demo
go mod init ollama-demo
  1. Instalação de dependências
go get github.com/ollama/ollama/api

 

Uso

Criar um catálogochat, crie um arquivo no catálogomain.goque tem a seguinte redação (o exemplo usa o modelo deepseek-r1:7b):

package main
import (
"context"
"fmt"
"log"
"github.com/ollama/ollama/api"
)
func main() {
client, err := api.ClientFromEnvironment()
if err != nil {
log.Fatal(err)
}
messages := []api.Message{
api.Message{
Role:    "user",
Content: "为什么天空是蓝色的?",
},
}
ctx := context.Background()
req := &api.ChatRequest{
Model:    "deepseek-r1:7b",
Messages: messages,
}
respFunc := func(resp api.ChatResponse) error {
fmt.Print(resp.Message.Content)
return nil
}
err = client.Chat(ctx, req, respFunc)
if err != nil {
log.Fatal(err)
}
}

estar em movimento go run chat/main.go

 

saída de streaming

Criar um catálogogenerate-streaming, crie um arquivo no catálogomain.go

package main
import (
"context"
"fmt"
"log"
"github.com/ollama/ollama/api"
)
func main() {
client, err := api.ClientFromEnvironment()
if err != nil {
log.Fatal(err)
}
// By default, GenerateRequest is streaming.
req := &api.GenerateRequest{
Model:  "deepseek-r1:7b",
Prompt: "为什么天空是蓝色的?",
}
ctx := context.Background()
respFunc := func(resp api.GenerateResponse) error {
// Only print the response here; GenerateResponse has a number of other
// interesting fields you want to examine.
// In streaming mode, responses are partial so we call fmt.Print (and not
// Println) in order to avoid spurious newlines being introduced. The
// model will insert its own newlines if it wants.
fmt.Print(resp.Response)
return nil
}
err = client.Generate(ctx, req, respFunc)
if err != nil {
log.Fatal(err)
}
fmt.Println()
}

estar em movimento go run generate-streaming/main.go


 

Saída estruturada

Criar um catálogostructured_output, crie um arquivo no catálogomain.goO seguinte

package main
import (
"context"
"encoding/json"
"fmt"
"log"
"strings"
"github.com/ollama/ollama/api"
)
type CountryInfo struct {
Capital    string  `json:"capital"`
Population float64 `json:"population"`
Area       float64 `json:"area"`
}
func main() {
client, err := api.ClientFromEnvironment()
if err != nil {
log.Fatal(err)
}
messages := []api.Message{
api.Message{
Role:    "user",
Content: "请介绍美国的首都、人口、占地面积信息,并以 JSON 格式返回。",
},
}
ctx := context.Background()
req := &api.ChatRequest{
Model:    "deepseek-r1:7b",
Messages: messages,
Stream:   new(bool), // false
Format:   []byte(`"json"`),
Options: map[string]interface{}{
"temperature": 0.0,
},
}
respFunc := func(resp api.ChatResponse) error {
fmt.Printf("%s\n", strings.TrimSpace(resp.Message.Content))
var info CountryInfo
err := json.Unmarshal([]byte(resp.Message.Content), &info)
if err != nil {
log.Fatal(err)
}
fmt.Printf("首都: %s,人口: %f,面积: %f", info.Capital, info.Population, info.Area)
return nil
}
err = client.Chat(ctx, req, respFunc)
if err != nil {
log.Fatal(err)
}
}

Ao especificarChatRequestsolicitadoFormat: []byte("json"), que permite que o modelo retorne dados estruturados, que podem então ser passados pelo parâmetrojson.UnmarshalAnalisa os dados retornados.

estar em movimento go run structured_output/main.go O seguinte resultado pode ser obtido:

{"capital": "Washington, D.C.", "population": 3.672e6, "area": 7.058e6}
首都: Washington, D.C.,人口: 3672000.000000,面积: 7058000.000000
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Usando a API Ollama em Golang
pt_BRPortuguês do Brasil