综合介绍
SiliconCloud 基于优秀的开源基础模型,提供高性价比的 GenAI 服务。
不同于多数大模型云服务平台只提供自家大模型 API,SiliconCloud上架了包括 Qwen、DeepSeek、GLM、Yi、Mistral、LLaMA 3、SDXL、InstantID 在内的多种开源大语言模型及图片生成模型,用户可自由切换适合不同应用场景的模型。
更重要的是,SiliconCloud 提供开箱即用的大模型推理加速服务,为您的 GenAI 应用带来更高效的用户体验。
对开发者来说,通过 SiliconCloud 即可一键接入顶级开源大模型。拥有更好应用开发速度和体验的同时,显著降低应用开发的试错成本。
在 SiliconCloud模型 页面,您可以查看我们目前支持的语言模型、 文生图模型、图生图模型,并点击“体验中心”来实际测试使用该模型。
模型列表
免费模型列表
Qwen/Qwen2-7B-Instruct | 32K |
---|---|
Qwen/Qwen2-1.5B-Instruct | 32K |
Qwen/Qwen1.5-7B-Chat | 32K |
THUDM/glm-4-9b-chat | 32K |
THUDM/chatglm3-6b | 32K |
01-ai/Yi-1.5-9B-Chat-16K | 16K |
01-ai/Yi-1.5-6B-Chat | 4K |
google/gemma-2-9b-it | 8K |
internlm/internlm2_5-7b-chat | 32K |
meta-llama/Meta-Llama-3-8B-Instruct | 8K |
meta-llama/Meta-Llama-3.1-8B-Instruct | 8K |
mistralai/Mistral-7B-Instruct-v0.2 | 32K |
使用 SiliconCloud API
基础URL: https://api.siliconflow.cn/v1
生成API密钥
在“API 密钥”页签 点击“创建新 API 密钥”,并点击复制,以在您的 API 场景中进行使用。
在沉浸式翻译中使用SiliconCloud API
在沉浸式翻译中,使用 SiliconCloud的API能力,达到快速跨语言翻译的目标
作为全网口碑炸裂的双语对照网页翻译插件,沉浸式翻译 结合大语言模型对于跨语言的理解能力,能够实时翻译外语内容,可应用于网页阅读,PDF 翻译,EPUB 电子书翻译,视频双语字幕翻译等场景,并支持各种浏览器插件和应用使用。自2023年上线以来,这款备受赞誉的 AI 双语对照网页翻译扩展,已帮助超过 100 万用户跨越语言障碍,自由汲取全球智慧。
硅基流动的 SiliconCloud近期第一时间提供了 GLM4、Qwen2、DeepSeek V2、Yi 等系列大模型,且模型速度非常快。如何将这二者结合起来,改善在沉浸式翻译场景的能力呢?
先看疗效
拿熟悉的中英互译进行说明。用杜甫经典的《登高》进行“中译英”测试,相比谷歌翻译和微软翻译,硅基流动提供的QWen 72B 模型对中文的理解更地道,译文也更贴近原文风格。
而同样基于同一段文本的“英译中”翻译,硅基流动提供的 模型也有更好的效果,译文更通顺流畅。
想要尝试其他场景,大家可以直接使用翻译文档多模型对比 进行测试,其中 SiliconCloud相关模型的配置详见“配置过程”部分。
配置过程:默认配置
- 在“沉浸式翻译”官网 选择“安装浏览器插件”,根据提示进行后续操作。如您已安装对应插件,请跳过本步骤。
- 在沉浸式翻译的图标中将“翻译服务”设置为“SiliconCloud”即可使用SiliconCloud 的翻译服务。
以上就完成了默认设置。
在默认设置外选择SiliconCloud的其他免费模型:
- 上述设置中默认模型是SiliconCloud 的“Qwen/Qwen2-7B-Instruct”,如果需要切换到其他SiliconCloud的模型,点击上述图标中的“设置”,即可进行 SiliconCloud相关设置。
在默认设置外选择SiliconCloud的其他尺寸模型:
- 如果需要使用上述 8 个模型之外的其他SiliconCloud 模型,点击沉浸式翻译的扩展图标,找到对应“设置”选项,如下图所示,选择“更多翻译服务”。
- 在其中添加 SiliconCloud模型的相关信息
- 自定义翻译服务名称:按照自己的实际情况填写即可,此处我们填写为"Qwen/Qwen2-72B-Instruct"
- 自定义API 接口地址:
APIKEY:从API 密钥 中点击复制过来。
- 模型名称:模型在siliconcloud中的名称,此处为“Qwen/Qwen2-72B-Instruct”,可使用平台模型列表获得当前所有支持的模型名称。
- 点击右上角的测试,验证测试成功。
- 至此已经完成相关模型配置项,就可以在沉浸式翻译插件中使用SiliconCloud 提供的大语言模型来提供翻译了。
在dify中使用 SiliconCloud API
作为一个经常使用 dify 工作流的用户,SiliconCloud在第一时间提供了 GLM4 、Qwen2、DeepSeek V2、Yi等最新模型,且模型速度非常快,那必须第一时间对接起来!
- 在进行设置,设置 SiliconCloud 平台账户的模型和 API Key 来设置大模型。
- 填入 SiliconCloud 平台的相关模型和 API Key 信息,并点击保存进行校验。使用SiliconCloud APIKey获得当前用户的 API Key,并复制到上述环境中。
- 接下来就可以在模型提供商的顶部区域看到SiliconFlow的相关模型了。
- 在应用中使用 SiliconCloud 对应的模型
经过上述步骤,您就可以在 Dify 开发应用过程中使用SiliconFlow所提供的丰富且快速的 LLM 模型了。
目前不在 dify 源代码中的 SiliconCloud 模型
目前 SiliconCloud 中还在源源不断引入新模型,因为双方迭代节奏的原因,部分模型不能第一时间在 Dify 中呈现,此处按照如下流程进行设置。
- 打开dify 的 settings 进行设置。
- 设置中选择 Model Provider 并设置“openai兼容 API”
- 在其中设置对应的 SiliconCloud 对应的Model Name、API Key, API 端点 API
Model Name: 从https://docs.siliconflow.cn/reference/chat-completions-1 文档中查找。
API Key: 从https://cloud.siliconflow.cn/account/ak 中获取,请注意,如果您使用海外模型,请遵守https://docs.siliconflow.cn/docs/use-international-outstanding-models 文档规则进行实名认证。
API 端点 URL:https://api.siliconflow.cn/v1
- 设置完成后,就可以在模型列表中看到上述新增的模型了。