国内免费获取 DeepSeek API 服务及本地应用部署指南

国内免费获取 DeepSeek API 服务及本地应用部署指南

我们已成功部署NextChat服务,基于Groq的高性能70B大规模模型蒸馏技术,现已推出专业的网页对话端。如需体验更为高速与高效的deepseek-R1 70B大模型服务,欢迎访问Crosery

一、利用 Groq 白嫖免费高速的 DeepSeek 70B 蒸馏模型

前提条件

  1. 一个可用的 Groq 账号(需要注册)
  2. 一个本地的 AI 客户端 Cherry Studio
  3. 科学上网工具 Clash Verge

注册 Groq 账号并申请 API

  1. 访问 Groq 官网
  2. 点击 image-20250224155326034 进行用 github 登录
  3. 在控制台获取 API 密钥,如图所示: image-20250224155444168

API 调用方案

方案一:下载 Cherry Studio 的 AI 客户端进行本地对话(易)

  1. 访问 Cherry Studio 官网下载对应的软件
  2. 打开客户端页面点击左下角的小齿轮 image-20250224160038603 进行设置
  3. 选择 Groq 服务,输入 API 密钥,然后添加 deepseek-r1-distill-llama-70b,如图所示: image-20250224160225766
  4. 选择刚刚创建的 Groq 服务的模型,如图所示: image-20250224160340388
  5. 然后即可开始对话,对话的时候要科学上网,如图所示: image-20250224160453208
  6. 免科学上网的方案调用 API 的方案可以参考 Ikaros-521/groq-proxy: https://groq.com/ API 代理,借助 Deno 的能力,实现国内直连

方案二:Python 调用对应的 Groq 服务(易)

更详细文档请参考官方 Groq Cloud 1. 安装 Groq Python 库: pip install groq 2. 调用 API 服务:

from groq import Groq

client = Groq(
api_key="请输入你的 APIkey"
)

chat_completion = client.chat.completions.create(
messages=[
{
"role": "user",
"content": "解释快速语言模型的重要性",
}
],
model="deepseek-r1-distill-llama-70b",
)

print(chat_completion.choices[0].message.content)
  1. 运行结果如图所示: image-20250224161305371

免费额度说明

免费额度信息如图所示: image-20250224161538901

方案三:利用 NextChat 搭建网页对话端(难)

  1. 进入 NextChat 项目
  2. 点击官网的这个 Deploy on Zeabur 按钮,或者直接点击本教程的按钮
  3. 进入之后点击 Create 进行创建对应的 Vercel 项目
  4. 点击项目的 settings -> Environment Variables,具体设置如下: image-20250224163416919
  5. 然后点击 Deployments 进行重新部署,如图所示: image-20250224163527231
  6. Vercel 绑定自己的域名,具体可参考 Vercel 应用如何绑定自己的域名 | Tangly 的学习笔记
  7. 利用域名解析使用国内加速节点,具体可参考右边博客 推一下 Vercel 加速节点 - Fgaoxing_Fgaoxing 的个人博客
  8. 成功后就能看到自己项目成功部署的国内可以快速访问的页面了,如图所示: image-20250224163617190

二、硅基流动免费白嫖 DeepSeek R1 满血 API

快速开始

  1. 注册硅基流动的账号 硅基流动,官网有邀请活动,被邀和邀请者都有 2000W token 的免费额度,如图所示: image-20250224164623769
  2. 点击 API 密钥 -> 新建 API 密钥 即可创建自己的 API 密钥,如图所示: image-20250224164926026
  3. 调用 API 文档以及其他操作详细参考文档 快速上手 - SiliconFlow