DeepSeek的三種接入使用方法 原創(chuàng)
前言
DeepSeek作為國(guó)產(chǎn)頂尖大模型,在代碼生成和邏輯推理方面表現(xiàn)優(yōu)異。本文提供三種不同場(chǎng)景下的接入方案,滿足從普通用戶到開(kāi)發(fā)者的不同需求。
當(dāng)前問(wèn)題
由于訪問(wèn)量激增和網(wǎng)絡(luò)攻擊,官網(wǎng)服務(wù)可能出現(xiàn)不穩(wěn)定。本文提供三種備用接入方案:
方法一:使用??chatbox+硅基流動(dòng)??接入云端API使用(適合于普通用戶使用)
方法二:使用??Cursor+硅基流動(dòng)??接入云端API使用(適合于程序員人群)
方法三:使用??ollama本地化部署??使用(適用于有安全隱私需求的用戶)
方法一:使用chatbox+硅基流動(dòng)接入云端API使用
1. 安裝chatbox
訪問(wèn) ??https://chatboxai.app/??

下載對(duì)應(yīng)版本并安裝chatbox

說(shuō)明:
- 本例中以Windows為例,其他平臺(tái)請(qǐng)參考官網(wǎng)
 
2. 注冊(cè)硅基流動(dòng)賬號(hào)
訪問(wèn)硅基流動(dòng)官網(wǎng) ??https://siliconflow.cn/m??

完成注冊(cè)和實(shí)名認(rèn)證
說(shuō)明:硅基流動(dòng)現(xiàn)在注冊(cè)并實(shí)名認(rèn)證后,會(huì)贈(zèng)送14元金額試用。
3. 獲取API Key
登錄后,點(diǎn)擊左側(cè)菜單欄的「API密鑰」
選擇「API密鑰」->「新建API密鑰」
輸入密鑰描述內(nèi)容后,點(diǎn)擊「新建密鑰」

4. 配置chatbox
設(shè)置 -> 模型提供商 -> 選擇「SiliconFlow API」
在API密鑰框,將上一步獲取的API Key填入「API 密鑰」

在模型框,選擇「deepseek-r1」后,點(diǎn)擊

5. 測(cè)試模型效果
輸入測(cè)試問(wèn)題:"用比喻的方式解釋deepseek模型為什么性能要優(yōu)于OpenAI"

方法二:使用cursor+硅基流動(dòng)接入云端API使用
1. 安裝cursor
- 訪問(wèn) https://www.cursor.com/
 - 下載并安裝IDE

 - 注冊(cè)cursor賬號(hào)
 
2. 配置硅基流動(dòng)API
- 打開(kāi)Cursor設(shè)置對(duì)話框
 - 左側(cè)選擇Models
 - 在OpenAI API Key框,填入硅基流動(dòng)上創(chuàng)建的API Key
 - 在OpenAI Base URL框,填入?
?https://api.siliconflow.cn/v1??并保存 - 點(diǎn)擊Add Model,輸入?
?deepseek-ai/DeepSeek-R1?? - 點(diǎn)擊Verify,驗(yàn)證模型是否可用

 
說(shuō)明:
- 硅基流動(dòng)的API Base URL可以在硅基流動(dòng)官網(wǎng)的模型廣場(chǎng),選擇對(duì)應(yīng)的模型查看其API文檔獲得。
 - 模型名稱?
 ?deepseek-ai/DeepSeek-R1??可以在硅基流動(dòng)的模型廣場(chǎng)中,選擇對(duì)應(yīng)的模型后直接復(fù)制獲得。
3. 測(cè)試代碼功能
- 使用cursor創(chuàng)建一個(gè)新的項(xiàng)目,例如"俄羅斯方塊游戲"
 - 使用快捷鍵?
?Cmd/Ctrl+I??打開(kāi)Composer界面 - 輸入我們的需求后回車,例如:"請(qǐng)使用html實(shí)現(xiàn)一個(gè)俄羅斯方塊游戲"
 - Cursor會(huì)調(diào)用硅基流動(dòng)的DeepSeek-R1模型,自動(dòng)生成俄羅斯方塊游戲,如下圖:

 - 使用瀏覽器打開(kāi)生成的tetris.html文件,即可看到俄羅斯方塊游戲,如下圖:

 
備注:
- Cursor有14天的試用期,試用期結(jié)束后需要購(gòu)買訂閱才能繼續(xù)使用。
 - 經(jīng)過(guò)實(shí)測(cè),使用Cursor內(nèi)置的DeepSeek-R1模型會(huì)比硅基流動(dòng)API的DeepSeek-R1模型速度會(huì)更快。
 
方法三:使用ollama本地化部署使用
1. 硬件配置
模型規(guī)模  | 使用場(chǎng)景  | CPU核心  | 內(nèi)存容量  | 顯卡型號(hào)  | 顯存需求  | 推薦部署方式  | 
1.5B  | 嵌入式設(shè)備  | 4核  | 8GB  | Jetson Orin  | 6GB  | 4-bit量化+TensorRT加速  | 
7B  | 個(gè)人開(kāi)發(fā)/測(cè)試  | 8核  | 32GB  | RTX 3060  | 14GB  | FP16精度+單卡推理  | 
70B  | 企業(yè)級(jí)服務(wù)  | 32核×4  | 512GB  | A100 80G ×4  | 320GB  | 張量并行+流水線并行  | 
671B  | 超大規(guī)模計(jì)算  | 64核×8  | 2TB  | H100 80G ×16  | 1.28TB  | 混合并行+專家并行  | 
注明:
- 顯存預(yù)估方式一般為:模型參數(shù)×2.5(如7B模型需7×2.5=17.5GB,需RTX 3090 24GB)
 - 本例中,筆者使用的是RTX 4080顯卡16G顯存,所以選擇7B模型。
 
2. 安裝ollama
訪問(wèn)ollama官網(wǎng) https://ollama.com/

根據(jù)系統(tǒng)選擇對(duì)應(yīng)的安裝方式
# Windows用戶:訪問(wèn) https://ollama.com/download/windows 下載安裝包
# Mac用戶:訪問(wèn) https://ollama.com/download/mac 下載安裝包
# Linux用戶:執(zhí)行
curl -fsSL https://ollama.com/install.sh | sh說(shuō)明:
- 本例中以Windows為例,其他平臺(tái)請(qǐng)參考官網(wǎng)
 - 安裝完成后,在命令行中輸入ollama可以看到命令行幫助文檔
 

3. 配置ollama的下載路徑
因?yàn)閛llama默認(rèn)下載路徑為??C:\Users\用戶名\.ollama??,所以我們需要配置ollama的下載路徑,避免C盤(pán)占用過(guò)大。
在??系統(tǒng)設(shè)置→搜索"環(huán)境變量"→高級(jí)系統(tǒng)設(shè)置→添加系統(tǒng)變量??中新增Ollama的下載路徑
變量名:OLLAMA_MODELS
變量值:G:\ai_LLMs_modules\Ollama說(shuō)明:變量值請(qǐng)根據(jù)自己的情況修改,本例中是?
?G:\ai_LLMs_modules\Ollama??

4. 下載DeepSeek大模型
- 訪問(wèn)ollama模型查詢頁(yè)面https://ollama.com/search
 - 搜索deepseek-r1模型

 - 根據(jù)本機(jī)配置情況,我們選擇?
?deepseek-r1:7b??模型,執(zhí)行如下命令 
ollama run deepseek-r1:7b下載模型根據(jù)網(wǎng)絡(luò)環(huán)境會(huì)花費(fèi)不同的時(shí)間,待下載完成后,會(huì)提示"success"

5. 測(cè)試模型效果
>>> 請(qǐng)用Python寫(xiě)一個(gè)快速排序算法
6. 集成前端UI
因?yàn)閛llama本身沒(méi)有提供前端UI,通過(guò)命令行交互起來(lái)比較繁瑣。所以,我們可以根據(jù)之前介紹的方法一或方法二,將模型集成到前端chatbox或者cursor中。
本例,我們采用方法一,將模型集成到chatbox中。
- 打開(kāi)chatbox,點(diǎn)擊設(shè)置
 - 模型提供方選擇 ?
?Ollama API?? - API域名填寫(xiě) ?
?http://127.0.0.1:11434?? - 模型選擇 ?
?deepseek-r1:7b?? - 點(diǎn)擊保存
 

運(yùn)行效果:


說(shuō)明:經(jīng)過(guò)實(shí)測(cè),筆者4080顯卡16G顯存,使用ollama本地化部署deepseek-r1:7b 模型,顯存占用約7G,可以實(shí)現(xiàn)流暢的交互體驗(yàn)。
優(yōu)缺點(diǎn)對(duì)比
對(duì)比維度  | 方法一:ChatBox+API  | 方法二:Cursor+API  | 方法三:Ollama本地部署  | 
部署難度  | ?? (需注冊(cè)API Key)  | ??? (需IDE配置)  | ???? (需硬件環(huán)境)  | 
響應(yīng)速度  | 100-200ms (依賴網(wǎng)絡(luò)質(zhì)量)  | 300-500ms (試驗(yàn)時(shí)較慢)  | 50-150ms (本地計(jì)算)  | 
隱私性  | 中 (數(shù)據(jù)經(jīng)過(guò)第三方服務(wù)器)  | 中 (數(shù)據(jù)經(jīng)過(guò)第三方服務(wù)器)  | 高 (完全本地運(yùn)行)  | 
硬件要求  | 無(wú)特殊要求  | 無(wú)特殊要求  | 16GB內(nèi)存+獨(dú)立顯卡  | 
成本  | ¥4/100 萬(wàn)個(gè) Tokens  | $10/月訂閱費(fèi)  | 一次性硬件投入  | 
適用場(chǎng)景  | 日常辦公/簡(jiǎn)單問(wèn)答  | 程序開(kāi)發(fā)/技術(shù)寫(xiě)作  | 敏感數(shù)據(jù)處理/定制開(kāi)發(fā)  | 
模型更新  | 自動(dòng)更新  | 跟隨IDE版本  | 手動(dòng)更新  | 
離線可用性  | 否  | 否  | 完全離線  | 
備注說(shuō)明:
- ¥4/100 萬(wàn)個(gè) Tokens 是硅基流動(dòng)的API價(jià)格,其相當(dāng)于:
 
- 讓AI寫(xiě)一個(gè)5000字的文章,花費(fèi)約為:1萬(wàn) Tokens ÷ 100萬(wàn) Tokens × 4元 =0.04元;
 - 讓AI每天寫(xiě)100個(gè)5000字的文章,花費(fèi)約為:100次 × 1000 Tokens = 10萬(wàn) Tokens → 10萬(wàn) ÷100萬(wàn) ×4元 =0.4元
 
內(nèi)容小結(jié)
- DeepSeek大模型在部署方面,支持多種方式,滿足從普通用戶到開(kāi)發(fā)者的不同需求。
 - 對(duì)于普通用戶,使用chatbox+硅基流動(dòng)接入云端API使用,可以實(shí)現(xiàn)快速接入和使用。
 - 對(duì)于程序員,使用cursor+硅基流動(dòng)接入云端API使用,可以實(shí)現(xiàn)代碼開(kāi)發(fā)和調(diào)試輔助。
 - 對(duì)于有安全隱私需求的用戶,使用ollama本地化部署使用,可以實(shí)現(xiàn)完全離線使用。
 



















