偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

剛剛,DeepSeek揭秘R1官方同款部署設置,溫度=0.6!OpenAI推理指南同時上線

人工智能 新聞
DeepSeek官方發(fā)布的R1模型部署指南來了!留言區(qū)紛紛高呼:「服務器繁忙」問題何時解決?同一天內,OpenAI的推理模型指南也發(fā)布了,特點就是字數很多。

同一天內,DeepSeek和OpenAI都發(fā)布了推理模型使用指南!

DeepSeek的X賬號迎來久違的更新:發(fā)布了官方版本,教大家如何部署DeepSeek-R1的設置。

最佳方法如下——

  • 不使用系統(tǒng)提示
  • 采樣溫度:0.6
  • 針對文件上傳和網絡搜索功能定制prompt
  • 每次輸出時都以<think>\n開始,以防模型跳過思考過程

注意,官方部署DeepSeek,使用的是跟開源版本完全相同的模型。

圖片

不過在留言區(qū)最熱門的呼聲,莫過于請DeepSeek盡快解決「服務器繁忙」的問題。

圖片

巧的是,就在同一天的早些時候,OpenAI也發(fā)布了官方指南,匯總了使用o系列模型的最佳實踐。

包括推理模型與非推理模型之間的區(qū)別、何時使用推理模型、以及如何有效地使用提示來引導推理模型。

圖片

接下來,讓我們詳細看一下,兩大明星AI機構的官方指南細節(jié)。

DeepSeek:手把手教你正確用上官方同款

如何部署和官方一樣的DeepSeek-R1?

第一點:不要使用系統(tǒng)提示

請勿添加系統(tǒng)提示(system prompt),所有指令都應當包含在用戶提示(user prompt)中。

第二點:將采樣溫度參數設置為0.6

將采樣溫度(temperature)設置在 0.5~0.7 之間(建議使用 0.6),以避免輸出出現(xiàn)重復循環(huán)或語義不連貫的情況。

第三點:使用官方prompt

對于文件上傳功能,DeepSeek建議按照模板創(chuàng)建提示,其中包含 {file_name}、{file_content} 和 {question} 這些參數。

```
file_template = \
"""[file name]: {file_name}
[file content begin]
{file_content}
[file content end]
{question}"""
```

對于網絡搜索功能,則包含 {search_results}、{cur_data} 和 {question} 這些參數。

對于中文查詢,使用如下提示:

```
search_answer_zh_template = \
'''# 以下內容是基于用戶發(fā)送的消息的搜索結果:
{search_results}
在我給你的搜索結果中,每個結果都是[webpage X begin]...[webpage X end]格式的,X代表每篇文章的數字索引。請在適當的情況下在句子末尾引用上下文。請按照引用編號[citation:X]的格式在答案中對應部分引用上下文。如果一句話源自多個上下文,請列出所有相關的引用編號,例如[citation:3][citation:5],切記不要將引用集中在最后返回引用編號,而是在答案對應部分列出。
在回答時,請注意以下幾點:
- 今天是{cur_date}。
- 并非搜索結果的所有內容都與用戶的問題密切相關,你需要結合問題,對搜索結果進行甄別、篩選。
- 對于列舉類的問題(如列舉所有航班信息),盡量將答案控制在10個要點以內,并告訴用戶可以查看搜索來源、獲得完整信息。優(yōu)先提供信息完整、最相關的列舉項;如非必要,不要主動告訴用戶搜索結果未提供的內容。
- 對于創(chuàng)作類的問題(如寫論文),請務必在正文的段落中引用對應的參考編號,例如[citation:3][citation:5],不能只在文章末尾引用。你需要解讀并概括用戶的題目要求,選擇合適的格式,充分利用搜索結果并抽取重要信息,生成符合用戶要求、極具思想深度、富有創(chuàng)造力與專業(yè)性的答案。你的創(chuàng)作篇幅需要盡可能延長,對于每一個要點的論述要推測用戶的意圖,給出盡可能多角度的回答要點,且務必信息量大、論述詳盡。
- 如果回答很長,請盡量結構化、分段落總結。如果需要分點作答,盡量控制在5個點以內,并合并相關的內容。
- 對于客觀類的問答,如果問題的答案非常簡短,可以適當補充一到兩句相關信息,以豐富內容。
- 你需要根據用戶要求和回答內容選擇合適、美觀的回答格式,確??勺x性強。
- 你的回答應該綜合多個相關網頁來回答,不能重復引用一個網頁。
- 除非用戶要求,否則你回答的語言需要和用戶提問的語言保持一致。
# 用戶消息為:
{question}'''
```

對于英文查詢,使用如下提示:

```
search_answer_en_template = \
'''# The following contents are the search results related to the user's message:
{search_results}
In the search results I provide to you, each result is formatted as [webpage X begin]...[webpage X end], where X represents the numerical index of each article. Please cite the context at the end of the relevant sentence when appropriate. Use the citation format [citation:X] in the corresponding part of your answer. If a sentence is derived from multiple contexts, list all relevant citation numbers, such as [citation:3][citation:5]. Be sure not to cluster all citations at the end; instead, include them in the corresponding parts of the answer.
When responding, please keep the following points in mind:
- Today is {cur_date}.
- Not all content in the search results is closely related to the user's question. You need to evaluate and filter the search results based on the question.
- For listing-type questions (e.g., listing all flight information), try to limit the answer to 10 key points and inform the user that they can refer to the search sources for complete information. Prioritize providing the most complete and relevant items in the list. Avoid mentioning content not provided in the search results unless necessary.
- For creative tasks (e.g., writing an essay), ensure that references are cited within the body of the text, such as [citation:3][citation:5], rather than only at the end of the text. You need to interpret and summarize the user's requirements, choose an appropriate format, fully utilize the search results, extract key information, and generate an answer that is insightful, creative, and professional. Extend the length of your response as much as possible, addressing each point in detail and from multiple perspectives, ensuring the content is rich and thorough.
- If the response is lengthy, structure it well and summarize it in paragraphs. If a point-by-point format is needed, try to limit it to 5 points and merge related content.
- For objective Q&A, if the answer is very brief, you may add one or two related sentences to enrich the content.
- Choose an appropriate and visually appealing format for your response based on the user's requirements and the content of the answer, ensuring strong readability.
- Your answer should synthesize information from multiple relevant webpages and avoid repeatedly citing the same webpage.
- Unless the user requests otherwise, your response should be in the same language as the user's question.
# The user's message is:
{question}'''
```

第四點:別讓模型繞過思考

DeepSeek發(fā)現(xiàn),DeepSeek-R1系列模型在回應某些查詢時,可能會跳過思考過程(即直接輸出空的思考標簽「<think>\n\n</think>」),這會影響模型的推理性能。

為確保模型進行完整的推理過程,官方建議:強制要求模型在每次輸出時都以思考標簽「<think>\n」開始。

圖片

OpenAI:推理模型的最佳實踐

在這邊,OpenAI也放出使用o系列模型的最佳實踐指南。

圖片

推理模型與GPT模型

OpenAI介紹道,與GPT模型相比,o系列模型在不同任務上表現(xiàn)出色,且需要使用不同的提示。

這兩類模型沒有優(yōu)劣之分——它們各有所長。

o系列模型更像是一個「規(guī)劃者」,能深入思考復雜任務;相比之下,GPT模型則是一個「執(zhí)行者」,能直接執(zhí)行任務,延遲低、性價比更高。

在不同情況下,具體選擇哪個模型,推薦如下。

  • 速度和成本:選擇GPT模型,因為它們處理速度更快,成本更低
  • 執(zhí)行明確任務:選擇GPT模型,它們在處理界定清晰的任務時表現(xiàn)出色
  • 準確性和可靠性:選擇o系列模型,它們是可靠的決策專家
  • 復雜問題解決:選擇o系列模型,它們善于處理模糊和復雜的問題

大多數AI工作流,可以使用二者的結合。

圖片

何時使用推理模型

OpenAI列出了一些從客戶和內部觀察到的成功使用模式,是一些針對o系列模型的實用指導。

1. 處理模糊任務

推理模型特別擅長處理信息有限或零散的情況,只需通過簡單的提示詞就能理解用戶意圖并妥善處理指令中的信息缺口。

值得注意的是,推理模型通常會在做出未經驗證的猜測或填補信息空缺之前,主動提出澄清性問題。

圖片

AI知識平臺的法律和金融公司表示,只需一個簡單提示,o1就能使Matrix輕松識別信用協(xié)議中受限支付能力下可用的資金籃。此前沒有任何模型達到這種性能水平

2. 大海撈針

當需要處理大量非結構化信息時,推理模型特別擅長理解內容并精準提取出回答問題所需的關鍵信息。

圖片

比如,AI金融平臺發(fā)現(xiàn),為了分析一家公司的收購,o1審查數十份文件(合同和租賃協(xié)議),找到了可能影響交易的復雜條款

3. 在大型數據集中發(fā)現(xiàn)關系和細微差別

推理模型特別擅長分析包含數百頁密集、非結構化信息的復雜文檔,如法律合同、財務報表和保險索賠等。這些模型在識別文檔之間的關聯(lián)性,并基于數據中隱含的事實做出決策方面,表現(xiàn)尤為突出。

圖片

稅務研究平臺發(fā)現(xiàn),o1在綜合多個文檔的推理上表現(xiàn)要好得多

推理模型還特別擅長理解細微的政策和規(guī)則,并將其準確應用于具體任務中以得出合理結論。

圖片

投資管理AI平臺提問:融資如何影響現(xiàn)有股東,尤其是在行使反稀釋權的情況下?o1和o3-mini完美完成任務,而頂級財務分析師需要花20-30分鐘計算

4. 多步驟AI智能體規(guī)劃

推理模型在AI智能體規(guī)劃和策略制定中發(fā)揮著關鍵作用。

將推理模型作為「計劃者」時效果顯著:它能為問題制定詳細的多步驟解決方案,并根據具體需求(高智能或低延遲)選擇和分配合適的GPT模型(執(zhí)行者)來完成各個步驟。

圖片

o1很擅長選擇數據類型,將大問題分解為小塊

5. 視覺推理能力

截至目前,o1是唯一一個具備視覺處理能力的推理模型。

與GPT-4o相比,o1的獨特優(yōu)勢在于它能夠準確理解最具挑戰(zhàn)性的視覺內容,包括結構不規(guī)則的圖表和表格,以及質量欠佳的圖片。

圖片

SafetyKit會自動化審核數百萬種產品的風險與合規(guī)性,包括奢侈品仿制品、瀕危物種以及受管制物品。最困難的圖像分類任務上,o1達到了88%的準確性

可以看到,o1能夠從復雜的建筑工程圖紙中精確識別各類設施和材料,并生成完整的工程物料清單(BOM)。

最令人驚喜的發(fā)現(xiàn)是,o1能夠自動關聯(lián)不同圖紙之間的信息:它可以將建筑圖紙某頁的圖例信息正確應用到其他頁面,而無需特別指示。

圖片

例如,在識別4x4 PT木柱時,o1 夠根據圖例自動理解「PT」代表壓力處理

6. 代碼審查、調試和質量改進

推理模型在審查和改進大規(guī)模代碼方面表現(xiàn)突出??紤]到這類模型的較高延遲特性,通常將代碼審查任務安排在后臺運行。

雖然GPT-4o和GPT-4o mini憑借較低的延遲可能更適合直接編寫代碼,但在那些對延遲要求相對不那么嚴格的代碼生成場景中,o3-mini表現(xiàn)同樣出色。

圖片

Windsurf發(fā)現(xiàn),o3-mini非常擅長計劃和只需復雜的軟件設計系統(tǒng)

7. 評估和基準測試其他模型的響應

OpenAI還發(fā)現(xiàn),推理模型在對其他模型的輸出進行基準測試和評估方面表現(xiàn)優(yōu)異。

數據驗證對確保數據集的質量和可靠性至關重要,這一點在醫(yī)療保健等敏感領域尤其重要。

傳統(tǒng)驗證方法主要依賴預設規(guī)則和模式,而o1和o3-mini等先進模型則能夠理解上下文并進行數據推理,從而提供更靈活、更智能的驗證方案。

圖片

在醫(yī)療應用場景中,o1的推理能力能在最困難和最復雜的評分任務中精準識別細微差異,徹底改變評估方式

如何編寫推理模型的prompt

推理模型在處理簡明直接的提示詞時表現(xiàn)最佳。某些提示工程(如要求模型「一步一步思考」)可能并不會提升性能,有時反而會降低效果。

簡單來說,你可以可以這樣理解:

  • 推理模型就像一位經驗豐富的高級同事——你只需告訴他們最終目標,就能相信他們自主完成所有細節(jié)工作。
  • GPT模型則更像一位新手同事——你需要提供明確詳細的指示,才能讓他們準確完成特定的輸出任務。

構建prompt的具體建議如下:

  • 用開發(fā)者消息取代系統(tǒng)消息:自o1-2024-12-17版本起,推理模型開始支持開發(fā)者消息(developer message)而非系統(tǒng)消息(system message)。
  • 保持提示詞簡潔明確:推理模型最擅長理解和響應簡短、清晰的指令。
  • 避免使用CoT提示:由于模型內置推理能力,因此無需特別提示它們「一步一步思考」或「解釋推理過程」。
  • 善用分隔符增強清晰度:使用Markdown、XML標簽和章節(jié)標題等分隔符來明確區(qū)分輸入的不同部分,這有助于模型準確理解各個章節(jié)的內容。
  • 優(yōu)先嘗試零樣本學習:推理模型通常無需少樣本示例即可產出優(yōu)質結果,因此建議先嘗試不含示例的提示詞。如果對輸出結果有更復雜的要求,再考慮在提示詞中添加輸入和期望輸出的示例。請注意確保示例與提示詞指令嚴格匹配,因為不一致可能導致性能下降。
  • 提供明確約束條件:如果需要對模型的響應施加具體限制(例如「提供預算控制在500美元以內的解決方案」),請在提示詞中明確列出這些約束條件。
  • 明確定義目標:在指令中,請詳細說明判定響應成功的具體參數,并引導模型持續(xù)優(yōu)化推理過程,直到達成設定的成功標準。
  • Markdown格式說明:從o1-2024-12-17版本開始,API中的推理模型默認不會生成帶有Markdown格式的響應。如果確實需要在響應中包含Markdown格式,請在開發(fā)者消息的首行添加「Formatting re-enabled」字符串。

以下是代碼重構、執(zhí)行規(guī)劃、STEM研究的prompt示例:

圖片

圖片

圖片

推理工作原理

推理模型在輸入和輸出token之外,還引入了推理token用于「思考」。

在生成推理token后,模型會生成可見的補全內容作為最終答案,同時從上下文中清除推理token。

下面是用戶與AI助手之間多輪對話的示例??梢钥吹剑枯唽υ挼妮斎牒洼敵鰐oken都會被保留,而推理token則會被移除。

圖片

責任編輯:張燕妮 來源: 新智元
相關推薦

2025-02-03 12:07:52

2025-02-08 11:31:17

DeepseekR1模型

2025-02-03 06:00:00

2025-02-17 07:35:00

DeepSeek模型數據

2025-01-27 12:30:07

2025-03-03 09:00:00

DeepSeekAI人工智能

2025-02-25 09:13:16

2025-03-20 10:20:16

2025-02-03 14:06:32

2025-01-21 11:53:53

2025-02-20 15:32:28

2025-02-08 14:03:25

2025-03-06 10:14:39

2025-03-05 09:10:00

AI生成模型

2025-03-10 08:10:00

AI研究安全

2025-02-10 06:50:00

AIDeepSeek推理模型

2025-05-06 09:09:37

2025-03-06 09:55:49

2025-03-03 08:21:00

2025-04-03 15:57:48

點贊
收藏

51CTO技術棧公眾號