偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

我對 AI 寫作的一些思考:Writing in the Age of LLMs 原創(chuàng) 精華

發(fā)布于 2025-7-2 08:39
瀏覽
0收藏

編者按: 當(dāng)你收到一篇由 AI 完成的文章時,是否也有過這樣的困惑:內(nèi)容看似專業(yè)嚴謹,讀起來卻總覺得缺少什么?明明語法正確、邏輯清晰,為什么就是無法抓住讀者的注意力?

本文作者基于豐富的技術(shù)寫作經(jīng)驗,深入剖析了 AI 生成內(nèi)容的八大典型問題。更重要的是提出了一套完整的“人機協(xié)作寫作流程”,每個環(huán)節(jié)都有具體的操作策略。作者還為那些被誤判為“AI 腔”的優(yōu)秀寫作技巧正了名,幫助大家重新審視那些優(yōu)秀的表達方式。

作者 | Shreya Shankar

編譯 | 岳揚

過去幾年間,我撰寫并審閱過不少技術(shù)論文和博客文章。經(jīng)常能遇到一些讀起來略顯“別扭”的 AI 生成內(nèi)容 —— 說實話,有些內(nèi)容甚至毫無吸引力。但與此同時,我也從使用大語言模型起草初稿、總結(jié)大量雜亂的材料、梳理混亂的思路中獲益良多。

本文詳細闡述了在這個機器生成內(nèi)容泛濫的時代,我對寫作的一些思考。首先,本文將剖析 AI 工具所產(chǎn)出內(nèi)容的一些糟糕的寫作模式。然后,我要為某些被武斷貼上“AI腔”標簽,實則運用得當(dāng)便能錦上添花的寫作習(xí)慣正名。最后,本文將分享一些我個人寫作及調(diào)教 AI 時遵循的具體法則與模板。

01 我從 LLM 工具所生成內(nèi)容中看到的一些糟糕的寫作模式

以下是我經(jīng)??吹降囊恍┚拘盘?—— 主要來自 AI 生成的內(nèi)容,但某些人類作者為追求“文雅、正式”而誤入歧途時也會如此。

1.1 假大空的“總結(jié)句”

這類句子常出現(xiàn)在段落結(jié)尾,例如:

  • “遵循這些步驟,即可提升性能”
  • “掌握這些原則,你就能撥云見日”

看似擲地有聲,實則空洞無物。我主張用能引發(fā)新思考的收尾 —— 至少該留些讓讀者回味的余地??上е两裎凑业阶?AI 寫出這種有深度結(jié)尾的可靠方法。

1.2 濫用項目符號(bullet points and outlines)

LLMs 經(jīng)常過度使用項目符號,特別是嵌套的項目符號。 當(dāng)內(nèi)容平行且獨立時,列表確實很清晰,但當(dāng)觀點之間存在邏輯關(guān)聯(lián)或需要背景知識支撐時,以段落形式闡述往往更為適宜。

1.3 句式單調(diào)乏味

當(dāng)所有句子都保持相同長度時,文章就會失去節(jié)奏感,讀起來艱澀費力。 交替的長短句能有效抓住讀者注意力 —— 它們既能突出重點,又能抓住讀者的注意力,還能控制閱讀節(jié)奏。

反面教材:

We recently launched a conversational AI feature that lets users ask questions in plain English and get responses based on their past activity and current session. The system searches a database of help articles, ranks the most relevant ones using a custom scoring function, and passes the top result into a language model to generate the final answer. We spent weeks optimizing each step to keep latency under 300 milliseconds, including caching, pruning irrelevant articles, and tuning prompt templates.

我們最近推出了一個對話式 AI 功能,允許用戶用簡單的英語提問,并根據(jù)用戶的歷史活動和當(dāng)前會話獲得響應(yīng)。該系統(tǒng)會搜索幫助文檔數(shù)據(jù)庫,使用自定義的評分函數(shù)對最相關(guān)的內(nèi)容進行排序,并將最佳結(jié)果輸入語言模型以生成最終答案。我們花費數(shù)周時間優(yōu)化每個步驟,將延遲控制在 300 毫秒內(nèi),包括緩存處理、剔除無關(guān)文章和調(diào)整提示詞模板。

正面示范:

We just launched a new conversational AI feature. It answers user questions in plain language, using context from the current session. The system searches help articles, scores them with a custom ranking function, feeds the top result into a fine-tuned language model, and runs in under 300ms using caching, pruning, and prompt tuning techniques.

我們剛剛推出了全新的對話式 AI 功能。它能參考當(dāng)前會話的上下文,以通俗易懂的語言回答用戶的問題。該系統(tǒng)會搜索幫助文檔,通過自定義的排序算法評分,將最佳結(jié)果輸入微調(diào)后的語言模型,借助緩存、剔除無關(guān)文章和提示詞優(yōu)化技術(shù),確保響應(yīng)速度始終低于 300 毫秒。

1.4 主語選擇失當(dāng)

每個句子都包含有主語和謂語。主語告訴我們這個句子是關(guān)于什么的,而謂語則說明主語的動作或狀態(tài)。選擇正確的主語能讓讀者始終將注意力集中在核心思想上,而 AI 寫作最常犯的錯誤就是選錯主語。 請看同一句話的兩種表達:

反面教材:

Readers are better guided when the subject matches the main idea of the sentence.

當(dāng)主語與句子的核心思想相符時,讀者能得到更好的引導(dǎo)。

正面示范:

Choosing the right subject keeps the writing clear and focused.

選對主語能讓文章思路清晰、重點突出。

在“反面教材”版本中,主語是"讀者",但該句子實際討論的卻是句式結(jié)構(gòu),而不是關(guān)于人的?!罢媸痉丁卑姹緞t讓主語與句子主題保持一致,使行文更加連貫,更容易理解。

1.5 信息密度較低

以下是 Gemini 2.5 Pro 在被要求撰寫一篇關(guān)于“writing in the age of LLMs”的博客文章時生成的導(dǎo)語:

As someone who writes, reviews, and deconstructs complex information for a living, I’ve developed a strong allergy to bad writing. And lately, a lot of that bad writing has a specific, synthetic flavor—the unmistakable scent of an LLM. This post is a guide to navigating the new world of writing, with or without LLM assistance. First, I’ll cover the true pitfalls of LLM-generated text—the red flags that make it feel sterile and unconvincing.

“作為一名以撰寫、審閱和解析復(fù)雜信息為職業(yè)的人,我對拙劣的文字產(chǎn)生了強烈的過敏反應(yīng)。而最近,很多糟糕的文章都帶有一種特殊的合成味道 —— 那種 LLM 獨有的氣息。無論是否借助 LLM,本文都將成為你在寫作新世界中遨游的指南。首先,我將介紹 LLM 撰寫的文章的真正陷阱 —— 那些讓人感覺空洞乏味的危險信號。”

這段文字聽起來不錯,但言之無物。句子結(jié)構(gòu)工整,卻缺乏具體的見解,沒有框架,沒有讓人讀下去的動力。

1.6 表述含糊不清

AI 寫作常?;乇芫唧w細節(jié)。它只提及觀點,卻不對其進行定義,提出一些主張卻無證據(jù)支撐。 例如:“有專家認為提示詞工程正變得不再重要。簡單地向 LLM 發(fā)送提示詞就能對工作效率產(chǎn)生重大影響?!钡切<沂钦l?具體有什么影響?對什么樣的工作有影響,對誰有影響?若缺乏具體例證或明確的價值闡述,這樣的文字就會顯得空泛而缺乏說服力。

1.7 濫用指示代詞

LLM 寫作過度依賴“這” 、“那”、“這些”、“那些”等代詞,卻常常不指明具體指代對象。 我也常犯這個錯誤,每次都會被導(dǎo)師在文稿里標出來(笑)。例如:"這會導(dǎo)致生產(chǎn)流程受阻。"——但“這”到底指什么?如果被指代的名詞不在同一句或前文中明確出現(xiàn),所指就會變得模糊,論點也隨之失去力度。

1.8 流利卻無實質(zhì)信息

有些文章讀起來貌似正確卻未傳遞任何實質(zhì)信息。 當(dāng)寫作者(或模型)不了解讀者的實際認知水平時,這種情況尤為常見。比如:“LLM 通過注意力機制生成符合上下文的響應(yīng)?!比绻x者根本不了解什么是注意力機制或它是如何工作的,這句話就等于什么都沒說。

更棘手的是,AI 經(jīng)常編造一些不存在的專業(yè)術(shù)語。我曾看到 AI 寫出這樣的句子:"我們使用 GPT-4 生成文本摘要,但它在某些細節(jié)內(nèi)容上產(chǎn)生了幻覺,因此增加了 retrieval grounding。"——"retrieval grounding"是什么?這根本不是一個公認的技術(shù)術(shù)語。

AI 無法可靠地區(qū)分哪些屬于常識、哪些需要解釋,因此常常對難點一筆帶過,這個認知缺口必須由人類作者來填補。

02 被誤判為“AI 腔”的優(yōu)秀寫作范式

我特意撰寫了這一節(jié)內(nèi)容,因為我發(fā)現(xiàn)大家在抵制 LLM 寫作套路時有些矯枉過正,將一些其實很有用的表達方式也一并摒棄。某些寫作結(jié)構(gòu)雖被貼上“AI 腔”標簽,或在審稿時被標記,但它們實則是常見且有效的修辭手法。不能僅因為在 AI 生成的文本中出現(xiàn)某種表達就判定其拙劣 —— 我們的寫作目標不在于刻意回避“像 AI”,而應(yīng)追求清晰、用心且收放自如的表達。

2.1 刻意重復(fù)的藝術(shù)

刻意重復(fù)的效果如何,主要取決于它如何支撐核心觀點。當(dāng)重復(fù)手法能化繁為簡或強化關(guān)鍵概念時,便具有畫龍點睛之效。 優(yōu)秀的寫作總會留出適當(dāng)?shù)摹昂粑鼌^(qū)”(predictability) —— 那些讓讀者能快速瀏覽或消化重點的段落 —— 但前提是每次重復(fù)都必須意圖明確。

示例:

向量數(shù)據(jù)庫存儲的是嵌入向量(embeddings),即通過數(shù)百個維度編碼語義特征的數(shù)學(xué)表征。換言之,向量數(shù)據(jù)庫能找出語義“相近”的結(jié)果,而非僅匹配字面完全相同的文本。

2.2 “路標”式短語(Signposting phrases)

諸如“從本質(zhì)上講”、“簡言之”、“關(guān)鍵在于...”等短語,只要后接有用的內(nèi)容就完全可取。 我喜歡在文章冗長時使用這些短語,因為這些“路標”可以幫助讀者重新定位。

示例:

從本質(zhì)上講,我們不是將文檔作為一個整體來分類,而是將每個章節(jié)獨立分類。

2.3 平行式表述(Parallel structure)

讀者有時會將重復(fù)的節(jié)奏感誤判為 AI 特征。但“平行式表述”其實能有效整合關(guān)聯(lián)概念,并使句子更易于理解。

示例:

該系統(tǒng)能彈性擴展處理各類輸入,在高負載下保持實時響應(yīng),即使面對雜亂的提示詞也能返回穩(wěn)定的輸出。

這種節(jié)奏感強化了表達的清晰度,且每個分句都傳遞了新信息。

2.4 通過統(tǒng)一語法范式設(shè)計的章節(jié)標題

例如:"Why X fails"、"What to do instead"、"How to know if it worked"。這類標題既清晰又具備可預(yù)測性 —— 這正是我們所需要的。只要各標題下的內(nèi)容清晰明確,具備可預(yù)測性反而是優(yōu)點。

2.5 斷言式開頭

用斬釘截鐵的論斷或主題句開啟章節(jié),若后文缺乏支撐會顯得機械生硬。但若用于設(shè)定預(yù)期,并輔以實證,那么此類開篇反而能幫助讀者把握論述錨點。

示例:

LLM 評估體系極難設(shè)計妥當(dāng)?,F(xiàn)有方案多依賴用戶定義的黃金標簽(gold labels)或模糊的準確率指標,這些方法對主觀性任務(wù)或多步驟任務(wù)完全失效。

2.6 妙用破折號

破折號堪稱插入補充細節(jié)、快速轉(zhuǎn)折或犀利旁白的利器 —— 且不破壞句子完整性。我對此情有獨鐘。如運用得當(dāng),它能增加文本的節(jié)奏感,并附帶強調(diào)效果,讓寫作如自然交談般流暢。

03 我的 AI 協(xié)作寫作流程

我的寫作流程始終圍繞著一個核心目標:保持推進勢頭。我不想陷入對著空白屏幕發(fā)呆的狀態(tài),也不想無休止地修改那些不盡人意的句子。無論是學(xué)術(shù)論文還是博客文章,我的大部分創(chuàng)作都遵循相同的流程:構(gòu)思大綱(在紙上或腦中)→生成草稿→通讀文本→批判審視→修改完善。 這個流程能夠以不同的粒度運行 —— 有時逐句推進,有時成段創(chuàng)作后再統(tǒng)一編輯。

不同寫作者的寫作瓶頸各異:有人困在規(guī)劃階段,難以將想法轉(zhuǎn)化為文章結(jié)構(gòu);有人快速產(chǎn)出初稿卻在修改時陷入困境。對我來說,我能迅速搭建文章框架但常卡在表達環(huán)節(jié) —— 問題不在于“說什么”,而在于“如何說清楚”。我的批判能力通常比創(chuàng)作能力更強,因此我常借助 LLMs 來幫助我突破這些卡點。

精準定位寫作阻滯點,將恰到好處的任務(wù)量委托給 LLM,以此重獲創(chuàng)作動能。以下是我的具體操作方案:

3.1 向 AI 模型“講述”文章結(jié)構(gòu)

動筆時(尤其是撰寫論文引言等正式內(nèi)容),我會先“講”一遍文章結(jié)構(gòu),就像在向同事解釋一樣。將這段粗略的敘述粘貼給 LLM,要求其生成詳細的大綱。直到大綱結(jié)構(gòu)令我滿意,才會進入下一步。

3.2 堅持自主完成段落初稿,即使很粗糙

即便已有大綱,我仍會強迫自己撰寫每個段落的初稿 —— 哪怕文筆拙劣。 當(dāng)清楚要表達什么卻難以落筆時(這種情況屢見不鮮),就先寫出“半成品”版本,再讓 AI 協(xié)助完善。

本文就有這樣一個真實案例:當(dāng)我輸入

“在過去的幾年里,我撰寫并審閱了大量技術(shù)論文和博客文章,總覺得有些地方稍有不妥,以至于寫出來的東西不吸引人。但與此同時,我又覺得利用 LLM 寫作能給我?guī)砭薮蟮膬r值...”

然后直接追加指令:"續(xù)寫這段話"。模型生成多個版本后,我挑選了最好的一個,稍作修改,然后繼續(xù)推進。

3.3 在修改過程中使用有范圍的改寫策略

當(dāng)我重讀一個感覺不對的句子或段落時,我不會簡單地要求范文 “改得更好”,而是給出一些具體的指令 —— 通常是要求 LLMs 遵循以下兩種修辭模式之一。第一種是將主語和動詞放在一起,置于句首。第二種是采用 SWBST 結(jié)構(gòu):Somebody Wanted But So Then。這個基礎(chǔ)的敘事框架雖然常見于初級寫作教育,卻在技術(shù)場景中效果驚人,因為它能用緊湊的形式傳達動機、出現(xiàn)的沖突和解決方案。

這里的“Somebody”是行為主體,“Wanted”陳述目標,“But”引入障礙,“So”說明應(yīng)對措施,“Then”描述結(jié)果。在技術(shù)寫作中,這種結(jié)構(gòu)能清晰地展現(xiàn)決策過程或系統(tǒng)如何發(fā)展以應(yīng)對問題。例如:“我們使用 GPT-4 生成摘要(目標),但其產(chǎn)生了事實性幻覺(障礙),因此增加檢索環(huán)節(jié)(對策),最終根據(jù)引用的準確率對輸出結(jié)果進行重排序(成果)”。每個短句承擔(dān)一項工作,這種簡單結(jié)構(gòu)能讓決策邏輯一目了然。

04 寫在文末的一些思考

如今,生成中等質(zhì)量文本的成本已大幅降低 —— 當(dāng)范圍明確且定義清晰時,甚至能產(chǎn)出高質(zhì)量內(nèi)容。但確定要表達的內(nèi)容、構(gòu)建論述框架、把握內(nèi)容深度與節(jié)奏,仍然很難。這些仍需人類的判斷力,而這也是當(dāng)前 LLM 無法代勞的核心環(huán)節(jié)(至少現(xiàn)階段如此)。

在這個 LLM 生成文本大行其道的時代,優(yōu)秀的寫作內(nèi)容最重要的標志或許就是內(nèi)容價值與文章篇幅的精準平衡。當(dāng)讀者掩卷時,能由衷覺得時間未被浪費 —— 這才是我始終追求的寫作標準。

END

本期互動內(nèi)容 ??

?你見過最離譜的 AI 車轱轆話是什么?來曬曬你收集的“正確的廢話”。

本文經(jīng)原作者授權(quán),由 Baihai IDP 編譯。如需轉(zhuǎn)載譯文,請聯(lián)系獲取授權(quán)。

原文鏈接:

??https://www.sh-reya.com/blog/ai-writing/??


?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責(zé)任
標簽
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦