一文教你如何用ChatGPT快速寫一篇報(bào)告
本文將分享訓(xùn)練ChatGPT(最新GPT-4模型版本)并生成報(bào)告的全過(guò)程,并就ChatGPT使用過(guò)程中存在哪些常見(jiàn)的問(wèn)題,如何使用ChatGPT來(lái)最大化提升學(xué)習(xí)、工作效率等問(wèn)題進(jìn)行探討。
以下是AI安全報(bào)告生成全過(guò)程。
基礎(chǔ)架構(gòu)
選題
優(yōu)質(zhì)的選題能夠幫助學(xué)術(shù)研究者快速確定報(bào)告的切入點(diǎn),引導(dǎo)讀者捕捉報(bào)告的主旨,使整個(gè)報(bào)告呈現(xiàn)更清晰的架構(gòu)和邏輯。通過(guò)向ChatGPT介紹報(bào)告的背景或者提供關(guān)鍵詞、概述,ChatGPT能夠在幾秒內(nèi)生成選題,供研究者參考。
我們?cè)谔釂?wèn)時(shí),可要求ChatGPT同時(shí)生成多個(gè)選題,這在幫助學(xué)術(shù)研究者迅速篩選出最切合需求的標(biāo)題的同時(shí),也可指導(dǎo)研究者跳出思維定式,拓寬研究者的思路。
結(jié)合實(shí)際情況,我們需引導(dǎo)ChatGPT對(duì)生成的標(biāo)題進(jìn)行調(diào)整與優(yōu)化,使最終報(bào)告的選題更加貼合實(shí)際需求、更有針對(duì)性。
值得一提的是,ChatGPT的語(yǔ)言能力可謂令人驚喜,“小紅書(shū)風(fēng)格”、“知乎體”統(tǒng)統(tǒng)不在話下。為提升報(bào)告的閱讀效果和傳播力,我們可對(duì)標(biāo)題的措辭與語(yǔ)言風(fēng)格進(jìn)行要求。
若需在標(biāo)題風(fēng)格、措辭均與預(yù)期沒(méi)有明顯偏差的情況下,對(duì)標(biāo)題進(jìn)行進(jìn)一步改進(jìn),也可向 ChatGPT直接發(fā)出“優(yōu)化”指令。同樣,在輸入指令時(shí),最快速有效的方式是命令ChatGPT一次性提供多個(gè)回答,以更迅速、廣范圍地定位結(jié)果。
創(chuàng)建大綱
在確定選題后,我們可以利用ChatGPT構(gòu)建一份最基礎(chǔ)的報(bào)告大綱,這極大程度上縮短了報(bào)告前期桌面調(diào)查、資料整理和篩選的過(guò)程,為后續(xù)研究提供基本的思路。
在此之前,我們首先要確保大綱的整體脈絡(luò)與我們的預(yù)期基本相符,而不存在重大的離題、偏題等情況,從而節(jié)省后期糾錯(cuò)、調(diào)整、優(yōu)化的時(shí)間成本。
為了實(shí)現(xiàn)這一結(jié)果,我們需要首先讓ChatGPT生成一份報(bào)告摘要。
很顯然,上述回答出現(xiàn)了"嘎然而止"的情況。根據(jù)官方,GPT-4的輸入、輸出上限在2.5萬(wàn)個(gè)字符,約等于2600個(gè)漢字。而我們的試驗(yàn)結(jié)果顯示,中文漢字輸入、輸出內(nèi)容通常在500-1000個(gè)字符內(nèi)即達(dá)到上限。
好在,因字?jǐn)?shù)限制而中斷的回答可在引導(dǎo)下繼續(xù)輸出結(jié)果。進(jìn)行這一操作時(shí)需注意評(píng)估此前生成內(nèi)容中斷的位置,以大致判斷遺漏內(nèi)容所占比例,若中斷位置接近尾聲,將有較高的成功率使模型繼續(xù)回答。
摘要內(nèi)容主要以幫助我們框定報(bào)告整體站位、明確報(bào)告大綱范圍為目的,針對(duì)摘要中可能出現(xiàn)的用詞不當(dāng)、邏輯性、段落聯(lián)結(jié)性等問(wèn)題,我們?cè)诖穗A段無(wú)需過(guò)多關(guān)注。
由于這一步驟處在報(bào)告創(chuàng)建的最早期,具體內(nèi)容通常與最終生成的報(bào)告結(jié)果存在較大的出入,摘要中的文字內(nèi)容將不會(huì)被我們直接沿用于報(bào)告中。因此我們只需檢查摘要的側(cè)重與涉及范圍,經(jīng)過(guò)增減與修改后即可生成報(bào)告大綱。
可以見(jiàn)得,ChatGPT生成的大綱乍一看已具備基本的結(jié)構(gòu)與邏輯性,但對(duì)于深層次的邏輯關(guān)系處理能力仍然十分有限。
例如,第六章節(jié)的標(biāo)題"提升AI安全意識(shí)與教育"屬于發(fā)展建議的一部分,與第七章"結(jié)論與建議"屬于包含而非并列關(guān)系。又如第五部分"AI風(fēng)險(xiǎn)的治理與監(jiān)管"部分下的四個(gè)小標(biāo)題均聚焦于針對(duì)AI風(fēng)險(xiǎn)治理的建議,且建議結(jié)果存在內(nèi)容空泛、缺乏實(shí)操性的缺點(diǎn),而未涵蓋有關(guān)AI監(jiān)管現(xiàn)狀及發(fā)展的任何內(nèi)容。
因此我們需要對(duì)大綱的結(jié)構(gòu)、整體邏輯性、觀點(diǎn)合理性進(jìn)行詳細(xì)的檢查,同時(shí)結(jié)合報(bào)告自身需求對(duì)大綱內(nèi)容進(jìn)行增減與調(diào)整。
跳脫“直覺(jué)思維”是此過(guò)程的核心,ChatGPT模型與人腦構(gòu)造最本質(zhì)的差距在于,對(duì)非線性情景的處理能力與基于直覺(jué)的判斷力。認(rèn)清這點(diǎn)后,我們需將問(wèn)題描述設(shè)置地盡可能詳細(xì)、具體、邏輯清晰,可借助分點(diǎn)式的描述風(fēng)格便于ChatGPT更準(zhǔn)確地理解需求。
以上生成結(jié)果同時(shí)反映了ChatGPT具備的能力與存在的局限。一方面ChatGPT準(zhǔn)確理解了“第六章融入第七章”、“第五章調(diào)整報(bào)告框架”、“引言的切入點(diǎn)”等指令并作出響應(yīng)。另一方面,ChatGPT的響應(yīng)內(nèi)容相對(duì)機(jī)械化,對(duì)常識(shí)、直覺(jué)性知識(shí)的認(rèn)知水平也非常有限。
以“將第六章融入至第七章”的指令為例,ChatGPT機(jī)械地將原先第六章下的小標(biāo)題直接挪用至第7章(5、6、7點(diǎn))。很顯然, 5、6、7點(diǎn)均屬于"提升AI安全意識(shí)與教育"的一個(gè)部分,與其他幾項(xiàng)建議內(nèi)容無(wú)法直接構(gòu)成并列關(guān)系,造成大綱結(jié)構(gòu)的明顯失衡。又例如針對(duì)第五章框架修改的指令,ChatGPT直接對(duì)輸入指令進(jìn)行了原封不動(dòng)的照搬。
我們引導(dǎo)ChatGPT對(duì)以上問(wèn)題進(jìn)行逐個(gè)優(yōu)化,例如要求ChatGPT將第六章節(jié)的三個(gè)標(biāo)題融合為一個(gè)點(diǎn):
再一次,ChatGPT雖正確理解了指令內(nèi)容,其執(zhí)行操作僅僅是機(jī)械地將5、6、7標(biāo)題內(nèi)容合并在一個(gè)長(zhǎng)句子中,此形式的標(biāo)題幾乎不可能出自人類研究者的手中,這是源于人類研究者幾乎無(wú)需思考便能對(duì)報(bào)告標(biāo)題的格式有一個(gè)基本的預(yù)設(shè)(簡(jiǎn)練、重點(diǎn)明確、概括性強(qiáng)等),而此類常識(shí)性的認(rèn)知正是ChatGPT所不具備的。
訓(xùn)練進(jìn)行到這一步,我們不難得出一個(gè)大致結(jié)論:不要忽視對(duì)ChatGPT交代那些人類思維習(xí)慣中已成為常識(shí)、先驗(yàn)性的知識(shí)背景,不要預(yù)設(shè)ChatGPT能夠生成任何指令以外的內(nèi)容,盡可能具體地描述輸出要求。
根據(jù)上述經(jīng)驗(yàn)總結(jié),我們?cè)俅螄L試訓(xùn)練ChatGPT,對(duì)此部分標(biāo)題進(jìn)行優(yōu)化,限定了第六章第5點(diǎn)標(biāo)題的篇幅,并列出具體的參考標(biāo)準(zhǔn)(與1、2、3、4點(diǎn)標(biāo)題的篇幅一致),終于得到了相對(duì)滿意的結(jié)果。
正文攥寫
報(bào)告正文攥寫是一項(xiàng)層層剝離、抽絲剝繭的工作。概括而言,訓(xùn)練的方法與順序需遵循以下基本原則:先確認(rèn)大章節(jié)方向、再確認(rèn)小章節(jié)方向、最后優(yōu)化小章節(jié)內(nèi)容。
為盡可能縮短后期修正、返工的時(shí)間成本,我們需要首先確保每一章節(jié)生成的內(nèi)容與預(yù)期不存在重大偏離,并根據(jù)ChatGPT回答內(nèi)容對(duì)每一章節(jié)的框架脈絡(luò)進(jìn)行調(diào)整。
以第三章節(jié)內(nèi)容為例,我們首先要求ChatGPT對(duì)即將生成的內(nèi)容進(jìn)行描述。
初看ChatGPT的回答思路并不存在明顯問(wèn)題,且具備一定的條理性。仔細(xì)閱讀生成結(jié)果即暴露出一個(gè)ChatGPT的常見(jiàn)缺陷:點(diǎn)與點(diǎn)之間的內(nèi)容互相割裂,甚至出現(xiàn)交叉重合的情況。
例如,針對(duì)深度學(xué)習(xí)所存在的風(fēng)險(xiǎn),ChatGPT給出的回答是“過(guò)擬合”、“對(duì)抗樣本攻擊”,而對(duì)于自然語(yǔ)言處理技術(shù)所存在的風(fēng)險(xiǎn),ChatGPT的答案則包括了“模型泄露敏感信息”。
這些風(fēng)險(xiǎn)均屬于不同AI技術(shù)所面臨的共通性威脅,若按照以上思路生成報(bào)告,此章節(jié)每一針對(duì)特定AI技術(shù)領(lǐng)域風(fēng)險(xiǎn)的描述中,均將包含大量AI技術(shù)的通用性風(fēng)險(xiǎn),造成報(bào)告結(jié)構(gòu)的混亂與內(nèi)容的重合。
我們針對(duì)上述問(wèn)題對(duì)第三章框架進(jìn)行調(diào)整,要求ChatGPT描述三大核心AI技術(shù)領(lǐng)域存在的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)中的共性與差異。
收到指令的ChatGPT順利對(duì)“共性風(fēng)險(xiǎn)”與“特有風(fēng)險(xiǎn)”部分進(jìn)行了區(qū)分。
前期一切準(zhǔn)備工作就緒,即可進(jìn)行最核心、最費(fèi)時(shí)的環(huán)節(jié)——報(bào)告正文內(nèi)容的攥寫。
不難看出,此階段的輸出結(jié)果更像是一份大綱,后續(xù)環(huán)節(jié)涉及小標(biāo)題的篩選與確認(rèn),以及具體內(nèi)容的延展與調(diào)整。
快速擴(kuò)充內(nèi)容最省時(shí)的做法是,直接要求ChatGPT對(duì)生成內(nèi)容進(jìn)行補(bǔ)充,可利用“擴(kuò)充”、“延伸”、“具體說(shuō)明”等關(guān)鍵詞,并限定擴(kuò)充篇幅。
以上便是最粗略的報(bào)告生成步驟,此后的工作重點(diǎn)主要集中在最為漫長(zhǎng)瑣碎的結(jié)果糾錯(cuò)、內(nèi)容調(diào)整與優(yōu)化環(huán)節(jié),注意遵從先核實(shí)信息真實(shí)性與準(zhǔn)確性、再完善結(jié)構(gòu)與內(nèi)容的基本原則。
虛心認(rèn)錯(cuò),屢教不改
上述基礎(chǔ)架構(gòu)的搭建看似并不復(fù)雜,如果認(rèn)為輸入簡(jiǎn)單的指令就萬(wàn)事大吉,可高枕無(wú)憂地將報(bào)告攥寫的重任完全交由ChatGPT完成,就大錯(cuò)特錯(cuò)了。
實(shí)際上,在ChatGPT具體內(nèi)容生成的過(guò)程中,可能出現(xiàn)的問(wèn)題層出不窮。最典型的例子當(dāng)屬被廣泛詬病的"一本正經(jīng)地胡說(shuō)八道"、"編造文獻(xiàn)"等直接造假行為。
這一問(wèn)題在我們攥寫第五章節(jié)"AI風(fēng)險(xiǎn)的治理與監(jiān)管"這類以嚴(yán)格的法律、政策文件為依據(jù)的內(nèi)容時(shí)尤為明顯。我們?cè)谟?xùn)練過(guò)程中遇到的錯(cuò)誤類型五花八門:編寫不存在的政策文件名稱、編寫不實(shí)政策頒布機(jī)構(gòu)、編寫錯(cuò)誤的政策頒布年限、頒布不存在的政府行為等。
例如在美國(guó)部分政策內(nèi)容的訓(xùn)練過(guò)程中,ChatGPT在最初短短的4點(diǎn)回答中就犯下一個(gè)明顯錯(cuò)誤:編造美國(guó)政府成立AI政策辦公室的不實(shí)政府行為。
我們對(duì)生成結(jié)果提出改進(jìn)建議,其中包括詢問(wèn)"美國(guó)政府成立AI政策辦公室"這一不實(shí)信息的成立機(jī)構(gòu)。
令人遺憾的是,ChatGPT非但沒(méi)有認(rèn)知到回答結(jié)果的錯(cuò)誤,反而將錯(cuò)就錯(cuò),根據(jù)問(wèn)題繼續(xù)編造生成內(nèi)容。
再比如,以下回答可謂是AI生成錯(cuò)誤內(nèi)容的大合集。短短的4個(gè)問(wèn)題中即包括了3個(gè)重大錯(cuò)誤,最荒謬的錯(cuò)誤當(dāng)屬直接對(duì)《NISTIR 8272:相互依賴的網(wǎng)絡(luò)供應(yīng)鏈風(fēng)險(xiǎn)的影響分析工具》,一份關(guān)于網(wǎng)絡(luò)供應(yīng)鏈風(fēng)險(xiǎn)分析,完全無(wú)關(guān)AI安全的文件進(jìn)行移花接木,為編號(hào)為NISTIR 8272的文件安上了不存在的名稱《NISTIR 8272:人工智能風(fēng)險(xiǎn)管理框架》。
而四點(diǎn)回答中唯一正確的回答竟是承認(rèn)上一問(wèn)生成內(nèi)容所產(chǎn)生的錯(cuò)誤??梢?jiàn),雖ChatGPT的認(rèn)錯(cuò)態(tài)度良好,但秉持屢教不改的執(zhí)行原則,ChatGPT對(duì)嚴(yán)肅的政府行為、政策制度、文獻(xiàn)等內(nèi)容的輸出結(jié)果準(zhǔn)確性非常低,用戶需對(duì)生成內(nèi)容進(jìn)行仔細(xì)的審核與校對(duì)。
下圖是另一個(gè)極具代表性的錯(cuò)誤示例,左圖為ChatGPT生成的有關(guān)歐盟發(fā)布的AI安全監(jiān)管政策的梳理,很明顯,左圖內(nèi)容主要圍繞“AI”而非“AI安全”展開(kāi)。
我們對(duì)以上問(wèn)題發(fā)出"修改側(cè)重"的指令,如右圖。很顯然,ChatGPT修改后的回答并沒(méi)有按照設(shè)想那樣,對(duì)歐盟政府側(cè)重于“AI安全”的文件進(jìn)行重新整理。
相反,ChatGPT照搬了原回答中所涉及的所有文件名稱與政府行為,并直接替換了文件的主旨與目標(biāo),包括:將《人工智能的歐洲戰(zhàn)略》的目標(biāo)從“加強(qiáng)AI研究......”替換為“加強(qiáng)AI安全研究......”,將歐盟成立ELLIS的目的從“推動(dòng)AI研究”替換為“推動(dòng)AI安全研究”等。
這暴露出ChatGPT又一個(gè)致命問(wèn)題:ChatGPT可能會(huì)為了使得生成結(jié)果看似契合問(wèn)題需求,而對(duì)信息進(jìn)行直接篡改。
局限與建議
除以上事實(shí)性錯(cuò)誤,在內(nèi)容審核與校對(duì)的過(guò)程中,我們需重點(diǎn)檢查段落與段落之間是否存在交叉重合的情況。以4.1小章節(jié)數(shù)據(jù)投毒為例,數(shù)據(jù)投毒的基本概念在引言部分與4.1.1部分被同時(shí)提及。
順著以上例子,我們對(duì)ChatGPT的運(yùn)作規(guī)律作出大膽的推測(cè):即ChatGPT生成的回答由分散的小任務(wù)拼接而成的,這些任務(wù)之間相對(duì)獨(dú)立,欠缺邏輯聯(lián)結(jié)性。
若將數(shù)據(jù)投毒的引言部分視為一個(gè)小的生成任務(wù),ChatGPT的輸出結(jié)果已符合一個(gè)合格引言的基本標(biāo)準(zhǔn):(闡述數(shù)據(jù)投毒概念——介紹后文內(nèi)容)。同樣,若將4.1.1部分視為一個(gè)小的生成任務(wù),其輸出結(jié)果也不存在明顯的差錯(cuò)。
當(dāng)我們明確向ChatGPT指出內(nèi)容重合的情況時(shí),ChatGPT很快理解了修改指令并重新完成作答,如下圖。
顯然,ChatGPT具備“識(shí)別重合內(nèi)容”的能力,其缺乏的是“段落之間不應(yīng)存在大量重合內(nèi)容”的認(rèn)知。由此可見(jiàn),人腦網(wǎng)格化的關(guān)聯(lián)分析能力,正是AI最難效仿與取代的部分。
有趣的是,當(dāng)ChatGPT將4.1.1的內(nèi)容合并入引言部分時(shí),并未對(duì)其余編號(hào)進(jìn)行相應(yīng)調(diào)整,而當(dāng)我們指出ChatGPT所存在的問(wèn)題時(shí),模型有效發(fā)現(xiàn)了錯(cuò)誤并準(zhǔn)確完成了編號(hào)修改。
這類編號(hào)錯(cuò)誤并不影響我們對(duì)于ChatGPT的實(shí)際使用,但可作為一個(gè)很好的示例印證我們關(guān)于ChatGPT分散式任務(wù)拼接機(jī)制的假設(shè)。
我們也嘗試引導(dǎo)模型對(duì)段落的聯(lián)結(jié)性進(jìn)行增強(qiáng),得到了以“在XXX后,企業(yè)需關(guān)注XXX”為格式的反饋結(jié)果。顯然,這種機(jī)械化增添先后順序的模式,并無(wú)法真正反應(yīng)段落間的實(shí)質(zhì)聯(lián)系。
到此,我們對(duì)ChatGPT所存在的局限性與能力上限形成了一個(gè)大致的預(yù)期。要而言之,ChatGPT可大批量對(duì)現(xiàn)象、事實(shí)、觀點(diǎn)等進(jìn)行迅速匯總,也已具備一定的邏輯判斷能力。
然而,由于ChatGPT的邏輯判斷依據(jù)主要依托語(yǔ)言統(tǒng)計(jì)學(xué),而非認(rèn)知能力,導(dǎo)致其常常出現(xiàn)邏輯錯(cuò)誤、結(jié)構(gòu)混亂,甚至因果倒置等情況,更無(wú)法真正挖掘信息之間深層次、本源性的聯(lián)系。
人腦則負(fù)責(zé)對(duì)ChatGPT提供的基礎(chǔ)信息進(jìn)行準(zhǔn)確性審核、共性歸納、趨勢(shì)總結(jié)等更高階的分析與概括。
明確了人類與ChatGPT的角色分工,也就不難得出最大化利用ChatGPT優(yōu)化生成報(bào)告、優(yōu)化報(bào)告內(nèi)容,進(jìn)而賦能工作的方法:利用人腦構(gòu)造一條達(dá)成目標(biāo)所必要的信息需求鏈,并盡可能拋開(kāi)直覺(jué),具象化地對(duì)鏈上的信息需求進(jìn)行描述。
以報(bào)告4.1.1為例,我們?cè)谝髨?bào)告對(duì)數(shù)據(jù)投毒內(nèi)容進(jìn)行具體說(shuō)明時(shí),通過(guò)追問(wèn)成因、要求ChatGPT舉例說(shuō)明等具象化描述,框定了信息需求方向。
總結(jié)
總的來(lái)說(shuō),ChatGPT向我們交出了一份令人滿意的答卷,盡管訓(xùn)練過(guò)程面臨諸多難點(diǎn)與不確定性,ChatGPT對(duì)于指令的理解力與執(zhí)行力令人驚喜。
FreeBuf咨詢認(rèn)為,ChatGPT可作為課題分析、學(xué)術(shù)研究的起點(diǎn), 向人類提供達(dá)成目標(biāo)所需要的匯總信息。通過(guò)龐大的訓(xùn)練數(shù)據(jù)庫(kù),為學(xué)術(shù)研究者快速確定報(bào)告的切入點(diǎn),極大程度上縮短了報(bào)告前期桌面調(diào)查、資料整理和篩選的過(guò)程,為后續(xù)研究工作提供參考思路。
然而,ChatGPT存在的局限性與能力上限也十分明顯。由于ChatGPT的輸出內(nèi)容主要基于上下文詞語(yǔ)的統(tǒng)計(jì)分布,而非嚴(yán)謹(jǐn)?shù)氖聦?shí),ChatGPT生成結(jié)果的真實(shí)性往往無(wú)法得到保證,甚至常常出現(xiàn)邏輯錯(cuò)誤、結(jié)構(gòu)混亂,因果倒置等情況。
此外,由于缺乏非線性的關(guān)聯(lián)分析能力,ChatGPT無(wú)法真正挖掘段落間的實(shí)質(zhì)聯(lián)系,這使其與人腦之間存在著一道無(wú)法逾越的鴻溝。準(zhǔn)確性審核、共性歸納、趨勢(shì)總結(jié)等更高階的分析行為,仍然需要人類力量來(lái)執(zhí)行。