學(xué)校封殺,大廠禁用,ChatGPT引發(fā)大面積恐慌!
12月,ChatGPT大紅大紫之際,就有諸多學(xué)者和研究人員發(fā)出警告:ChatGPT很可能「殺死」大學(xué)論文。最近,紐約市教育局就正式對ChatGPT下了封殺令。
無獨(dú)有偶,在很多互聯(lián)網(wǎng)大廠,ChatGPT也遭到了封殺。很多已經(jīng)習(xí)慣向ChatGPT咨詢代碼問題的碼農(nóng)們,原地爆哭……
大廠封殺ChatGPT,碼農(nóng)哭了
近日,一位碼農(nóng)在網(wǎng)上發(fā)帖稱,在自己所在的大廠,辦公室wifi禁用了ChatGPT。這直接把他整崩潰了。

博主表示,自己一名初級軟件工程師,而在團(tuán)隊(duì)中,前輩們總是很忙,沒有時(shí)間給他解釋問題。
每當(dāng)他在工作中卡住時(shí),ChatGPT都是他的救星。
但是昨天,當(dāng)他在辦公室坐下時(shí),忽然發(fā)現(xiàn)沒法訪問ChatGPT了!他瞬間破防。
在他的帖子下,熱心網(wǎng)友紛紛獻(xiàn)計(jì)。
比如,買一個(gè)便宜的VPS和域名并設(shè)置一個(gè)反向代理到ChatGPT官網(wǎng);在瀏覽器中啟用DoH和ECH;使用一個(gè)在線代理;或者在手機(jī)上通過電子郵件將輸出結(jié)果發(fā)送給自己等等。

當(dāng)然,有網(wǎng)友對公司的這個(gè)操作表示贊同:「你司禁用ChatGPT是很有道理的,好好想想,如果你解決公司問題的代碼可以很輕易地被競爭對手獲得,會產(chǎn)生什么后果吧?!?/span>

「不要向ChatGPT,或者從ChatGPT上復(fù)制粘貼代碼。在法律上,公司或客戶的代碼并不屬于你。而且你也沒有ChatGPT上代碼的版權(quán)。如果你這么做,會讓你面臨訴訟,被解雇。」
的確,已經(jīng)有大廠向員工發(fā)送電子郵件稱:「ChatGPT不是不能用,但是如果你往里面上傳代碼,你就會面臨被解雇的風(fēng)險(xiǎn),因?yàn)槲覀兊拇a非常敏感?!?/span>
不過,也有網(wǎng)友給出了扎心回復(fù):「如果一個(gè)初級開發(fā)者在沒有ChatGPT的情況下,就無法完成工作,那么他對公司來說,真的是可有可無?!?/span>
紐約頒布禁令,師生全都禁用
就在1月3日,擁有全美最大公立學(xué)校系統(tǒng)的紐約市,正式頒布了「ChatGPT禁令」。
也就是說,不管是老師還是學(xué)生,都無法在紐約市公立學(xué)校的網(wǎng)絡(luò)和設(shè)備上使用ChatGPT。
最近,洛杉磯和巴爾的摩的學(xué)區(qū)也加入到了這個(gè)行列。

紐約市教育局發(fā)言人Jenna Lyle表示,雖然ChatGPT可以提供快速和簡單的問題答案,但它不能培養(yǎng)學(xué)生批判性思維和解決問題的能力,而這些對于學(xué)術(shù)和終身成功來說至關(guān)重要。
當(dāng)然,如果學(xué)校的目的是研究ChatGPT背后的技術(shù),還是可以申請?jiān)L問的。
目前,ChatGPT將對論文作弊的風(fēng)險(xiǎn)產(chǎn)生什么影響還有待觀察,因?yàn)閷W(xué)生仍然可以在校外訪問自己的設(shè)備和網(wǎng)絡(luò)。
而佐治亞州的科布縣的態(tài)度,不僅沒那么強(qiáng)硬,甚至還對采用ChatGPT頗有興趣。
該學(xué)區(qū)的一位發(fā)言人表示,「在高素質(zhì)的科布縣教師手中,ChatGPT可以成為補(bǔ)充學(xué)生對學(xué)術(shù)內(nèi)容理解的寶貴工具,并可以幫助學(xué)生發(fā)展批判性思維能力?!?/span>
對此,在紐約精英高中Brooklyn Tech任教的Adam Stevens也認(rèn)為,禁用ChatGPT反而會帶來消極的影響。
畢竟在15、20年前,當(dāng)學(xué)生可以「在網(wǎng)上找到答案」時(shí),這些人也是這么針對谷歌的。
Stevens認(rèn)為,培養(yǎng)學(xué)生批判性寫作技能的最好方法是「邀請他們探索值得了解的事情」,并遠(yuǎn)離基于嚴(yán)格的評分標(biāo)準(zhǔn)的公式化寫作教學(xué)。
「當(dāng)然,如果你更看重學(xué)期末的分?jǐn)?shù),那么ChatGPT確實(shí)是一個(gè)威脅?!?/span>
同樣,俄勒岡州桑迪市的一名高中英語老師也有類似的看法。
Shields老師有25年教齡,她認(rèn)為,其實(shí)大可不必「談ChatGPT色變」,這款A(yù)I完全可以被用來幫助學(xué)生產(chǎn)生想法、組織思路,甚至撰寫整篇論文。
在她看來,教師們應(yīng)該接受,AI是學(xué)生可以使用的一種工具,就像每個(gè)老師都教學(xué)生如何使用搜索引擎一樣。
很多學(xué)生苦于無話可寫,此時(shí)教師可以使用ChatGPT向?qū)W生展示如何生成提示,來刺激他們的寫作。
Shields老師曾讓ChatGPT以7年級生、10年級生和大學(xué)生的風(fēng)格寫同一個(gè)主題的文章,每個(gè)級別之間的句法差異程度令人震驚。因而,完全可以使用這種AI生成的反饋,來向?qū)W生展示如何改進(jìn)他們的寫作。
ICML發(fā)文澄清:主要為防止抄襲,不影響潤色文章
前兩天,國際機(jī)器學(xué)習(xí)會議ICML 2023突然宣布:禁止使用大規(guī)模語言模型(如ChatGPT)生成論文的內(nèi)容,除非這些文本是實(shí)驗(yàn)分析的一部分。
要求一經(jīng)提出,便引發(fā)了眾多研究人員的不滿:拼寫檢查和文本預(yù)測基于的就是語言模型,為啥不讓我們用?

對此 ,圖靈獎得主Yann LeCun評論道:「大型語言模型不能用,意思是換成中型和小型語言模型就行咯?」
隨后還不忘陰陽一句:「明年的ICML道德準(zhǔn)則應(yīng)該變成:研究人員必須徒手完成各種計(jì)算,不能借助計(jì)算機(jī);各類圖形必須用筆和紙手繪;從今天起,ICML的官方語言變?yōu)槿鸬湔Z(瑞典:?)。」

由于引發(fā)的討論太過激烈,ICML不得不單獨(dú)發(fā)一條長文來解釋這個(gè)規(guī)定。概括來說,有三個(gè)要點(diǎn):
- 政策禁止完全由LLM「生成」的文本,但這并影響作者使用LLM來編輯或潤色自己寫的文本。
 - 政策主要是防止使用LLM可能會出現(xiàn)的潛在問題,比如抄襲。
 - 目前,政策僅適用于ICML2023。隨著我們對LLM及其對科學(xué)出版的影響有了更深入的了解,這一政策可能會在未來的會議中發(fā)生變化。
 

公告鏈接:https://icml.cc/Conferences/2023/llm-policy
大規(guī)模語言模型,爭議叢生
在過去的幾年里,大規(guī)模語言模型(LLM)的發(fā)展非常迅速。最近,這一進(jìn)展不僅沒有放緩,甚至還更快了。
正如大家看到的,過去幾個(gè)月發(fā)布的LLM,如OpenAI的ChatGPT,已經(jīng)能夠生成難以與人類相區(qū)分的文本片段。毫無疑問,這是自然語言處理和生成方面令人興奮的進(jìn)展。
但這種快速的進(jìn)展往往伴隨著意想不到的后果以及無法解答的問題。比如,由模型生成的文本和圖像是新穎的,還是現(xiàn)有工作的衍生品?
此外,文本片段、圖像以及其他由這些模型產(chǎn)生的內(nèi)容,又應(yīng)該歸誰所有:是生成模型的用戶,還是訓(xùn)練模型的開發(fā)者,抑或是制作訓(xùn)練數(shù)據(jù)的內(nèi)容創(chuàng)作者?
可以肯定的是,隨著大規(guī)模生成模型被更廣泛地應(yīng)用,這些問題都將隨著時(shí)間的推移得到解答,但現(xiàn)在還不行。尤其是距離ChatGPT的發(fā)布才過了不到2個(gè)月(2022年11月底)。
而對于ICML來說,他們并沒有足夠的時(shí)間來觀察和調(diào)研ChatGPT將會對論文審稿和發(fā)表過程,產(chǎn)生何種影響。
考慮到針對這項(xiàng)新技術(shù)所采用的策略,會直接關(guān)系到研究人員的職業(yè)生涯。因此ICML表示,自己只能更加謹(jǐn)慎,甚至還會有些保守。
時(shí)有錯(cuò)漏,但碼農(nóng)依然愛不釋手
其實(shí),雖然ChatGPT經(jīng)常因?yàn)椤阜复馈苟怀埃运Q生一個(gè)多月來,很多碼農(nóng)的工作習(xí)慣,確實(shí)被它改變了。
在12月初,ChatGPT亮相后,碼農(nóng)們發(fā)現(xiàn)可以用它生成代碼,立馬沸騰了。
ChatGPT不僅可以回答任何領(lǐng)域的問題,而且生成的答案,有很大的概率非常精確和詳細(xì)。
比如,當(dāng)你問到「How to iterate over an keys and values array in Javascript」時(shí),它生成了很完美的答案。

錦上添花的是,ChatGPT還能通過一個(gè)支持性的例子和解釋,告訴你這個(gè)JavaScript中常見問題的最佳解決方案:

甚至,還可以用它給代碼糾錯(cuò)。

不過隨后,碼農(nóng)們馬上發(fā)現(xiàn),ChatGPT生成的代碼,其實(shí)有不少問題。
ChatGPT會「犯蠢」,背后原因其實(shí)很簡單——AI的輸出,是概率性的。ChatGPT沒有任何標(biāo)記了對錯(cuò)的內(nèi)部記錄,它其實(shí)是一個(gè)統(tǒng)計(jì)模型,這個(gè)模型中,是在不同上下文中的語言組合。
而上下文的基礎(chǔ),就是GPT-3訓(xùn)練所用的整體數(shù)據(jù)集,來自ChatGPT的RLHF訓(xùn)練的額外上下文,prompt和之前的對話,以及很快就會有的反饋。
ChatGPT的答案,本質(zhì)上就是從構(gòu)成GPT-3的互聯(lián)網(wǎng)數(shù)據(jù)語料庫中收集的概率結(jié)果。在10秒內(nèi),ChatGPT做出了結(jié)果的最佳猜測,這個(gè)猜測很可能是正確的。
當(dāng)然,也有錯(cuò)誤的概率。
這就是為什么,網(wǎng)友用ChatGPT生成的代碼在Stack Overflow上瘋狂灌水、錯(cuò)誤答案滿天飛時(shí),后者連夜發(fā)布了官方封殺令。

雖然ChatGPT寫代碼的能力被很多人詬病,但其實(shí),用還是可以用的。
其實(shí),ChatGPT最合適的定位,應(yīng)該是編碼輔助工具。在ChatGPT的發(fā)布方OpenAI看來,ChatGPT的重要用途之一,正是幫助程序員檢查代碼。
對于開發(fā)者而言,它就是日益豐富的工具板中的一個(gè)工具。而且,就像任何自學(xué)模型一樣,ChatGPT也會隨著時(shí)間的推移,不斷學(xué)習(xí),不斷自我糾正和改進(jìn)。
很多時(shí)候,與其在Stack OverFlow上為相對簡單的問題(如何在Flutter中觸發(fā)HookConsumerWidget的重建)等待幾天,不如直接向ChatGPT提問。
因?yàn)樵贑hatGPT上,開發(fā)者們有很大概率,得到一個(gè)可以用于解決問題的起點(diǎn)——
















 
 
 











 
 
 
 