偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

致命幻覺(jué)問(wèn)題、開(kāi)發(fā)GPU替代品,大模型還面臨這10大挑戰(zhàn)

人工智能 新聞
本文,計(jì)算機(jī)科學(xué)家 Chip Huyen 從 10 個(gè)方面入手,全面闡述 LLM 面臨的挑戰(zhàn)。具體而言,前兩個(gè)方面是關(guān)于幻覺(jué)以及上下文學(xué)習(xí)的,其他幾個(gè)方面包括但不限于多模態(tài)、架構(gòu)、尋找 GPU 替代品等。

ChatGPT、GPT-4 等的發(fā)布,讓我們?cè)谝?jiàn)識(shí)到大模型(LLM)的魅力后,伴隨而來(lái)的是其所面臨的各種挑戰(zhàn)。

如何讓 LLM 變得更好?面對(duì)大模型,到底有哪些需要解決的問(wèn)題?成為 AI 領(lǐng)域重要的研究課題。

本文,計(jì)算機(jī)科學(xué)家 Chip Huyen 從 10 個(gè)方面入手,全面闡述 LLM 面臨的挑戰(zhàn)。具體而言,前兩個(gè)方面是關(guān)于幻覺(jué)以及上下文學(xué)習(xí)的,其他幾個(gè)方面包括但不限于多模態(tài)、架構(gòu)、尋找 GPU 替代品等。

原文地址:https://huyenchip.com/2023/08/16/llm-research-open-challenges.html

以下是對(duì)原文的翻譯整理。

1. 如何減少幻覺(jué)

幻覺(jué)問(wèn)題是指 LLM 生成的文本雖然流暢又自然,但卻不忠實(shí)于內(nèi)容來(lái)源(內(nèi)在問(wèn)題)和 / 或不確定(外在問(wèn)題)。這一問(wèn)題廣泛存在于 LLM 中。

因而,減輕幻覺(jué)并開(kāi)發(fā)衡量幻覺(jué)的指標(biāo)變得非常重要,很多公司、機(jī)構(gòu)都在關(guān)注這個(gè)問(wèn)題。Chip Huyen 表示,現(xiàn)階段有許多減少幻覺(jué)的方法,例如在提示中添加更多的上下文、采用思維鏈或者讓模型的響應(yīng)更簡(jiǎn)潔一些。

這其中可以參考的資料包括:

  • 自然語(yǔ)言生成中關(guān)于幻覺(jué)研究的綜述:https://arxiv.org/abs/2202.03629
  • 語(yǔ)言模型出現(xiàn)的幻覺(jué)是如何滾雪球的:https://arxiv.org/abs/2305.13534
  • ChatGPT 在推理、幻覺(jué)和交互性上的評(píng)估:https://arxiv.org/abs/2302.04023
  • 對(duì)比學(xué)習(xí)減少對(duì)話中的幻覺(jué):https://arxiv.org/abs/2212.10400
  • 自洽性提高了語(yǔ)言模型的思維鏈推理能力:https://arxiv.org/abs/2203.11171
  • 生成式大型語(yǔ)言模型的黑盒幻覺(jué)檢測(cè):https://arxiv.org/abs/2303.08896

2. 優(yōu)化上下文長(zhǎng)度和上下文結(jié)構(gòu)

LLM 另一個(gè)研究重點(diǎn)是上下文長(zhǎng)度,因?yàn)榇竽P驮诨卮鹩脩魡?wèn)題時(shí),需要參考上下文,能夠處理的長(zhǎng)度越長(zhǎng),對(duì) LLM 越有用。例如我們問(wèn) ChatGPT「最好的越南餐廳是哪家?」面對(duì)這一問(wèn)題,ChatGPT 需要參考上下文,弄清楚用戶問(wèn)的到底是越南最好的越南餐廳還是美國(guó)最好的越南餐廳,兩者完全不一樣。

在這一小節(jié)下,Chip Huyen 介紹了幾篇相關(guān)論文。

第一篇是《 SITUATEDQA: Incorporating Extra-Linguistic Contexts into QA 》,兩位作者均來(lái)自德克薩斯大學(xué)奧斯汀分校。論文引入了一個(gè)開(kāi)放檢索的 QA 數(shù)據(jù)集 SITUATEDQA ,感興趣的讀者可以前去查看了解更多內(nèi)容。

Chip Huyen 表示因?yàn)槟P褪菑奶峁┑纳舷挛闹袑W(xué)習(xí)的,因而這個(gè)過(guò)程被稱為上下文學(xué)習(xí)。

第二篇論文是《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》,本文提出了 RAG(Retrieval-Augmented Generation),它能結(jié)合預(yù)訓(xùn)練語(yǔ)言模型和外部知識(shí),來(lái)實(shí)現(xiàn)開(kāi)放域生成式問(wèn)答及其他知識(shí)密集型任務(wù)。

RGA 運(yùn)行過(guò)程分為兩個(gè)階段:chunking(也稱為檢索)階段以及查詢階段:

很多人認(rèn)為,基于這項(xiàng)研究,上下文的長(zhǎng)度越長(zhǎng),模型塞入的信息就會(huì)越多,其響應(yīng)就越好。Chip Huyen 認(rèn)為這一說(shuō)法并不完全成立。

模型可以使用多少上下文以及模型使用上下文的效率如何,是兩個(gè)完全不同的問(wèn)題。我們要做的是在增加模型上下文長(zhǎng)度的同時(shí)并行的提高模型處理上下文的效率。例如,在《Lost in the Middle: How Language Models Use Long Contexts》論文中,文中介紹了模型如何更好地理解索引開(kāi)頭和結(jié)尾的信息,而不是中間信息。

3. 多模態(tài)

Chip Huyen 認(rèn)為多模態(tài)是非常重要的。

首先,包括醫(yī)療保健、機(jī)器人、電子商務(wù)、零售、游戲、娛樂(lè)等在內(nèi)的領(lǐng)域都需要多模態(tài)數(shù)據(jù)。例如醫(yī)學(xué)預(yù)測(cè)需要醫(yī)生筆記,患者問(wèn)卷等文本內(nèi)容,還需要 CT、X 光、核磁共振掃描等圖像信息。

其次,多模態(tài)有望大幅提升模型性能,能夠理解文本和圖像的模型比只能理解文本的模型表現(xiàn)要好。然而基于文本的模型對(duì)文本的需求量很大,以至于人們開(kāi)始擔(dān)心為了訓(xùn)練模型,我們很快就會(huì)耗盡互聯(lián)網(wǎng)數(shù)據(jù)。一旦文本被用完,我們就需要考慮其他數(shù)據(jù)模態(tài)。

圖片Flamingo 架構(gòu)圖

關(guān)于多模態(tài),大家可以參考的內(nèi)容包括:

  • 論文 1《Learning Transferable Visual Models From Natural Language Supervision》:https://arxiv.org/abs/2103.00020;
  • 論文 2《Flamingo: a Visual Language Model for Few-Shot Learning》:https://arxiv.org/abs/2204.14198;
  • 論文 3《BLIP-2: Bootstrapping Language-Image Pre-training with Frozen Image Encoders and Large Language Models》:https://arxiv.org/abs/2301.12597;
  • 論文 4《Language Is Not All You Need: Aligning Perception with Language Models》:https://arxiv.org/abs/2302.14045;
  • 論文 5《Visual Instruction Tuning》:https://arxiv.org/abs/2304.08485;
  • 谷歌 PaLM-E:https://ai.googleblog.com/2023/03/palm-e-embodied-multimodal-language.html;
  • 英偉達(dá) NeVA:https://catalog.ngc.nvidia.com/orgs/nvidia/teams/playground/models/neva。

4. 讓 LLM 更快、更便宜

GPT-3.5 于 2022 年 11 月下旬首次發(fā)布,很多人擔(dān)心使用成本高昂。然而,短短半年,社區(qū)就找到了在性能方面接近 GPT-3.5 的模型,所需的內(nèi)存占用僅為 GPT-3.5 的 2%。

Chip Huyen 表示,如果你創(chuàng)造了足夠好的東西,人們很快就會(huì)找到一種方法讓它變得又快又便宜。

以下是 Guanaco 7B 與 ChatGPT 和 GPT-4 等模型的性能比較。但我們不得不強(qiáng)調(diào),對(duì) LLM 進(jìn)行評(píng)估還是非常難的。

圖片

接著,Chip Huyen 列舉了模型優(yōu)化、壓縮技術(shù):

  • 量化:迄今為止最通用的模型優(yōu)化方法。量化使用更少的位來(lái)表示參數(shù),從而達(dá)到減小模型大小的目的,例如,有人將 32 位的浮點(diǎn)數(shù)改為 16 位,甚至是 4 位的浮點(diǎn)表示;
  • 知識(shí)蒸餾:一種訓(xùn)練小模型(學(xué)生)模仿較大模型或模型集合(教師)的方法;
  • 低秩分解:關(guān)鍵思想是用低維張量替換高維張量以減少參數(shù)數(shù)量。例如用戶可以將 3x3 張量分解為 3x1 和 1x3 張量的乘積,這樣只有 6 個(gè)參數(shù),而不是 9 個(gè);
  • 剪枝。

以上這四種方法仍然很流行,例如用知識(shí)蒸餾訓(xùn)練 Alpaca,QLoRA 將低秩分解和量化結(jié)合起來(lái)。

5. 設(shè)計(jì)一種新的模型架構(gòu)

自 2012 年 AlexNet 發(fā)布以來(lái),包括 LSTM、seq2seq 在內(nèi)的許多架構(gòu)開(kāi)始變得流行,然后又變得過(guò)時(shí)。與此不同的是,Transformer 的粘性令人難以置信。它從 2017 年就已經(jīng)出現(xiàn)了,直到現(xiàn)在還被廣泛使用。這種架構(gòu)還能流行多久我們難以估計(jì)。

然而,開(kāi)發(fā)一種全新的架構(gòu)來(lái)超越 Transformer 并不容易。過(guò)去 6 年里,研究者對(duì) Transformer 進(jìn)行了大量?jī)?yōu)化。除了模型架構(gòu),還包括硬件層面的優(yōu)化。

美國(guó)計(jì)算機(jī)科學(xué)家 Chris Ré 領(lǐng)導(dǎo)的實(shí)驗(yàn)室在 2021 年圍繞 S4 進(jìn)行了很多研究,可參考論文《Efficiently Modeling Long Sequences with Structured State Spaces》了解更多內(nèi)容。此外,Chris Ré 實(shí)驗(yàn)室還大力投資開(kāi)發(fā)新架構(gòu),他們最近與初創(chuàng)公司 Together 合作開(kāi)發(fā)了 Monarch Mixer 架構(gòu)。

他們的關(guān)鍵思想是,對(duì)于現(xiàn)有的 Transformer 架構(gòu),注意力的復(fù)雜度是序列長(zhǎng)度的二次方,而 MLP 的復(fù)雜度是模型維度的二次方,復(fù)雜度低的架構(gòu)會(huì)更加高效。

6. 開(kāi)發(fā) GPU 替代品

自 2012 年 AlexNet 發(fā)布以來(lái),GPU 一直占據(jù)深度學(xué)習(xí)的主導(dǎo)地位。事實(shí)上,AlexNet 之所以受歡迎的一個(gè)公認(rèn)原因是它是第一篇成功使用 GPU 訓(xùn)練神經(jīng)網(wǎng)絡(luò)的論文。在 GPU 出現(xiàn)之前,如果你想訓(xùn)練 AlexNet 這種規(guī)模的模型,必須使用數(shù)千個(gè) CPU,而 GPU 幾個(gè)就能搞定。 

過(guò)去十年中,無(wú)論是大公司還是初創(chuàng)公司,都嘗試為人工智能創(chuàng)建新的硬件。最具代表性的包括但不限于 Google 的 TPU、Graphcore 的 IPU 以及 AI 芯片公司 Cerebras。此外,人工智能芯片初創(chuàng)公司 SambaNova 籌集了超過(guò) 10 億美元來(lái)開(kāi)發(fā)新的人工智能芯片。

另一個(gè)令人興奮的方向是光子芯片,其使用光子來(lái)移動(dòng)數(shù)據(jù),因而能進(jìn)行更快、更高效的計(jì)算。該領(lǐng)域的多家初創(chuàng)公司已籌集了數(shù)億美元,包括 Lightmatter(2.7 億美元)、Ayar Labs(2.2 億美元)、Lightelligence(2 億美元以上)和 Luminous Compute(1.15 億美元)。

以下是光子矩陣計(jì)算中三種主要方法的進(jìn)展時(shí)間表,摘自《Photonic matrix multiplication lights up photonic accelerator and beyond》論文。這三種方法分別是平面光轉(zhuǎn)換(PLC)、馬赫-曾德?tīng)柛缮鎯x(MZI)和波分復(fù)用技術(shù)(WDM)。

7. 讓智能體變得更可用

智能體是可以采取行動(dòng)的 LLM,如瀏覽互聯(lián)網(wǎng)、發(fā)送電子郵件、預(yù)訂房間等。與本文中的其他研究方向相比,這個(gè)方向出現(xiàn)的比較晚,對(duì)大家來(lái)說(shuō)非常的新。

正是由于其新穎性和巨大的潛力,大家對(duì)智能體有著狂熱的癡迷。Auto-GPT 目前在 GitHub 最受歡迎的項(xiàng)目中排名第 25 位。GPT-Engineering 是另一個(gè)非常熱門的項(xiàng)目。

這雖然令人期待又興奮,但 LLM 是否足夠可靠、性能是否足夠高以被賦予行動(dòng)的權(quán)利,這依舊是存疑的。

不過(guò),已經(jīng)出現(xiàn)的一個(gè)應(yīng)用案例,將智能體應(yīng)用于社會(huì)研究,前段時(shí)間斯坦福開(kāi)源的「虛擬小鎮(zhèn)」 Smallville,25 個(gè) AI 智能體在小鎮(zhèn)上生活,他們有工作,會(huì)八卦,能組織社交,結(jié)交新朋友,甚至舉辦情人節(jié)派對(duì),每個(gè)「小鎮(zhèn)居民」都有獨(dú)特的個(gè)性和背景故事。

更多詳細(xì)內(nèi)容,請(qǐng)參閱以下論文。

圖片

論文地址:https://arxiv.org/pdf/2304.03442.pdf

該領(lǐng)域最著名的初創(chuàng)公司可能是 Adept,它由兩位 Transformer 的合著者和一位前 OpenAI 副總裁創(chuàng)立,迄今已融資近 5 億美元。去年,他們做了一個(gè) demo,展示他們的智能體如何瀏覽互聯(lián)網(wǎng)并向 Salesforce 添加一個(gè)新賬戶。

8. 從人類偏好中改進(jìn)學(xué)習(xí)

RLHF,即從人類偏好出發(fā)的強(qiáng)化學(xué)習(xí)。如果人們能找到其他方法來(lái)訓(xùn)練 LLM,也不會(huì)讓人感到驚訝,畢竟 RLHF 還有很多問(wèn)題有待解決。Chip Huyen 羅列了以下 3 點(diǎn)。

如何用數(shù)學(xué)方法表示人類偏好?

目前,人類偏好是通過(guò)比較來(lái)確定的:人類標(biāo)注者確定響應(yīng) A 是否比響應(yīng) B 更好,但并不考慮響應(yīng) A 比響應(yīng) B 好多少。

人類的偏好是什么?

Anthropic 沿著三個(gè)坐標(biāo)軸測(cè)量他們模型的響應(yīng)質(zhì)量,分別是有用、誠(chéng)實(shí)和無(wú)害。

圖片

論文地址:https://arxiv.org/abs/2212.08073

DeepMind 也試圖產(chǎn)生讓大多數(shù)人滿意的響應(yīng)。請(qǐng)參見(jiàn)下面這篇論文。

圖片

論文地址:https://arxiv.org/abs/2211.15006

但需要明確的是,我們想要一個(gè)可以表明立場(chǎng)的 AI,還是一個(gè)回避任何潛在爭(zhēng)議話題的普通 AI ?

誰(shuí)的偏好才是 「人」的偏好?

考慮到文化、宗教等方面的差異,要獲得能充分代表所有潛在用戶的訓(xùn)練數(shù)據(jù),存在很多挑戰(zhàn)。

例如,在 OpenAI 的 InstructGPT 數(shù)據(jù)中,打標(biāo)簽的人員主要是菲律賓人和孟加拉人,由于地域的差異,可能帶來(lái)一定偏差。

圖片圖源:https://arxiv.org/abs/2203.02155

研究社區(qū)也在為此進(jìn)行努力,但數(shù)據(jù)偏差依然存在。例如,在統(tǒng)計(jì)對(duì) OpenAssistant 數(shù)據(jù)集的人員分布中,222 位受訪者中有 201 位(90.5%)是男性。

圖片

9. 提高聊天界面的效率

自 ChatGPT 以來(lái),關(guān)于聊天是否適合各種任務(wù)的討論不絕于耳。例如以下的這些討論:

  • 自然語(yǔ)言是懶惰的用戶界面 https://austinhenley.com/blog/naturallanguageui.html
  • 為什么聊天機(jī)器人不是未來(lái) :https://wattenberger.com/thoughts/boo-chatbots
  • 什么類型的問(wèn)題需要對(duì)話才能回答?https://arxiv.org/abs/2303.17710
  • AI 聊天界面可能成為閱讀文檔的主要用戶界面:https://idratherbewriting.com/blog/ai-chat-interfaces-are-the-new-user-interface-for-docs
  • 用最少的聊天與 LLM 交互 :https://eugeneyan.com/writing/llm-ux/

然而,這些討論并不是最近才開(kāi)始的。許多國(guó)家,尤其是亞洲,聊天作為超級(jí)應(yīng)用程序的界面已經(jīng)使用了大約十年。

圖片聊天作為中文應(yīng)用程序的通用界面

2016 年,當(dāng)許多人認(rèn)為應(yīng)用程序已死、聊天機(jī)器人將成為未來(lái)時(shí),討論再次變得緊張起來(lái):

  • 關(guān)于聊天界面:https://acroll.medium.com/on-chat-as-interface-92a68d2bf854
  • 聊天機(jī)器人趨勢(shì)是一個(gè)巨大的誤解嗎:https://www.technologyreview.com/2016/04/25/8510/is-the-chatbot-trend-one-big-misunderstanding/
  • 機(jī)器人不會(huì)取代應(yīng)用程序,更好的應(yīng)用程序?qū)⑷〈鷳?yīng)用程序:http://dangrover.com/blog/2016/04/20/bots-wont-replace-apps.html

Chip Huyen 表示自己非常喜歡聊天界面,原因如下:

  • 聊天是一種人人都能快速學(xué)會(huì)使用的界面,即使是以前沒(méi)有接觸過(guò)電腦或互聯(lián)網(wǎng)的人也能使用。
  • 聊天界面沒(méi)什么障礙,即使手忙腳亂的時(shí)候,也可以用語(yǔ)音代替文字。
  • 聊天也是一個(gè)非常強(qiáng)大的界面,你可以向它提出任何請(qǐng)求,即使回復(fù)并不好,但它都會(huì)給予回復(fù)。

不過(guò),Chip Huyen 認(rèn)為聊天界面在某些方面還有待改進(jìn)。他有以下這些建議

1. 每回合多條信息

目前,人們幾乎認(rèn)為每輪只能發(fā)送一條信息。但現(xiàn)實(shí)生活中人們并不是這樣發(fā)短信的。通常,需要多條信息才能完成個(gè)人的想法,因?yàn)樵谶@過(guò)程中需要插入不同的數(shù)據(jù)(如圖片、位置、鏈接),用戶在之前的信息中可能遺漏了一些東西,或者只是不想把所有東西都寫(xiě)進(jìn)一大段話里。

2. 多模態(tài)輸入

在多模態(tài)應(yīng)用領(lǐng)域,大部分精力都花在建立更好的模型上,而很少花在建立更好的界面上。以 Nvidia 的 NeVA 聊天機(jī)器人為例,這可能有改進(jìn)用戶體驗(yàn)的空間。

地址:https://catalog.ngc.nvidia.com/orgs/nvidia/teams/playground/models/neva

3. 將生成式 AI 納入工作流程

Linus Lee 在他的演講 「聊天之外的人工智能生成界面」中很好地闡述了這一點(diǎn)。例如,如果你想就正在處理的圖表中的某一列提問(wèn),你應(yīng)該可以直接指向該列并提問(wèn)。

視頻地址:https://www.youtube.com/watch?v=rd-J3hmycQs

4. 編輯和刪除信息

編輯或刪除用戶輸入會(huì)如何改變與聊天機(jī)器人的對(duì)話流程,這值得我們思考。

10. 為非英語(yǔ)語(yǔ)言構(gòu)建 LLM

目前以英語(yǔ)為第一語(yǔ)言的 LLM 在性能、延遲和速度方面都不能很好地適用于其他語(yǔ)言。相關(guān)內(nèi)容可以閱讀以下文章:

圖片

論文地址:https://arxiv.org/abs/2304.05613

圖片

文章地址:https://blog.yenniejun.com/p/all-languages-are-not-created-tokenized

Chip Huyen 表示,本文的幾位早期讀者告訴他,他們認(rèn)為不應(yīng)該把這個(gè)方向包括進(jìn)來(lái),原因有兩個(gè)。

1. 這與其說(shuō)是一個(gè)研究問(wèn)題,不如說(shuō)是一個(gè)后勤(logistics)問(wèn)題。我們已經(jīng)知道如何去做,只是需要有人投入資金和精力,其實(shí)這并不完全正確。大多數(shù)語(yǔ)言都被認(rèn)為是低資源語(yǔ)言,例如,與英語(yǔ)或中文相比,它們的高質(zhì)量數(shù)據(jù)要少得多,因此可能需要不同的技術(shù)來(lái)訓(xùn)練大型語(yǔ)言模型。參見(jiàn)以下文章:

圖片

論文地址:https://arxiv.org/abs/2006.07264

圖片

論文地址:https://aclanthology.org/P19-1310/

2. 比較悲觀的人會(huì)認(rèn)為,將來(lái)很多語(yǔ)言會(huì)消亡,未來(lái)互聯(lián)網(wǎng)將有兩種語(yǔ)言組成:英語(yǔ)和漢語(yǔ)。

AI 工具對(duì)于語(yǔ)言學(xué)習(xí)的影響尚不明確,比如機(jī)器翻譯和聊天機(jī)器人。它們能夠幫助人們更快地學(xué)習(xí)新語(yǔ)言,還是會(huì)完全消除學(xué)習(xí)新語(yǔ)言的需要,這暫時(shí)不得而知。

總結(jié)

本文中提到的問(wèn)題也有難度差別,例如最后一個(gè)問(wèn)題,如果能夠頭如足夠的資源和時(shí)間,為非英語(yǔ)語(yǔ)言建構(gòu) LLM 是可以實(shí)現(xiàn)的。

其中第一個(gè)問(wèn)題是減少幻覺(jué),這將會(huì)難的多,因?yàn)榛糜X(jué)只是 LLM 在做概率的事情。

第四個(gè)問(wèn)題是使 LLM 更快更便宜,而這一點(diǎn)不會(huì)完全解決。在這一領(lǐng)域已經(jīng)取得了一些進(jìn)展,未來(lái)還會(huì)有更多的進(jìn)展,但我們永遠(yuǎn)也沒(méi)有辦法改進(jìn)到完美。

第五個(gè)和第六個(gè)問(wèn)題是新架構(gòu)和新硬件,這是非常具有挑戰(zhàn)性的,但是隨著時(shí)間的推移,這件事不可避免。由于架構(gòu)與硬件之間的共生關(guān)系,即新的架構(gòu)需要針對(duì)通用硬件進(jìn)行優(yōu)化,而硬件需要支持通用架構(gòu),這使該問(wèn)題可能由同一家公司來(lái)解決。

還有一些問(wèn)題僅靠技術(shù)知識(shí)是無(wú)法解決的。例如第八個(gè)問(wèn)題改進(jìn)從人類偏好中學(xué)習(xí)的方法,這可能更多是一個(gè)政策問(wèn)題,而非技術(shù)問(wèn)題。再說(shuō)到第九個(gè)問(wèn)題提高界面效率,這更像是用戶體驗(yàn)問(wèn)題,需要更多具有非技術(shù)背景的人員一起來(lái)解決這個(gè)問(wèn)題。

如果你還想從其他角度來(lái)看看這些問(wèn)題,Chip Huyen 推薦大家閱讀下面這篇論文。

論文地址:https://arxiv.org/abs/2307.10169

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2023-08-27 14:02:28

GPU大模型

2022-10-09 14:03:22

LinuxNotepad++

2015-03-30 11:06:12

AppleWatch開(kāi)發(fā)Swift

2018-06-12 16:33:23

GitHub替代品項(xiàng)目

2013-11-19 14:36:38

UbuntuDebianPCLinuxOS

2017-08-01 10:01:45

2018-05-21 21:34:26

Linux命令代碼

2018-05-10 14:10:03

數(shù)據(jù)備份錯(cuò)誤

2022-08-02 10:45:29

AppFlowyNotion開(kāi)源

2022-11-28 11:35:33

Kubernetes開(kāi)源工具

2013-01-28 09:25:54

2011-04-12 09:13:51

OpenIndianaSolaris替代品

2013-11-12 09:35:16

大數(shù)據(jù)

2023-10-07 00:23:34

2019-07-23 13:08:45

LinuxVisio查看器

2020-02-17 21:35:21

JoplinEvernote開(kāi)源

2020-12-04 09:41:36

C編程語(yǔ)言替換C

2016-09-13 15:50:24

TurtlEvernote開(kāi)源

2017-03-01 10:18:10

云服務(wù)應(yīng)用開(kāi)發(fā)

2024-01-15 14:19:34

開(kāi)源ChatGPT
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)