AI 模型的開源定義需要改變
你認為開源許可證應當進行演變嗎?
2023 年,我們以人工智能(AI)嶄露頭角開始了新的一年,同時也見證了眾多公司全力以赴投身于 AI。
比如說 Mozilla,它在 2023 年初制定了 開源 AI 計劃,以開發(fā)各種 AI 驅(qū)動的解決方案。而 HuggingChat 也成為了第一個推出 ChatGPT 開源替代品 的組織。
即便是 Meta,他們也不例外。他們自家的 大型語言模型Large Language Model(LLM)Llama 2 項目在這一年都頗受關注,幾個月前他們甚至推出了一款新的 ChatGPT 競爭對手。
然而,也有很多人開始 提出質(zhì)疑,主張 Meta 的 Llama 2 模型并不像人們期望的那樣開放,查看它的開源許可證似乎更是印證了這個觀點。
該許可證 不允許擁有超過 7 億日活躍用戶的服務使用 Llama 2,同樣的,它也不能被用于訓練其他的語言模型。
這也就意味著 Meta 對于 Llama 2 的許可證 未能滿足 開源倡議組織Open Source Initiative(OSI)的 開源定義Open Source Definition(OSD)所列出的 全部要求。
人們可以爭辯,像 EleutherAI 和 Falcon 40B 這樣的機構就做出了很好的示范,展示了如何適當?shù)靥幚?AI 的開源許可。
然而,Meta 對此的看法卻截然不同。
開源許可需要進化
在與 The Verge 的交談中,Meta 人工智能研究副總裁 Jo?lle Pineau 為他們的立場進行了辯解。
她說,我們 需要在信息共享的益處和可能對 Meta 商業(yè)造成的潛在成本之間尋找平衡。
這種對開源的態(tài)度讓他們的研究人員能夠更加專注地處理 AI 項目。她還補充說:
開放的方式從內(nèi)部改變了我們的科研方法,它促使我們不發(fā)布任何不安全的東西,并在一開始就負起責任。
Jo?lle 希望他們的生成型 AI 模型能夠和他們過去的 PyTorch 項目一樣受到熱捧。
但是,問題在于現(xiàn)有的許可證機制。她又補充說,這些許可證并不是設計來處理那些需要利用大量多源數(shù)據(jù)的軟件。
這反過來為開發(fā)者和用戶提供了有限責任,以及,對版權侵犯的有限賠償(解釋為:保護)。
此外,她還指出:
AI 模型與軟件不同,涉及的風險更大,因此我認為我們應該對當前用戶許可證進行改變,以更好地適應 AI 模型。
但我并不是一名律師,所以我在此問題上聽從他們的意見。
我贊同她的觀點,我們需要更新現(xiàn)有的許可方案,使之更好地適應 AI 模型,以及其他相關事務。
顯而易見,OSI 正在努力進行此事。OSI 的執(zhí)行董事 Stefano Maffulli 向 The Verge 透露,他們了解到 當前的 OSI 批準的許可證無法滿足人工智能模型的需求。
他們正在商討如何與 AI 開發(fā)者合作,以提供一個 “透明、無許可但安全” 的模型訪問。
他還補充說:
我們肯定需要重新思考許可證的方式,以解決 AI 模型中版權和授權的真正限制,同時仍遵循開源社區(qū)的一些原則。
無論未來如何,顯然,開源標準必須推動其演化,以適應新的以及即將出現(xiàn)的技術 ,而此類問題不僅僅局限于 AI。
對于未來幾年開源許可的變革,我充滿期待。
?? 對于你來說呢?你認為對于陳舊的開源標準,我們需要進行什么樣的改變?