偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

基于神經(jīng)網(wǎng)絡(luò)的偏微分方程求解器新突破:北大&字節(jié)研究成果入選Nature子刊

人工智能
基于神經(jīng)網(wǎng)絡(luò)的量子變分蒙特卡洛方法(NNVMC)已成為量子化學(xué) - 從頭計(jì)算領(lǐng)域中一項(xiàng)前沿技術(shù)。它具備精度高、適用范圍廣等優(yōu)點(diǎn)。但它的阿克琉斯之踵在于過高的計(jì)算成本,這也限制了該方法在實(shí)際化學(xué)問題中的應(yīng)用。

近年來,基于神經(jīng)網(wǎng)絡(luò)的偏微分方程求解器在各領(lǐng)域均得到了廣泛關(guān)注。其中,量子變分蒙特卡洛方法(NNVMC)在量子化學(xué)領(lǐng)域異軍突起,對于一系列問題的解決展現(xiàn)出超越傳統(tǒng)方法的精確度 [1, 2, 3, 4]。北京大學(xué)與字節(jié)跳動研究部門 ByteDance Research 聯(lián)合開發(fā)的計(jì)算框架 Forward Laplacian 創(chuàng)新地利用 Laplace 算子前向傳播計(jì)算,為 NNVMC 領(lǐng)域提供了十倍的加速,從而大幅降低計(jì)算成本,達(dá)成該領(lǐng)域多項(xiàng) State of the Art,同時(shí)也助力該領(lǐng)域向更多的科學(xué)難題發(fā)起沖擊。該工作以《A computational framework for neural network-based variational Monte Carlo with Forward Laplacian》為題的論文已發(fā)表于國際頂級期刊《Nature Machine Intelligence》,相關(guān)代碼已開源。

圖片


  • 論文鏈接:https://www.nature.com/articles/s42256-024-00794-x
  • 代碼地址:
  • https://github.com/bytedance/LapNet。
  • https://github.com/YWolfeee/lapjax。

該項(xiàng)工作一提出即受到相關(guān)研究人員的密切關(guān)注,圍繞該工作已有多個(gè)開源項(xiàng)目實(shí)現(xiàn),編程框架 JAX 也計(jì)劃將該項(xiàng)工作吸收其中。

該項(xiàng)工作由北京大學(xué)智能學(xué)院王立威課題組、物理學(xué)院陳基課題組聯(lián)合字節(jié)跳動研究部門 ByteDance Research 一同開發(fā)完成,作者中有多位北京大學(xué)博士生在 ByteDance Research 實(shí)習(xí)。

背景簡介

基于神經(jīng)網(wǎng)絡(luò)的量子變分蒙特卡洛方法(NNVMC)已成為量子化學(xué) - 從頭計(jì)算領(lǐng)域中一項(xiàng)前沿技術(shù)。它具備精度高、適用范圍廣等優(yōu)點(diǎn)。但它的阿克琉斯之踵在于過高的計(jì)算成本,這也限制了該方法在實(shí)際化學(xué)問題中的應(yīng)用。

作者提出了一套全新的計(jì)算框架 "Forward Laplacian",利用 Laplace 算子的前向傳播,顯著提升了 NNVMC 方法的計(jì)算效率,為人工智能在微觀量子問題中的應(yīng)用打開了新的大門。

方法介紹

Forward Laplacian 框架

在 NNVMC 方法中,神經(jīng)網(wǎng)絡(luò)的目標(biāo)函數(shù)是微觀體系的能量,包括動能與勢能兩項(xiàng)。其中動能項(xiàng)涉及對神經(jīng)網(wǎng)絡(luò)的拉普拉斯算子的計(jì)算,這也是 NNVMC 中耗時(shí)最長的計(jì)算瓶頸?,F(xiàn)有的自動微分框架在計(jì)算拉普拉斯算子時(shí),需要先計(jì)算黑塞矩陣,再求得拉普拉斯項(xiàng)(即黑塞矩陣的跡)。而作者所提出的計(jì)算框架 "Forward Laplacian" 則通過一次前向傳播直接求得拉普拉斯項(xiàng),避免了黑塞矩陣的計(jì)算,從而削減了整體計(jì)算的規(guī)模,實(shí)現(xiàn)了顯著加速。

圖片

LapNet 網(wǎng)絡(luò)

除了有效削減計(jì)算圖規(guī)模之外,F(xiàn)orward Laplacian 框架的另一大特點(diǎn)是能有效利用神經(jīng)網(wǎng)絡(luò)梯度計(jì)算中的稀疏性,提出神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) LapNet。LapNet 通過增加神經(jīng)網(wǎng)絡(luò)中的稀疏性,在精度無損的同時(shí),顯著提升了網(wǎng)絡(luò)計(jì)算的效率。

圖片

計(jì)算結(jié)果

絕對能量

作者首先就方法的效率及精度同當(dāng)前 NNVMC 領(lǐng)域有代表性的幾項(xiàng)工作進(jìn)行了比較。從絕對能量的計(jì)算結(jié)果而言,作者提出的 LapNet 在 Forward Laplacian 框架下的效率高于參考工作數(shù)倍,精度上也與 SOTA 保持一致。此外,如果在相同計(jì)算資源(即相同 GPU hour)的情況下比較,LapNet 的計(jì)算結(jié)果可以顯著優(yōu)于之前的 SOTA。

圖片


加速標(biāo)度

為了更明確地研究作者所提出方法相比于之前 SOTA 的加速標(biāo)度,作者在不同大小的鏈?zhǔn)骄垡蚁w系上進(jìn)行了測試,結(jié)果可以很明顯地看到 Forward Laplacian 工作帶來的 O (n) 加速。此處 n 為目標(biāo)分子中的電子數(shù)目。

圖片

相對能量

在物理、化學(xué)研究中,相對能量相較于絕對能量具有更明確的物理意義。作者也在一系列的體系上進(jìn)行了測試,均取得了理想結(jié)果。

圖片

總結(jié)

為降低基于神經(jīng)網(wǎng)絡(luò)的量子變分蒙特卡洛方法(NNVMC)的使用門檻,北京大學(xué)與字節(jié)跳動研究部門 ByteDance Research 聯(lián)合開發(fā)了計(jì)算框架 Forward Laplacian,實(shí)現(xiàn)了十倍的加速。該工作已受到相關(guān)研究人員的廣泛關(guān)注,期望能夠推動 NNVMC 方法在更多科學(xué)問題中發(fā)揮重要作用。

參考文獻(xiàn)

[1] Han, J., Zhang, L., & Weinan, E. (2019). Solving many-electron Schr?dinger equation using deep neural networks. Journal of Computational Physics, 399, 108929.

[2] Hermann, J., Sch?tzle, Z., & Noé, F. (2020). Deep-neural-network solution of the electronic Schr?dinger equation. Nature Chemistry, 12 (10), 891-897.

[3] Pfau, D., Spencer, J. S., Matthews, A. G., & Foulkes, W. M. C. (2020). Ab initio solution of the many-electron Schr?dinger equation with deep neural networks. Physical Review Research, 2 (3), 033429.

[4] Li, X., Li, Z., & Chen, J. (2022). Ab initio calculation of real solids via neural network ansatz. Nature Communications, 13 (1), 7895.

責(zé)任編輯:姜華 來源: 機(jī)器之心
相關(guān)推薦

2021-04-22 09:44:40

神經(jīng)網(wǎng)絡(luò)AI算法

2021-09-13 09:49:37

開發(fā)方程函數(shù)

2023-04-12 15:58:58

2022-10-27 15:50:45

2024-01-15 06:25:00

神經(jīng)網(wǎng)絡(luò)AI

2022-01-10 16:40:06

神經(jīng)網(wǎng)絡(luò)AI算法

2024-06-11 07:38:00

2024-04-17 12:20:51

腦機(jī)接口深度學(xué)習(xí)人工智能

2021-11-05 15:22:46

神經(jīng)網(wǎng)絡(luò)AI算法

2022-06-13 15:31:36

方程數(shù)據(jù)

2021-08-31 05:56:43

處理器芯片神經(jīng)網(wǎng)絡(luò)

2024-07-23 09:23:19

2021-12-07 09:46:39

AI 模型人工智能

2023-03-26 20:43:45

2022-12-29 08:22:05

機(jī)器學(xué)習(xí)人工智能

2021-09-26 17:28:26

芯片量子技術(shù)

2021-09-24 12:25:03

谷歌AI人工智能

2025-07-28 09:18:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號