偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

OpenAI、谷歌等一線大模型科學家公開課,斯坦福CS 25春季上新!

人工智能 新聞
這一春季學期課程名為「CS25: Transformers United V5」,邀請了 Google DeepMind 推理團隊創(chuàng)立者和現(xiàn)任負責人 Denny Zhou 、OpenAI Canvas 項目負責人 Karina Nguyen、OpenAI 研究科學家 Hongyu Ren(任泓宇)、Meta 視頻生成團隊研究科學家 Andrew Brown 等知名研究者,深入探討 AI 領域的最

在斯坦福,有一門專門講 Transformer 的課程,名叫 CS 25。這門課曾經(jīng)邀請過 Geoffrey Hinton、Andrej Karpathy 以及 OpenAI 的 Hyung Won Chung、Jason Wei 等一線大模型研究科學家擔任講師,在 AI 社區(qū)引起廣泛關注。

圖片

最近,這門課又上新了。這一春季學期課程名為「CS25: Transformers United V5」,邀請了 Google DeepMind 推理團隊創(chuàng)立者和現(xiàn)任負責人 Denny Zhou、OpenAI Canvas 項目負責人 Karina Nguyen、OpenAI 研究科學家 Hongyu Ren(任泓宇)、Meta 視頻生成團隊研究科學家 Andrew Brown 等知名研究者,深入探討 AI 領域的最新突破。

而且,這門課是完全開放的,任何人都可以現(xiàn)場旁聽或加入 Zoon 直播,無需注冊或與斯坦福大學建立關聯(lián)。

圖片


  • 課程地址:https://web.stanford.edu/class/cs25/recordings/

課程結束后,他們還會把課程的視頻上傳到官方 YouTube 賬號。目前,新學期視頻第一期已經(jīng)上傳。

圖片


整個學期的課程表如下:

圖片

圖片

圖片

圖片

圖片

想要聽直播的同學記得在太平洋夏令時間每周二下午 3:00 - 4:20(北京時間每周三上午 6:00 - 7:20)蹲守,具體信息請參考官方網(wǎng)站。

往期熱門課程

V2:Geoffrey Hinton——Representing Part-Whole Hierarchies in a Neural Network

圖片

AI 領域傳奇人物 Geoffrey Hinton(「深度學習教父」)分享了他對神經(jīng)網(wǎng)絡中部分-整體層次結構的最新研究,提出了 GLOM 模型,旨在模擬人類視覺系統(tǒng)處理復雜場景的能力。

講座探討了 GLOM 如何通過動態(tài)解析樹結構增強 Transformer 在視覺任務中的表現(xiàn),解決自注意力機制的計算效率瓶頸。Hinton 結合深度學習的演變歷程,從感知機到 RNN 再到 Transformer,展望了神經(jīng)網(wǎng)絡在模擬認知過程和提升視覺理解中的未來潛力。

  • 視頻地址:https://www.youtube.com/watch?v=CYaju6aCMoQ&t=2s

V2:Andrej Karpathy——Introduction to Transformers

圖片

Andrej Karpathy(前 Tesla AI 總監(jiān)、OpenAI 研究員)系統(tǒng)介紹了 Transformer 架構的原理與影響。他從 2017 年《Attention is All You Need》論文出發(fā),拆解了自注意力機制(Self-Attention)、多頭注意力(Multi-Head Attention)及 Transformer 在大型語言模型(如 ChatGPT)中的核心作用。

講座還探討了 Vision Transformer(ViT)等跨領域應用,并展望了模型高效化和多模態(tài)學習的未來。Karpathy 結合自身從斯坦福學生到業(yè)界先鋒的經(jīng)歷,回顧了深度學習從 RNN 到 Transformer 的演變。

  • 視頻地址:https://www.youtube.com/watch?v=XfpMkf4rD6E

V3:Douwe Kiela——Retrieval Augmented Language Models

圖片

Douwe Kiela(Contextual AI 首席執(zhí)行官兼斯坦福符號系統(tǒng)客座教授)深入探討了檢索增強生成(Retrieval-Augmented Generation, RAG)作為解決大型語言模型(LLM)局限性的關鍵技術。講座介紹了 RAG 的基本概念,即通過外部檢索器提供上下文信息,緩解幻覺(hallucination)、信息時效性和定制化問題。

Kiela 回顧了語言模型的歷史,追溯至 1991 年的神經(jīng)語言模型,澄清了 OpenAI 并非首創(chuàng)的誤解,并調(diào)研了 RAG 的最新進展,如 Realm、Atlas 和 Retro 架構,分析其優(yōu)劣。他還探討了 RAG 與長上下文模型的效率對比、指令微調(diào)(instruction tuning)的重要性以及未來的研究方向,如多模態(tài) RAG 和預訓練優(yōu)化。

  • 視頻地址:https://www.youtube.com/watch?v=mE7IDf2SmJg

V4:Jason Wei & Hyung Won Chung of OpenAI

圖片

OpenAI 研究科學家 Jason Wei 和 Hyung Won Chung 分享了關于大型語言模型(LLM)和 Transformer 架構的洞見。

Jason Wei 探討了語言模型的直觀理解,強調(diào)下一詞預測作為大規(guī)模多任務學習的本質(zhì),并分析了擴展律(scaling laws)與個體任務的涌現(xiàn)能力。Hyung Won Chung 則從歷史視角審視 Transformer 架構的演變,聚焦計算成本指數(shù)下降的驅(qū)動作用,提出通過連接過去與現(xiàn)在預測 AI 未來的統(tǒng)一視角。

兩位講者結合在 OpenAI 的工作經(jīng)驗(如 FLAN-T5、Codex),展望了 Transformer 在多模態(tài)和通用 AI 中的潛力。

  • 機器之心報道:AI研究的主要推動力會是什么?ChatGPT團隊研究科學家:算力成本下降
  • 視頻地址:https://www.youtube.com/watch?v=3gb-ZkVRemQ
責任編輯:張燕妮 來源: 機器之心
相關推薦

2025-08-18 08:58:00

2024-09-11 15:00:00

2023-10-12 14:18:06

2024-08-15 12:36:31

2023-07-18 13:56:23

福坦斯

2022-07-14 15:08:23

AI模型

2025-01-24 09:30:00

2018-06-28 09:07:58

2024-12-30 07:00:00

GPT-4AGI人工智能

2024-12-25 15:36:44

Sakana AI大模型ASAL

2023-10-16 12:51:32

2025-06-26 08:56:59

2024-04-24 09:47:36

2025-06-03 17:40:30

AIDeepSeekOpenAI

2014-09-09 12:48:01

DemoHTTPS

2012-12-06 15:36:55

CIO

2025-09-01 02:00:00

AI署名論文推理

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學家

2023-01-13 13:29:33

量子研究

2021-08-24 14:49:00

計算開發(fā) 技術
點贊
收藏

51CTO技術棧公眾號