偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

谷歌發(fā)布 FACTS Grounding 基準:Gemini、GPT-4o、Claude 當評委,成 AI 大語言模型“幻覺照妖鏡”

人工智能
谷歌 DeepMind 團隊于 12 月 17 日發(fā)布博文,宣布推出 FACTS Grounding 基準測試,評估大型語言模型(LLMs)根據給定材料是否準確作答,并避免“幻覺”(即捏造信息)的能力,從而提升 LLMs 的事實準確性,增強用戶信任度,并拓展其應用范圍。

12 月 18 日消息,谷歌 DeepMind 團隊于 12 月 17 日發(fā)布博文,宣布推出 FACTS Grounding 基準測試,評估大型語言模型(LLMs)根據給定材料是否準確作答,并避免“幻覺”(即捏造信息)的能力,從而提升 LLMs 的事實準確性,增強用戶信任度,并拓展其應用范圍。

數據集

在數據集方面,ACTS Grounding 數據集包含 1719 個示例,涵蓋金融、科技、零售、醫(yī)療和法律等多個領域,每個示例包含一篇文檔、一條要求 LLM 基于文檔的系統(tǒng)指令和隨附的提示詞。

示例文檔長度不一,最長可達 32000 個 token(約 20000 字)。用戶請求涵蓋摘要、問答生成和改寫等任務,但不包含需要創(chuàng)造力、數學或復雜推理的任務。IT之家附上演示圖片如下:

數據集分為 860 個“公共”示例和 859 個“私有”示例,目前已發(fā)布公共數據集供評估使用,私有數據集用于排行榜評分,以防止基準污染和排行榜作弊。

評估方案

在評估方案上,FACTS Grounding 采用 Gemini 1.5 Pro、GPT-4o 和 Claude 3.5 Sonnet 3 款模型作為評委,評估答案的充分性、事實準確性和文檔支持性。

評估分為兩個階段:首先評估響應是否符合資格,即是否充分回答了用戶請求;然后評估響應的事實準確性,即是否完全基于所提供的文檔,有沒有出現“幻覺”,然后基于該模型在所有示例上的平均得分,最終計算得出。

在 FACTS Grounding Benchmark 中,谷歌的 Gemini 模型在事實準確的文本生成方面取得了最高分。

IT之家附上參考地址

責任編輯:龐桂玉 來源: IT之家
相關推薦

2024-05-20 08:20:00

OpenAI模型

2023-09-14 12:35:59

2024-06-21 09:51:17

2025-01-06 13:15:02

2025-08-07 14:05:40

OpenAI大模型開源

2025-01-22 16:57:32

字節(jié)跳動豆包大模型

2024-05-14 11:29:15

2024-06-28 18:13:05

2025-05-14 15:06:28

AIGPT-4o模型

2025-04-23 15:25:27

語言模型Eagle 2.5英偉達

2025-05-26 08:33:00

2025-04-08 02:26:00

2024-08-02 13:14:51

2024-06-27 12:45:30

2024-11-04 08:40:00

2024-08-02 14:58:00

2018-03-17 17:33:13

云計算AI人工智能

2024-11-22 12:39:56

2024-12-19 17:50:28

點贊
收藏

51CTO技術棧公眾號