欧美人与性动交α欧美精品_色综合久久天天综合_亚洲s黄在线_youjizz国产在线观看_男女猛烈拍拍拍无挡视频免费

首頁 > 資訊 > > 正文

Google DeepMind 學者研發(fā) Focused Transformer ,擴展大模型輸出長度限制

2023-07-11 17:36:36        來源:   ZAKER科技


【資料圖】

品玩 7 月 11 日訊,據(jù) Arxiv 頁面顯示,Google DeepMind 研究團隊近日聯(lián)手華沙大學和波蘭科學院等機構,研發(fā)一項名為 Focused Transformer 的技術。

Focused Transformer 技術旨在通過對比訓練來擴展上下文長度的方法,可以用于大型語言模型。Focused Transformer 技術通過對比訓練來增強 ( key, value ) 空間的結(jié)構,從而擴展了上下文長度。這項技術使得已經(jīng)預訓練的大型語言模型可以被重新訓練來延長它們的有效上下文。

論文顯示,研究團隊使用一款名為 LongLLaMA 的大模型進行測試。經(jīng)過實驗,研究團隊已經(jīng)成功使用 LongLLaMA 模型在密碼檢索任務中實現(xiàn)了 256K 的上下文長度。

標簽:

熱門話題
精彩推薦
今日推薦
花木