首頁>投資 > 正文

      環球熱資訊!跑分達ChatGPT的99%,人類難以分辨!開源「原駝」爆火,iPhone都能微調大模型了

      2023-05-25 15:01:19    出處:量子位

      本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

      自動測試分數達到ChatGPT的99.3%人類難以分辨兩者的回答……


      (相關資料圖)

      這是開源大模型最新成果,來自羊駝家族的又一重磅成員——華盛頓大學原駝(Guanaco)。

      更關鍵的是,與原駝一起提出的新方法QLoRA把微調大模型的顯存需求從>780GB降低到<48GB

      開源社區直接開始狂歡,相關論文成為24小時內關注度最高的AI論文。

      以Meta的美洲駝LLaMA為基礎,得到原駝650億參數版只需要48GB顯存單卡微調24小時330億參數版只需要24GB顯存單卡微調12小時

      24GB顯存,也就是一塊消費級RTX3090或RTX4090顯卡足以。

      不少網友在測試后也表示,更喜歡它而不是ChatGPT。

      英偉達科學家Jim Fan博士對此評價為:大模型小型化的又一里程碑。

      先擴大規模再縮小,將成為開源AI社區的節奏。

      而新的高效微調方法QLoRA迅速被開源社區接受,HuggingFace也在第一時間整合上線了相關代碼。

      GPT-4做裁判,原駝得分達到ChatGPT的99.3%

      論文中,團隊對原駝總共做了三項測試,自動評估、隨機匹配和人類評估。

      測試數據來自小羊駝Vicuna和Open Assistant。

      自動評估由大模型天花板GPT-4當裁判,對不同模型的回答進行打分,以ChatGPT(GPT3.5)的成績作為100%。

      最終原駝650億版得分達到ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。

      隨機匹配,采用棋類專業比賽和電子競技同款的Elo記分機制,由GPT-4和人類共同做裁判。

      原駝650億和330億版最終得分超過ChatGPT(GPT3.5)。

      人類評估,則是把原駝650億版的回答和ChatGPT的回答匿名亂序放在一起,人類來盲選哪個最好。

      論文共同一作表示,研究團隊里的人都很難分辨出來,并把測試做成了一個小游戲放在Colab上,開放給大家挑戰。

      這里節選其中一個問題(附中文翻譯),你能分辨出哪個是ChatGPT回答的嗎?

      問題:How can I improve my time management skills?(如何提高時間管理技能?)

      總的來說,原駝的優勢在于不容易被問題中的錯誤信息誤導,比如能指出地球從來沒有被科學界認為是平的。

      以及擅長心智理論(Theory of Mind),也就是能推測理解他人的心理狀態

      但原駝也并非沒有弱點,團隊發發現它不太擅長數學,以及容易用提示注入把要求保密的信息從它嘴里套出來。

      也有網友表示,雖然一個模型能在某個數據集上無限接近ChatGPT,但像ChatGPT那樣通用還是很難的。

      全新方法QLoRA,iPhone都能微調大模型了

      原駝論文的核心貢獻是提出新的微調方法QLoRA

      其中Q代表量化(Quantization),用低精度數據類型去逼近神經網絡中的高精度浮點數,以提高運算效率。

      LoRA是微軟團隊在2021年提出的低秩適應(Low-Rank Adaptation)高效微調方法,LoRA后來被移植到AI繪畫領域更被大眾熟知,但最早其實就是用于大語言模型的。

      通常來說,LoRA微調與全量微調相比效果會更差,但團隊將LoRA添加到所有的線性層解決了這個問題。

      具體來說,QLoRA結合了4-bit量化和LoRA,以及團隊新創的三個技巧:新數據類型4-bit NormalFloat分頁優化器(Paged Optimizers)和雙重量化(Double Quantization)。

      最終QLoRA讓4-bit的原駝在所有場景和規模的測試中匹配16-bit的性能

      QLoRA的高效率,讓團隊在華盛頓大學的小型GPU集群上每天可以微調LLaMA 100多次……

      最終使用Open Assistant數據集微調的版本性能勝出,成為原駝大模型。

      Open Assistant數據集來自非盈利研究組織LAION(訓練Stable Diffusion的數據集也來自這里),雖然只有9000個樣本但質量很高,經過開源社區的人工仔細驗證。

      這9000條樣本用于微調大模型,比100萬條指令微調(Instruction Finetune)樣本的谷歌FLAN v2效果還好。

      研究團隊也據此提出兩個關鍵結論:

      數據質量 >> 數據數量指令微調有利于推理,但不利于聊天

      最后,QLoRA的高效率,還意味著可以用在手機上,論文共同一作Tim Dettmers估計以iPhone 12 Plus的算力每個晚上能微調300萬個單詞的數據量。

      這意味著,很快手機上的每個App都能用上專用大模型。

      論文:https://arxiv.org/abs/2305.14314

      GitHub:https://github.com/artidoro/qlora

      與ChatGPT對比測試:https://colab.research.google.com/drive/1kK6xasHiav9nhiRUJjPMZb4fAED4qRHb

      330億參數版在線試玩:https://huggingface.co/spaces/uwnlp/guanaco-playground-tgi

      關鍵詞:

      相關內容

      消費
      產業
      不到300的半入耳主動降噪耳機!iQOO TWS Air Pro音質表現出眾 如今市面上的半入耳式主動降噪耳機一般都比較貴,300以內的更是基本沒有。最近,iQOO
      三茅GPT人力資源行業首個AI工具 近日,國內知名人力資源內容平臺三茅網重磅發布人力資源行業+AI智能工具——三茅GPT,
      “悅己”經濟攀升,艾麗哲女裝邀您共享藍海市場 在不斷變化的市場環境下,沒有哪一個品牌能確定自己是否會在將來一路常青,不會被淘汰
      吸塵器哪個牌子好?實測受到降維打擊 家里裝修完后,我買了一臺桶式吸塵器給新居開光,但是卻沒想到在正式入住后這臺開光神
      基金
      亚洲第一黄色网址| 4338×亚洲全国最大色成网站| 国产日韩成人亚洲丁香婷婷| 亚洲AV无码一区二区乱子仑 | 国产日产亚洲系列| 亚洲日本一区二区三区在线不卡| 亚洲欧洲精品成人久久奇米网 | 亚洲AV无码专区国产乱码不卡| 亚洲视频国产视频| 亚洲AV成人精品网站在线播放| 亚洲成色在线综合网站| 亚洲成AV人片在线观看| 亚洲VA中文字幕无码一二三区 | 亚洲日韩欧洲乱码AV夜夜摸| 亚洲熟妇无码另类久久久| 亚洲日韩精品射精日| 亚洲国产精品一区二区久久hs | 亚洲精品中文字幕无码A片老| 亚洲七久久之综合七久久| 亚洲av无码专区首页| 亚洲Av无码乱码在线观看性色 | 亚洲av无码专区在线| 亚洲色大成网站www| 精品国产亚洲AV麻豆| 亚洲美女在线国产| 国产成人综合亚洲亚洲国产第一页| 伊人久久大香线蕉亚洲| 亚洲av一综合av一区| 伊人久久综在合线亚洲2019| 亚洲激情视频网站| 91在线亚洲综合在线| 国产精品无码亚洲精品2021| 亚洲精品WWW久久久久久| 亚洲中文字幕无码中文字在线 | 亚洲欧洲国产日韩精品| 亚洲国产精品网站久久| 亚洲色欲色欱wwW在线| 内射无码专区久久亚洲| 日韩精品亚洲aⅴ在线影院| 久久亚洲AV午夜福利精品一区| 亚洲狠狠狠一区二区三区|