原文作者:Tanya Malhotra
來源:Marktechpost
近年來,大型語言模型(Large Language Models,LLMs)在全世界受到了廣泛贊賞,并在自然語言處理領域備受歡迎。這使我們能夠使用比以往任何時候都更好、更清晰的語言理解來描述智能系統(Intelligent Systems)。
諸如 GPT-3、T5、PaLM 等 LLMs 的性能有了顯著提高,并且這些模型將繼續存在,因為它們可以完成從通過學習閱讀來模仿人類,到生成文本和總結長段落內容的所有工作。而根據一些深入的研究,如果 LLM 的規模很大,那么它的表現就會很好。通過在大量數據上訓練這些模型,它們可以理解人類語言的語法、語義和語用學。
Jito Labs已完成Solana主網上首次MEV分發:9月19日消息,推特ID為@0xspl_iff的Jito Labs團隊成員表示,Jito Labs已于北京時間今日6:00左右完成了Solana主網上首次MEV分發。
此前報道,Solana生態MEV基礎設施開發商Jito Labs于8月宣布完成由Multicoin Capital和Framework Ventures領投的1000萬美元A輪融資。[2022/9/19 7:06:17]
由 OpenAI 開發的流行的大型語言模型 ChatGPT 之所以發展得如此之快,正是因為采用了人類反饋強化學習(RLHF)等先進技術。通過 RLHF,機器學習算法結合并使用人工輸入提高了模型的性能。它針對預訓練的 LLM 進行了微調,用于開發聊天機器人、虛擬助手等任務。
BNB Chain Web3 Stars加速器計劃在越南啟動:8月12日消息,BNB Chain宣布在越南推出了其首個BNB Chain Web3 Stars加速器。 該計劃旨在發掘該地區的創新Web3項目,幫助越南開發人員構建可擴展的Web3 dApp,并獲得對高活躍度的BNB Chain社區的訪問權限。
孵化階段選定的十個Web3 Stars項目將獲得BNB Chain的營銷和社區支持的獨家訪問權,以及在項目孵化結束后瓜分50,000美元贈款的機會。
據悉,報名將于8月20日截止,前10名獲獎者將于8月25日公布,最終獲獎者將于10月1日公布。[2022/8/12 12:21:00]
此外,ChatGPT 等 LLMs 所基于的預訓練基礎模型也得到了明顯的改進。這主要是由于三個方面的變化:
巴菲特支持的Nubank目前為5400萬客戶提供加密交易:金色財經報道,根據周一的一篇博客,沃倫·巴菲特支持的Nubank是世界上最大的數字銀行平臺之一,目前正在為5400萬客戶提供加密貨幣交易。據悉,Nubank還在其資產負債表上持有比特幣。(bitcoin.com)[2022/6/30 1:40:37]
1.實踐證明,模型的擴展性(Scaling)對提高其性能很有幫助。以 Pathways 語言模型(Pathways Language Model,PaLM)為例,該模型通過擴展小樣本學習(few-shot learning)大大影響了其性能,小樣本學習可以減少根據具體應用調整模型所需的特定任務訓練實例的數量。
Meta元宇宙設備Quest 2遭觸覺技術開發公司Immersion專利侵權起訴:金色財經報道,觸覺技術開發公司 Immersion 已對 Meta 提起訴訟,指控后者通過侵犯其專利的方式打造了虛擬現實(VR)頭戴設備。Immersion 在提交給得克薩斯州韋科聯邦法院的一份起訴書中稱,Meta Quest 2 侵犯了六項涉及觸覺技術的專利,該公司正尋求法院下令阻止 Meta 使用侵權技術并尋求數額不詳的賠償金額。Meta 首席執行官馬克·扎克伯格(Mark Zuckerberg)此前承諾每年投入 100 億美元來實現由 VR 支撐的元宇宙愿景,數據顯示,Meta Quest 2 的銷量在 2021 年達到 870 萬部,是前一年的兩倍,占據了 80% 的市場份額。截止目前,Meta 官方尚未就技術侵權訴訟時間發表置評。(law360)[2022/5/29 3:48:20]
通過使用 Pathways 語言模型在 6144 TPU v4 芯片上擴展和訓練 5400 億個參數,PaLM 展示了重復擴展的好處,其表現超過了各種傳統模型,并顯示出很大的進步。因此,深度和寬度的擴展都是提高基礎模型性能的一個重要因素。
2.另一個變化是在預訓練時增加標記數量的過程。像 Chinchilla 這樣的模型(開源語言模型)已經證明,通過增加預訓練數據,大型語言模型的表現會更好。
Chinchilla 是一個計算最優模型。在相同的計算預算下,在 70B 參數和比 Gopher 模型多四倍的數據上進行訓練,Chinchilla 的表現一致優于 Gopher,它甚至比 GPT-3、Jurassic-1 和 Megatron-Turing NLG 等 LLMs 效果更好。這清楚地描述了對于每一個計算最優的訓練,標記的數量應該相應地縮放——即模型大小的兩倍,因此訓練標記的數量應該是兩倍。
3.第三個變化是使用干凈和多樣化的預訓練數據。Galactica 的性能證明了這一點,它是一種存儲、混合和推理科學知識的大型語言模型。經過幾篇科學論文文本的訓練,Galactica 的表現優于 GPT-3、Chinchilla 等模型。另一個大型語言模型 BioMedLM 是一種針對生物醫學文本的特定領域 LLM,在針對特定領域數據進行訓練時,它表現出了巨大的性能提升。它清楚地表明,在特定領域的數據上進行的預訓練勝過在通用數據上的訓練。
LLMs 的成功無疑歸功于多種因素的混合,包括 RLHF 的使用和預訓練基礎模型的發展。這三個變化極大地影響了 LLMs 的性能。此外,GLaM(通用語言模型)通過使用稀疏激活的混合專家架構(Mixture-of-Experts architecture),以更少的訓練成本擴展模型的容量,從而顯著提高了性能。因此,這些變化為更高級的語言模型開辟了道路,而這些模型將繼續讓我們的生活變得輕松。
DeFi之道
個人專欄
閱讀更多
金色財經 善歐巴
金色早8點
Odaily星球日報
歐科云鏈
Arcane Labs
深潮TechFlow
MarsBit
BTCStudy
澎湃新聞
Tags:CHIMETAETAMETChives CoinShibaMetaverseCrafty MetaverseMetrix Coin
▌FTX Japan將于2月21日恢復加密貨幣和法定提款金色財經報道,FTX 的日本子公司FTX Japan將于 2 月 21 日恢復加密貨幣和法定提款.
1900/1/1 0:00:00作者:Bing Ventures投資經理KyleWeb2社交平臺的內容審查、用戶所有權的缺失和排他性一直備受爭議。去中心化社交協議是Web3領域在這方面的探索.
1900/1/1 0:00:00文/Vitalik,以太坊創始人;譯/金色財經0xnaitive2013年,我去了舊金山互聯網檔案館旁邊的一家壽司店,因為我聽說它接受比特幣支付,我想試試。到了付賬的時候,我要求用BTC支付.
1900/1/1 0:00:00前言:2022 年,FTX暴雷之后,日本、韓國、美國、新加坡等多個地區對加密行業監管政策收緊.
1900/1/1 0:00:00撰文:湯圓,元宇宙日爆 近日,美國職業籃球聯盟(NBA)授權的 NFT 項目「NBA Top Shot Moments」被紐約法院初步裁定為「可能符合證券的定義」.
1900/1/1 0:00:00金色周刊是金色財經推出的一檔每周區塊鏈行業總結欄目,內容涵蓋一周重點新聞、礦業信息、項目動態、技術進展等行業動態。本文是其中的新聞周刊,帶您一覽本周區塊鏈行業大事.
1900/1/1 0:00:00