創(chuàng)澤機(jī)器人 |
CHUANGZE ROBOT |
OpenAI 等基于大量工程實(shí)驗(yàn)和反復(fù)驗(yàn) 證提出縮放定律,揭示了模型能力與計(jì)算能力、參數(shù)量和數(shù)據(jù)量間 的定量關(guān)系,業(yè)界也遵循該定律指導(dǎo)資源要素投入、推動模型創(chuàng)新 發(fā)展,近年來在模型技術(shù)能力、通用泛化水平等方面取得一系列突 破性進(jìn)展。目前,大模型支持模態(tài)已逐步從自然語言處理拓展到多 模態(tài)理解和生成等場景。
從 2023 年至今的基準(zhǔn)測試結(jié)果來看,全球大模型能力已經(jīng)出現(xiàn) 階躍式提升。語言大模型能力提升主要體現(xiàn)為以下四方面。
一是上下文窗口長度擴(kuò)展,提升全局能力。大模型的上下文窗口長度是指 模型在執(zhí)行文本生成任務(wù)時(shí),能夠處理的前置文本的數(shù)量或長度, 決定了模型對信息的理解深度和廣度,對于理解和生成連貫、一致 且準(zhǔn)確的文本具有重要意義。當(dāng)前,國內(nèi)外主流大語言模型均具備 128k 以上的上下文長度處理能力,可一次性處理數(shù)十萬單詞或漢字。
二是知識密度增強(qiáng),儲存更多知識。隨著數(shù)據(jù)、算力、算法協(xié)同發(fā) 展,大模型知識密度持續(xù)增強(qiáng),平均每 8 個(gè)月翻一番。2020 年 6 月 發(fā)布的 GPT-3 大模型有 1750 億個(gè)參數(shù),2024 年 2 月面壁智能發(fā)布 MiniCPM-2.4B 模型在實(shí)現(xiàn)同等性能的同時(shí),參數(shù)規(guī)模降至 24 億, 相當(dāng)于知識密度提高了約 86 倍。
三是 MoE 混合專家架構(gòu)能夠容納更多知識,精準(zhǔn)刻畫任務(wù)。MoE 稀疏激活多個(gè)專家子模型支路,加權(quán) 融合多個(gè)子模型結(jié)果,實(shí)現(xiàn)更加準(zhǔn)確的輸出,提高推理計(jì)算效率。 目前,谷歌的 Gemini-1.5 Pro、Mistral AI 的 8x7B 與 8x22B、阿里云 Qwen-1.5 MoE、階躍星辰 Step-2 等頭部大模型均采用 MoE 架構(gòu), 已 成 為 當(dāng) 前 大 模 型 的 重 要 演 進(jìn) 趨 勢 。
四 是通過強(qiáng)化學(xué)習(xí) (Reinforcement Learning,RL)將思維鏈(Chain of Thought,CoT) 內(nèi)化進(jìn)模型,提升復(fù)雜推理能力。2024 年 9 月 OpenAI 發(fā)布的 o1 系 列模型在后訓(xùn)練(Post-Training)階段采用強(qiáng)化學(xué)習(xí)和思維鏈的技術(shù)方案,不僅在“慢思考”后回答復(fù)雜問題的表現(xiàn)優(yōu)異(尤其是在 STEM 領(lǐng)域的推理能力顯著增強(qiáng)),還具有了自我反思與錯(cuò)誤修正能力, 使自博弈強(qiáng)化學(xué)習(xí)有望成為提升語言大模型邏輯推理能力的技術(shù)新范式。
機(jī)器人底盤 Disinfection Robot 消毒機(jī)器人 講解機(jī)器人 迎賓機(jī)器人 移動機(jī)器人底盤 商用機(jī)器人 智能垃圾站 智能服務(wù)機(jī)器人 大屏機(jī)器人 霧化消毒機(jī)器人 紫外線消毒機(jī)器人 消毒機(jī)器人價(jià)格 展廳機(jī)器人 服務(wù)機(jī)器人底盤 核酸采樣機(jī)器人 智能配送機(jī)器人 導(dǎo)覽機(jī)器人 |