很可惜 T 。T 您現(xiàn)在還不是作者身份,不能自主發(fā)稿哦~
如有投稿需求,請把文章發(fā)送到郵箱tougao@appcpx.com,一經(jīng)錄用會有專人和您聯(lián)系
咨詢?nèi)绾纬蔀榇河鹱髡哒埪?lián)系:鳥哥筆記小羽毛(ngbjxym)
最近,DeepSeek-V3在國外火了。
它為什么火呢?主要有三個原因:一,性能非常出色。
在許多測試中,它都超過了其他頂尖模型,比如GPT-4o和Claude 3.5 Sonnet。特別在數(shù)學和代碼生成方面,表現(xiàn)尤為突出。
二,它的訓練成本相對較低。只要600萬美元就能完成訓練,與其他頂級模型相比,性價比極高。三,它是開源的。全球的開發(fā)者都可以免費使用和測試它。
因此,它火了。不過,隨著它的火爆,很多人開始好奇:這個模型來自哪里?它與其他模型有何不同?
帶著同樣的疑問,我查看了它12月26日在GitHub上發(fā)布的報告——DeepSeek-V3 Technical Report??偨Y出了五點內(nèi)容,關于模型架構設計、基礎設施、預訓練、后訓練模型,以及評估結果?,F(xiàn)在,向你匯報一下。
先來說說這家公司:
DeepSeek-V3是由中國幻方量化公司開發(fā),它是基于自研MoE模型的新一代大語言模型。
MoE,全稱Mixture of Experts,也叫混合專家技術,是一種機器學習架構,是通過組合多個專家模型,在處理復雜任務時,讓效率和準確度都大大提升。
以前,人們總愛把「DeepSeek」比作:AI界的拼多多。
因為它開啟了中國大模型價格戰(zhàn)。2024年5月,它們推出了一個叫DeepSeek V2的開源模型。這個模型的性價比超級高,每百萬個token的推理計算成本只要1塊錢。
這個價格,大概是Llama3 70B的1/7,也是GPT-4 Turbo的1/70。
這個消息一出來,字節(jié)、騰訊、百度、阿里,還有kimi這些AI公司,都跟著降價。所以,DeepSeek憑借它的高性價比,在中國大模型市場掀起了第一場價格戰(zhàn)。
但是,V2.5版本的更新速度不快,直到9月份才有動靜;現(xiàn)在又過了3個月,V3版本終于來了。這次,大家最想知道的就是,它的架構有什么新變化。
這家公司的老板梁文鋒說過,以前中國公司習慣于做應用變現(xiàn),但現(xiàn)在DeepSeek的目標是走在技術前沿。他希望用技術推動整個生態(tài)的發(fā)展。他認為,中國公司應該從“搭便車”的角色,轉變?yōu)?ldquo;貢獻者”,主動參與到全球創(chuàng)新的大潮中。
那么,DeepSeek-V3到底有哪些技術架構上新亮點呢?
報告中(第4P到第6P部分)說:DeepSeek-V3架構設計非常精巧,主要有四點:
專家團(MoE架構)
多頭潛在注意力(MLA)
無輔助損失的負載平衡策略
多令牌預測訓練目標
分別什么意思呢?首先,DeepSeek-V3它有671億個參數(shù),像一個超級大腦。這個大腦用的技術叫做MoE架構,就是混合專家技術。這意味著,它里面有很多專家模型,但每次只要37億個參數(shù)來工作就可以了。
為了讓專家模型高效工作,DeepSeek-V3得有個聰明的調度員,確保每個專家都有活干,不會有的很忙,有的很閑。
DeepSeek-V3裝在了信息過濾器,叫做「MLA」,它能讓模型只關注信息中的重要部分,不會被不重要的細節(jié)分散注意力。
但是,這樣好不夠,DeepSeek-V3還得確保每個專家都能得到合理的工作量,并且訓練模型去預測接下來的幾個步驟,不只是下一步;這就是無輔助損失的負載平衡策略和多令牌預測訓練目標的用處。
簡單來說,讓每個專家都有合理的工作量,同時訓練模型去預測接下來的幾個步驟,這樣模型在實際工作中就能表現(xiàn)得更好,比如在處理長篇文章時能更好地理解上下文。
所以,DeepSeek-V3的架構有四個要點:
一,MLA技術,通過壓縮注意力機制減少需要處理的信息量,提高效率。二,DeepSeekMoE技術,用更細粒度的專家和共享專家提高訓練效率,并且動態(tài)調整專家間的工作量均衡。
三,無輔助損失的負載平衡策略,確保專家間工作量均衡,不依賴額外的損失項;四,多令牌預測訓練目標,提高模型的預測能力和數(shù)據(jù)效率。
總之,DeepSeek-V3的架構,像一個高效的團隊,每個成員都有特定的任務,而且團隊能夠預測并準備接下來的工作,這樣的設計才能讓模型在處理信息時既快速又準確。
報告第11頁到第12頁,詳細講解了DeepSeek-V3的訓練技術。首先,DeepSeek-V3是在擁有2048個NVIDIA H800 GPU的超級計算機上訓練。
這些GPU通過NVLink和NVSwitch在單個節(jié)點內(nèi)連接,節(jié)點之間則通過InfiniBand(IB)連接,形成了一個強大的分布式計算網(wǎng)絡。
接下來,說說訓練框架。DeepSeek-V3用了一個叫做DualPipe的算法,這個算法能讓模型更智能地分配任務,減少等待時間,確保每個部分都能在正確的時間做正確的事。
這個算法具體包括兩點:
一,DualPipe和計算通信重疊。就像兩組工人,一組加工零件,一組準備材料。如果他們不同步,加工好的零件就會堆積。
DeepSeek-V3的DualPipe算法讓這兩組工人的工作節(jié)奏同步,一邊加工零件,一邊準備材料,這樣就沒有等待時間,生產(chǎn)過程更流暢。
二,高效實現(xiàn)跨節(jié)點全對全通信。想象一個大工廠,不同車間需要共享信息。DeepSeek-V3通過高效的通信技術,確保不同“車間”(計算節(jié)點)之間的信息能快速共享,就像建立了一個快速的信息傳遞網(wǎng)絡。
兩者組合,能讓有限的硬件資源下訓練更大的模型。
有了算法還不夠,還要精練。怎么精練?DeepSeek-V3推出了一種叫FP8的新技術。簡單來說,通過五個小點步驟用更小的數(shù)字代替原來的大數(shù)字,讓計算機更快地做計算,同時節(jié)省電。
舉個例子:
在超市買東西,大多數(shù)時不用精確到小數(shù)點后,大概齊就行了。但是,用小數(shù)字代替大數(shù)字可能會影響精細工作。
怎么辦?DeepSeek-V3在關鍵的地方,會用更精確的大數(shù)字(FP32)來確保質量,比如:矩陣乘法,這就像在做精細活兒時,關鍵步驟用好工具,其他時候用差點的也沒事。
在訓練過程中,DeepSeek-V3還會用FP8來存儲中間結果,節(jié)省更多的內(nèi)存空間。這像整理東西時,不用把所有東西都放在顯眼的地方,而是合理地收納起來,需要時再拿出來。
最后,DeepSeek-V3在實際使用時,也會根據(jù)情況來決定用不用FP8,這樣就能在保證效果的同時,讓模型跑得更快,更省資源。
如同,我們在日常生活中,根據(jù)不同的情況來選擇不同的工具,既高效又節(jié)約,這就是,它的底層基礎技術。
DeepSeek-V3是怎么做預訓練的呢?
報告里說,DeepSeek-V3的預訓練涉及到六個方面:數(shù)據(jù)建設、超參數(shù)調整、長上下文擴展、評估基準、消融研究,還有輔助無損耗平衡策略。
首先是「數(shù)據(jù)建設」。
DeepSeek-V3用了14.8萬億個高質量的數(shù)據(jù)點來訓練,這些數(shù)據(jù)覆蓋了很多不同的領域和語言,這樣模型就能學到很多不同的知識。
然后,在訓練開始之前,得設置一些重要的參數(shù),比如學習率。DeepSeek-V3會仔細挑選這些參數(shù),讓模型能以最好的方式學習,這叫超參數(shù)調整(Hyper-Parameters)。
緊接著,對長上下文擴展(Long Context Extension)。
這就像教模型讀長故事。DeepSeek-V3用了一些特別的技術,比如YaRN,來增加模型能處理的文本長度,從4K字節(jié)增加到128K字節(jié)。這樣,模型就能理解更長的文章和故事了。
在學習的過程中,還得檢查模型學得怎么樣。這就是「評估基準」的作用。DeepSeek-V3會在各種測試上進行評估,比如MMLMU-Pro、GPQA-Diamond等,確保模型在不同的任務上都能表現(xiàn)得很好。
消融研究(ablation experiment)是什么?
DeepSeek-V3會做很多實驗,看看哪些方法最管用。比如研究無輔助損失的負載平衡策略,找出哪些技術最能提高模型的性能等等。
最后,模型通過動態(tài)調整,使得每個專家的工作量更加均衡,而不是通過輔助損失來強制平衡。如此一來,預訓練階段就能吸收和處理很多信息,學會理解和生成文本,為后面的訓練打下堅實的基礎。
看完這段報告覺得,像給一個5歲孩子提供學習資源和環(huán)境一樣,讓他在成長過程中能夠全面發(fā)展。
問題是:只有預訓練還不夠,后訓練才能讓模型更成熟。那么,DeepSeek-V3是怎么做的后訓練呢?
首先是監(jiān)督微調(Supervised Fine-Tuning, SFT)。
DeepSeek團隊為模型準備了150萬個實例的特別訓練集,就像是一本包含各種生活場景的百科全書。每個訓練集都是精心設計,確保模型能學會在不同情況下應該怎么處理。
對于那些需要邏輯和計算的數(shù)據(jù),比如數(shù)學問題或者編程挑戰(zhàn),團隊用了一個已經(jīng)訓練好的模型(DeepSeek-R1)來生成例子。
雖然這些例子通常很準確,但有時可能太復雜或者格式不規(guī)范。所以,團隊的目標是讓數(shù)據(jù)既準確又容易理解。
為了做到這一點,他們結合了(監(jiān)督微調(SFT)和強化學習(Reinforcement Learning, RL)的方法,訓練了一些「專家模型」。這些專家模型就像專業(yè)的老師,負責教最終的模型如何在特定領域做得更好。
在訓練過程中,他們會創(chuàng)造兩種類型的例子:一種是直接的問題和答案,另一種是加上了「系統(tǒng)提示」的問題、答案和R1模型的響應。這些系統(tǒng)提示就像教學大綱,指導模型如何給出有深度和經(jīng)過驗證的答案。
對了,在「強化學習」階段,模型會嘗試不同的回答,根據(jù)效果得到獎勵或懲罰。
經(jīng)過這個過程,模型自己學會給出更好的答案;最后,團隊會用「拒絕采樣」的方法挑選最好的示例,用于最終模型的訓練,這確保了模型學習的數(shù)據(jù)既準確又容易理解。
對于非推理數(shù)據(jù),比如:
寫故事或者角色扮演,團隊用了另一個模型(DeepSeek-V2.5)來生成回答,然后讓人工檢查這些回答是否準確和合適。這兩個步驟,報告中稱之為「評價標準」。
最后,DeepSeek團隊對DeepSeek-V3-Base進行了兩個時期的微調,采用了從5×10^-6到1×10^-6的「余弦衰減學習率調度」。
在訓練期間,每個序列都由多個樣本組成,但他們采用了「樣本屏蔽策略」,確保示例相互獨立,這是一種「開放評估」的模型。
通過這些后訓練步驟,DeepSeek-V3能夠在實際應用中做到更加精準,就像在完成基礎訓練后,再給它進行一些專業(yè)技能的培訓。
他們起的名字叫「生成獎勵模型」,讓它不僅是一個學習者,它還變成了一個評委;這樣周而復始的,如同建立一套正向反饋機制一樣。
那么,通過這套模型訓練出來的成果如何呢?
DeepSeek-V3做了一系列的全面基準測試,這像給超級大腦出了一套標準化的試卷,看看它在各個科目上能得多少分。這些科目包括教育知識、語言理解、編程技能、數(shù)學問題解決等等。
數(shù)學推理上:
在MATH-500測試中,DeepSeek-V3得了90.2分,這個分數(shù)不僅比所有開源競爭對手高,比如Qwen 2.5的80分和Llama 3.1的73.8分,而且也超過了閉源模型GPT-4o的74.6分。
在MGSM(數(shù)學小學數(shù)學)測試中,DeepSeek-V3得了79.8分,超過了Llama 3.1的69.9分和Qwen 2.5的76.2分。在CMath(中國數(shù)學)測試中,DeepSeek-V3得了90.7分,比Llama 3.1的77.3分和GPT-4o的84.5分都要好。
編程和編碼能力方面:
在LiveCodeBench測試中,DeepSeek-V3的通過率達到了37.6%,領先于Llama 3.1的30.1%和Claude 3.5 Sonnet的32.8%。
在HumanEval-Mul測試中,DeepSeek-V3得了82.6%,比Qwen 2.5的77.3%高,并且和GPT-4o的80.5%差不多。在CRUXEval-I測試中,DeepSeek-V3得了67.3%,明顯優(yōu)于Qwen 2.5的59.1%和Llama 3.1的58.5%。
在多語言和非英語任務上:
在CMMLU(中文多語言理解)測試中,DeepSeek-V3得了88.8分,低于Qwen 2.5的89.5分,領先于Llama 3.1的73.7分。
在C-Eval,中國評估基準測試中,DeepSeek-V3得了90.1分,遠遠領先于Llama 3.1的72.5分。
其他數(shù)據(jù)還有很多,總的來說,DeepSeek-V3成績遙遙領先;對了,還有一句要提的是:DeepSeek-V3的訓練成本只有557.6萬美元,這只是訓練Meta的Llama 3.1所需估計的5億美元的一小部分。
所以,DeepSeek-V3新的模型結構,無疑是如今人工智能領域中一次新的變革。高效、省力、省成本;難怪連OpenAI的前首席科學家Andrej Karpathy也表示,這是一次“令人印象深刻的展示”。
如果DeepSeek-V3在資源有限的情況下,都能表現(xiàn)出如此卓越的工程能力,以后是不是不需要大型GPU集群了?值得思考。
本文為作者獨立觀點,不代表鳥哥筆記立場,未經(jīng)允許不得轉載。
《鳥哥筆記版權及免責申明》 如對文章、圖片、字體等版權有疑問,請點擊 反饋舉報
我們致力于提供一個高質量內(nèi)容的交流平臺。為落實國家互聯(lián)網(wǎng)信息辦公室“依法管網(wǎng)、依法辦網(wǎng)、依法上網(wǎng)”的要求,為完善跟帖評論自律管理,為了保護用戶創(chuàng)造的內(nèi)容、維護開放、真實、專業(yè)的平臺氛圍,我們團隊將依據(jù)本公約中的條款對注冊用戶和發(fā)布在本平臺的內(nèi)容進行管理。平臺鼓勵用戶創(chuàng)作、發(fā)布優(yōu)質內(nèi)容,同時也將采取必要措施管理違法、侵權或有其他不良影響的網(wǎng)絡信息。
一、根據(jù)《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》《中華人民共和國未成年人保護法》等法律法規(guī),對以下違法、不良信息或存在危害的行為進行處理。
1. 違反法律法規(guī)的信息,主要表現(xiàn)為:
1)反對憲法所確定的基本原則;
2)危害國家安全,泄露國家秘密,顛覆國家政權,破壞國家統(tǒng)一,損害國家榮譽和利益;
3)侮辱、濫用英烈形象,歪曲、丑化、褻瀆、否定英雄烈士事跡和精神,以侮辱、誹謗或者其他方式侵害英雄烈士的姓名、肖像、名譽、榮譽;
4)宣揚恐怖主義、極端主義或者煽動實施恐怖活動、極端主義活動;
5)煽動民族仇恨、民族歧視,破壞民族團結;
6)破壞國家宗教政策,宣揚邪教和封建迷信;
7)散布謠言,擾亂社會秩序,破壞社會穩(wěn)定;
8)宣揚淫穢、色情、賭博、暴力、兇殺、恐怖或者教唆犯罪;
9)煽動非法集會、結社、游行、示威、聚眾擾亂社會秩序;
10)侮辱或者誹謗他人,侵害他人名譽、隱私和其他合法權益;
11)通過網(wǎng)絡以文字、圖片、音視頻等形式,對未成年人實施侮辱、誹謗、威脅或者惡意損害未成年人形象進行網(wǎng)絡欺凌的;
12)危害未成年人身心健康的;
13)含有法律、行政法規(guī)禁止的其他內(nèi)容;
2. 不友善:不尊重用戶及其所貢獻內(nèi)容的信息或行為。主要表現(xiàn)為:
1)輕蔑:貶低、輕視他人及其勞動成果;
2)誹謗:捏造、散布虛假事實,損害他人名譽;
3)嘲諷:以比喻、夸張、侮辱性的手法對他人或其行為進行揭露或描述,以此來激怒他人;
4)挑釁:以不友好的方式激怒他人,意圖使對方對自己的言論作出回應,蓄意制造事端;
5)羞辱:貶低他人的能力、行為、生理或身份特征,讓對方難堪;
6)謾罵:以不文明的語言對他人進行負面評價;
7)歧視:煽動人群歧視、地域歧視等,針對他人的民族、種族、宗教、性取向、性別、年齡、地域、生理特征等身份或者歸類的攻擊;
8)威脅:許諾以不良的后果來迫使他人服從自己的意志;
3. 發(fā)布垃圾廣告信息:以推廣曝光為目的,發(fā)布影響用戶體驗、擾亂本網(wǎng)站秩序的內(nèi)容,或進行相關行為。主要表現(xiàn)為:
1)多次發(fā)布包含售賣產(chǎn)品、提供服務、宣傳推廣內(nèi)容的垃圾廣告。包括但不限于以下幾種形式:
2)單個帳號多次發(fā)布包含垃圾廣告的內(nèi)容;
3)多個廣告帳號互相配合發(fā)布、傳播包含垃圾廣告的內(nèi)容;
4)多次發(fā)布包含欺騙性外鏈的內(nèi)容,如未注明的淘寶客鏈接、跳轉網(wǎng)站等,誘騙用戶點擊鏈接
5)發(fā)布大量包含推廣鏈接、產(chǎn)品、品牌等內(nèi)容獲取搜索引擎中的不正當曝光;
6)購買或出售帳號之間虛假地互動,發(fā)布干擾網(wǎng)站秩序的推廣內(nèi)容及相關交易。
7)發(fā)布包含欺騙性的惡意營銷內(nèi)容,如通過偽造經(jīng)歷、冒充他人等方式進行惡意營銷;
8)使用特殊符號、圖片等方式規(guī)避垃圾廣告內(nèi)容審核的廣告內(nèi)容。
4. 色情低俗信息,主要表現(xiàn)為:
1)包含自己或他人性經(jīng)驗的細節(jié)描述或露骨的感受描述;
2)涉及色情段子、兩性笑話的低俗內(nèi)容;
3)配圖、頭圖中包含庸俗或挑逗性圖片的內(nèi)容;
4)帶有性暗示、性挑逗等易使人產(chǎn)生性聯(lián)想;
5)展現(xiàn)血腥、驚悚、殘忍等致人身心不適;
6)炒作緋聞、丑聞、劣跡等;
7)宣揚低俗、庸俗、媚俗內(nèi)容。
5. 不實信息,主要表現(xiàn)為:
1)可能存在事實性錯誤或者造謠等內(nèi)容;
2)存在事實夸大、偽造虛假經(jīng)歷等誤導他人的內(nèi)容;
3)偽造身份、冒充他人,通過頭像、用戶名等個人信息暗示自己具有特定身份,或與特定機構或個人存在關聯(lián)。
6. 傳播封建迷信,主要表現(xiàn)為:
1)找人算命、測字、占卜、解夢、化解厄運、使用迷信方式治病;
2)求推薦算命看相大師;
3)針對具體風水等問題進行求助或咨詢;
4)問自己或他人的八字、六爻、星盤、手相、面相、五行缺失,包括通過占卜方法問婚姻、前程、運勢,東西寵物丟了能不能找回、取名改名等;
7. 文章標題黨,主要表現(xiàn)為:
1)以各種夸張、獵奇、不合常理的表現(xiàn)手法等行為來誘導用戶;
2)內(nèi)容與標題之間存在嚴重不實或者原意扭曲;
3)使用夸張標題,內(nèi)容與標題嚴重不符的。
8.「飯圈」亂象行為,主要表現(xiàn)為:
1)誘導未成年人應援集資、高額消費、投票打榜
2)粉絲互撕謾罵、拉踩引戰(zhàn)、造謠攻擊、人肉搜索、侵犯隱私
3)鼓動「飯圈」粉絲攀比炫富、奢靡享樂等行為
4)以號召粉絲、雇用網(wǎng)絡水軍、「養(yǎng)號」形式刷量控評等行為
5)通過「蹭熱點」、制造話題等形式干擾輿論,影響傳播秩序
9. 其他危害行為或內(nèi)容,主要表現(xiàn)為:
1)可能引發(fā)未成年人模仿不安全行為和違反社會公德行為、誘導未成年人不良嗜好影響未成年人身心健康的;
2)不當評述自然災害、重大事故等災難的;
3)美化、粉飾侵略戰(zhàn)爭行為的;
4)法律、行政法規(guī)禁止,或可能對網(wǎng)絡生態(tài)造成不良影響的其他內(nèi)容。
二、違規(guī)處罰
本網(wǎng)站通過主動發(fā)現(xiàn)和接受用戶舉報兩種方式收集違規(guī)行為信息。所有有意的降低內(nèi)容質量、傷害平臺氛圍及欺凌未成年人或危害未成年人身心健康的行為都是不能容忍的。
當一個用戶發(fā)布違規(guī)內(nèi)容時,本網(wǎng)站將依據(jù)相關用戶違規(guī)情節(jié)嚴重程度,對帳號進行禁言 1 天、7 天、15 天直至永久禁言或封停賬號的處罰。當涉及欺凌未成年人、危害未成年人身心健康、通過作弊手段注冊、使用帳號,或者濫用多個帳號發(fā)布違規(guī)內(nèi)容時,本網(wǎng)站將加重處罰。
三、申訴
隨著平臺管理經(jīng)驗的不斷豐富,本網(wǎng)站出于維護本網(wǎng)站氛圍和秩序的目的,將不斷完善本公約。
如果本網(wǎng)站用戶對本網(wǎng)站基于本公約規(guī)定做出的處理有異議,可以通過「建議反饋」功能向本網(wǎng)站進行反饋。
(規(guī)則的最終解釋權歸屬本網(wǎng)站所有)