您现在的位置是:蠻來生作網 > 和平區
如何利用長尾關鍵詞提升網站排名(提升網站流量和轉化)
蠻來生作網2025-07-05 08:17:23【和平區】6人已围观
简介"隨著互聯網的不斷發展和普及,越來越多的企業和個人都開始了自己的網站建設。但是,在眾多網站中,如何讓自己的網站脫穎而出,成為用戶選擇的優選之一呢?這就需要用到SEO技術,而其中的長尾關鍵詞優化更是提升
隨著互聯網的不斷發展和普及,越來越多的企業和個人都開始了自己的網站建設。但是,在眾多網站中,如何讓自己的網站脫穎而出,成為用戶選擇的優選之一呢?這就需要用到SEO技術,而其中的長尾關鍵詞優化更是提升網站流量和轉化的重要一環。接下來,本文將為大家詳細介紹如何通過長尾關鍵詞優化來提升網站排名。
什麽是長尾關鍵詞
長尾關鍵詞是指一些相對較長、相對不太熱門的關鍵詞組合。相對於短尾關鍵詞,長尾關鍵詞具有更加具體、精準的描述性和更小的競爭度,同時也更符合用戶搜索的實際需求。例如,“紅色連衣裙”是一個短尾關鍵詞,“女式紅色連衣裙”是一個長尾關鍵詞。
長尾關鍵詞的重要性
相比於短尾關鍵詞,長尾關鍵詞更加具體化,而且更適合用戶的實際搜索需求。同時,由於競爭度低,所以排名相對容易。一旦網站能夠針對性地針對一些長尾關鍵詞進行優化,將會對網站排名和流量產生非常顯著的影響。
如何尋找適合自己網站的長尾關鍵詞
要尋找適合自己網站的長尾關鍵詞,我們可以使用一些SEO工具來輔助。比如GoogleAdWords中的KeywordPlanner、百度指數等等。同時,我們也可以通過分析競爭對手的網站來尋找一些適合自己網站的長尾關鍵詞。
如何在文章中使用長尾關鍵詞
在文章中使用長尾關鍵詞時,應注意不能過分堆砌。應該在文章中自然地融入一些含有長尾關鍵詞的句子。例如,在寫一篇介紹“男士西裝”的文章時,可以使用“如何選擇男士西裝”、“男士西裝搭配技巧”等相關的長尾關鍵詞。
如何在頁麵中使用長尾關鍵詞
在頁麵中使用長尾關鍵詞時,應該注意頁麵標題、metadescription、H1、H2等重要位置,盡可能地將長尾關鍵詞自然地融入其中。同時,還可以通過圖片命名和alt標簽等方式來進一步優化頁麵。
如何通過長尾關鍵詞提升網站流量
通過針對性地優化一些適合自己網站的長尾關鍵詞,並將其融入到頁麵和文章中,可以吸引更多符合實際需求的用戶訪問網站,並提高網站的流量。
如何通過長尾關鍵詞提升網站轉化率
除了吸引更多的流量外,通過針對性地針對一些適合自己網站的長尾關鍵詞進行優化,我們還能夠吸引更多符合實際需求的潛在客戶,並從而提高網站的轉化率。
如何維護網站上的長尾關鍵詞
在使用長尾關鍵詞優化網站後,我們還需要不斷地跟進和維護這些長尾關鍵詞。可以通過相關SEO工具進行跟蹤,分析網站排名和流量的變化,及時調整和優化策略。
選擇正確的長尾關鍵詞策略
選擇正確的長尾關鍵詞策略也是非常重要的。我們需要考慮自己網站所處的行業領域、用戶需求等因素,並結合自身實際情況進行選擇。
總結
通過本文的介紹,相信大家已經有了一定了解長尾關鍵詞優化的基本知識。隻有通過針對性地選擇和優化適合自己網站的長尾關鍵詞,並將其巧妙地融入到頁麵和文章中,才能夠真正提升網站排名和流量,並最終實現更好的轉化效果。
"很赞哦!(57)
上一篇: 吳清:投資者是市場之本,保護投資者合法權益是證券監管的首要任務巨額財務造假 *ST海越收監管罰單!業績預虧背後困局待解DeepSeek爆火、關稅加征、暫停降息後,對美股的七問七答武漢市黃陂區疫情最新消息!黃陂湖的“陂”到底是讀“PI”還是“PO”,有知道的嗎?劉俊麟?君君原名叫什麽?解碼美科技巨頭財報本周外盤看點丨鮑威爾亮相國會聽證,1月CPI如何影響美聯儲趵突泉在哪裏個城市?天下第一泉在哪?手機遊戲下載大全;求觸屏遊戲下載,要java的一定是觸屏的才可以,謝謝?A股蛇年首周喜迎開門紅!關於後市,私募紛紛發聲哪吒汽車客服錄音泄露:爆粗口辱罵車主引熱議,公司緊急道歉昆山到上海有地鐵(昆山有到上海金山區的地鐵嗎)英國出國留學申請條件?申請美國留學的條件是什麽?十大機構看後市:AI“東升” 春季行情可能進入主升階段打印機卡紙怎麽弄--打印機一打印就卡紙是怎麽回事?網上抽簽!網上求簽可信嗎?石羊農科IPO爭議:關聯交易迷霧、財務數據異常與北交所定位之困海帶的功效與作用及禁忌?我愛吃海帶的拚音?標包是什麽意思__BBS是什麽意思易緯集團擬折讓約10.31%配售最多3110.4萬股配售股份 淨籌約601萬港元吃南瓜會長胖嗎 吃南瓜會胖嗎,吃南瓜的好處和壞處?大戰流沙河梗概——西遊記大戰流沙河內容簡介150字以上?美國賓州州立大學帕克分校~美國賓州州立大學排名?96度伏特加能消毒嗎 96伏特加等於幾度白酒大戰流沙河梗概——西遊記大戰流沙河內容簡介150字以上?在大中華區營收下降11%,雙11為何沒有給蘋果帶來業績提振?視頻|DeepSeek橫空出世:多家基金和上市公司已接入 新塑行業生態?劉鑾雄又要跑了,不過這次是英國JT&N觀點 | 2024年中國保險並購市場回顧漢朝的電視劇排行榜(漢朝先後順序的電視劇)太原鋼鐵集團有限公司招聘信息;太原鋼鐵集團和中建三局哪個好美債10年期利率回落4.5%下方 背後“推手”是誰信用卡怎麽刷出來(怎麽用pos刷信用卡 pos機刷卡步驟一覽)A股“春季躁動”加速,港股更受青睞!國內外機構齊發聲:做多中國股票涉資金占用等ST海越擬收600萬罰單新規“壓垮”美國海關,特朗普暫時恢複小額包裹免稅政策太原鋼鐵集團有限公司招聘信息;太原鋼鐵集團和中建三局哪個好視頻|被拍!特魯多吐心聲:特朗普不是在開玩笑,他真的想吞並加拿大2012年流行歌曲排行,2012最火的歌曲有哪些?惡魔男爵瑞茲手感(重做完的瑞茲它的萬聖節天限定皮膚海賊有特效嗎)蘋果筆記本充電充不進?蘋果電腦充不進去電是怎麽回事?省多音字組詞組詞 “省”的多音字組詞和拚音有哪些輝瑞25億英鎊清倉!一場預謀三年的撤退qq互聯授權中心,手機QQ授權中心在哪?平安旅遊保險網官網、旅遊意外險在哪兒買?中信證券:中國科技資產價值正被全球投資者重估,中美估值差有望畢業論文內容摘要怎麽寫(論文的內容摘要怎麽寫)霜月的意思?爽約什麽意思?過往非農,皆是序章,“特馬”改革,最大擾動聲卡排行榜外置;直播聲卡品牌十大排行榜?believe什麽意思,believe是什麽意思關稅陰雲揮之不去,美股波動性或再度襲來三點蟹的營養價值及功效~~三點蟹為什麽便宜?納米比亞開國總統努喬馬去世盥洗間什麽意思——盥洗間和洗手間區別?馬寶兒沉浸式化妝視頻_妝字組詞有哪些 妝怎麽組詞重慶富民銀行股份有限公司是哪個平台貸款。重慶富民銀行是什麽銀行?中西部第一家民營銀行?A股今年中期將超過去年高點,高盛、德銀積極唱多!A股“春季躁動”加速,港股更受青睞!國內外機構齊發聲:做多中國股票娜組詞有哪些_娜怎麽組詞 娜讀音及解釋?
下一篇: 助貸平台海外“激戰”:高息險途,定價權的生死角逐用友網絡再虧近20億:收入下滑、費用高企拖累 一年間裁員15%、近年頻繁換帥曝華為商用PC新品國產化率將近100% 核心部件全自研視頻|再見海通!昔日行業亞軍隕落,海通證券營業收入曾連續11年位居行業第2名,短短三年暴跌至第12名2025年汽車零部件行業專題報告:人形機器人重塑汽零估值,2025進入量產元年家用網線怎麽選擇(網線接法是什麽)網購食品當心分量“縮水”從英偉達到自研:智駕芯片的十字路口全國人大代表、長安汽車董事長朱華榮:完善自動駕駛係統立法 建設汽車出海數據庫楊德龍:一月CPI溫和上漲主要受春節因素影響 利於央行實施適度寬鬆貨幣政策尾盤:道指重挫逾1100點 納指暴跌4.8%電子發票打印怎樣設置a4紙的一半 32k卡紙有多大?消息稱蘋果折疊 iPad Pro 工程機屏幕達 18.8 英寸,支持屏下 3D 人臉識別扒一扒一些省市已公布的財政賬本濰柴動力:數據中心為公司大缸徑發動機產品的高端應用市場之一涉足的近義詞--涉獵和涉足?中國移動聯合華為榮獲GSMA GLOMO“最佳網絡軟件突破獎”和“CTO之選:傑出移動技術獎”雙獎項周健鵬履新銀川市委副書記 此前曾任寧夏銀行行長拉芳重回營銷戰過往非農,皆是序章,“特馬”改革,最大擾動特斯拉股價邁向2020年以來最大跌幅 華爾街重估銷量預測金融監管總局:保險集團應針對集中度風險持有足量的資本和流動性緩衝鈣鈦礦光伏電池產業化提速 多家A股公司已深度布局李大霄:五篇大文章引領方向 中國股市開始有希望DeepSeek產業聚光燈 | AI六小虎“邊緣化”風險挑戰國際咖啡期貨價格暴漲 雲南咖啡迎機遇代表委員熱議綠色期貨市場建設 更好服務實體經濟轉型升級金西梅圖片;金西梅怎麽洗?國有大行加速布局DeepSeek 推動金融服務從“信息化”邁向“認知化”believe什麽意思,believe是什麽意思兩會中國經濟問答|穩外貿穩外資如何發力?《哪吒2》授權周邊銷售額突破5000萬 背後是“雙方一點一點磨細節”美國務卿:美國人質事務特使與哈馬斯的直接會晤尚未取得成果置換債發行加速度,年內已發行超3700億元捷克總統:當務之急是繼續與美國合作 但歐洲需加強自身防務曆史性減個稅、五年來首度降息,印度要刺激經濟了重磅數據來襲 金價反彈結束還是摸高3000美元?波音裁員,美國“重返月球”火箭傳出“下馬”聲 業內人士:被取消也毫不意外中國兩會湧動科技創新熱潮鄭州知道水表號怎麽查戶號-水費戶號怎麽查詢?特易購和樂購的區別?沃爾瑪和特易購的區別?證監會核準瑞士銀行成為工銀瑞信基金股東,持股比例20%蛇年首例!瑞士銀行取代瑞士信貸銀行,以20%的持股比例成為工銀瑞信基金的新晉二股東《哪吒2》成全球單一市場票房冠軍 全球總票房排名63 數據分析師解讀來了一位捂股工商銀行的散戶告訴你:選股如同選公司,近階段市場白馬股一覽表,一生投資一次足矣cad電路圖軟件下載?怎麽用cad做電氣原理圖?懸燈結彩懸的意思?懸燈結彩和萬象更新的意思?新規“壓垮”美國海關,特朗普暫時恢複小額包裹免稅政策法國紅酒品牌介紹?法國紅酒有哪些著名的品牌?好飯不怕晚,雷克薩斯邁出國產第一步鶴壁農村商業銀行因未按規定履行客戶身份識別義務被罰25萬元貴州銀行原黨委副書記、行長許安被開除黨籍和公職特朗普稱已與普京通話討論結束俄烏衝突平均7日年化收益率重返1.5%,貨基收益率顯著回升跑商攻略(三條路線隨意選擇.天涯明月刀跑商怎樣收益高 天涯明月刀高收益跑商攻略b計劃數據恢複注冊碼~PPLAN英文是什麽意思突發!張蘭、汪小菲抖音賬號被無限期封禁!四川宜賓市筠連縣山體滑坡已造成10戶民房被掩埋、30餘人失聯八爪魚怎麽處理幹淨視頻教程(怎麽洗八爪券商密集宣布接入DeepSeek,金融科技下一站方向明確?
相关文章
- 險資試點“買黃金”!人保財險等10家公司先行,有何影響?
- 十大機構看後市:AI“東升” 春季行情可能進入主升階段
- 視頻|再見,海通證券!短短3年,從年賺百億到巨虧34億
DeepSeek Web端與APP端訪問量持續增長,春節信息傳播下沉加速產品關注度裂變。Web端,2024年10月至2024年12月DeepSeek訪問量分別為245/422/1101萬,其中11月和12月分別同比增長72.24%/160.90%,12月受全模型V3促進訪問量大幅增長;APP端,DeepSeek 2025年1月10日(官方公眾號1月15日正式發文)在iOS/Android上線官方APP,而後受益於1月20日發布R1模型的高性能、低成本,疊加春節期間信息傳播下沉,產品關注度呈裂變式增長。具體而言,DeepSeek APP安卓/iOS端國區單日下載量均於1月26日前後迎來陡增,至1月29日單日下載量分別達到784.15/29.92萬;同時,DeepSeek 安卓端在華為應用商店下載排行中位列第四,iOS端則霸榜全球173個地區中160/162/171個總榜(免費)/應用(免費)/效率(免費)第一;此外,從產品發布日起日活用戶看,DeepSeek第5天超過 ChatGPT,第15天以259萬日活達到 ChatGPT 的2倍,亦為全球增速最快的 AI 原生應用,第18天達到1500萬日活,而ChatGPT上線第244天才達到1500萬DAU。
我們認為,DeepSeek用戶數將持續高速增長。一方麵DeepSeek作為開源路線的堅定踐行者,有望受到全球開發者的高度關注;另一方麵受益於春節期間信息傳播下沉,DeepSeek的國內滲透率將持續提升。
1.2 第二問:R1和Janus-pro模型的性能如何?
DeepSeek-R1 在推理任務上基本實現與 OpenAI-o1相當的性能,較o3模型仍有差距。DeepSeek在R1模型的測試過程中,選取英文、中文、數學、代碼等基準測試,與Claude-3.5、GPT-4o、DeepSeek-V3、OpenAI o1、OpenAI o1-mini等模型進行比較:
教育為導向的知識任務:在以MMLU(R1 90.8分;V3 88.5分;o1 91.8分)和GPQA Diamond(R1 71.5分;V3 59.1分;o1 75.7分;o3 87.7分)為代表的知識基準上,R1相比V3表現出更優越的性能,主因大規模強化學習(RL)促進STEM相關問題上準確性顯著進步;在依賴長上下文的FRAMES(R1 82.5分;V3 73.7分)基準,R1同樣展示了強大的文檔分析能力。
中英文搜索和數據分析任務:在英文事實基準測試SimpleQA(R1 30.1分;V3 24.9分;o1 47.0分)上,R1優於V3,展現了模型基於事實的查詢能力;而在中文事實基準測試C-SimpleQA(R1 63.7分;V3 68.0分)上,R1表現不如V3,主要係安全強化學習後模型傾向於拒絕回答某些查詢。如果沒有安全RL, R1的準確率可以超過70%。此外,R1模型在IF-Eval(R1 83.3分;V3 86.1分)、AlpacaEval2.0(R1 87.6分;V3 70.0分)和ArenaHard(R1 92.3分;V3 85.5分)等基準測試中同樣表現較好,展現了模型在遵循格式指令、寫作任務和開放域問答上的能力。
數學任務:在數學任務上, R1 表現出與 o1相當的性能,優於其他非推理模型,突出了推理模型在數學測試中的主導地位。例如在AIME 2024基準上,R1/V3/o1/o3分別得分79.8/39.2/79.2/96.7分;在Math-500基準上,R1/V3/o1分別得分97.3/90.2/96.4分。
編碼任務:推理模型在數學測試中同樣表現更佳,例如在Codeforces基準上,R1/V3/o1/o3分別得分2029/1134/2061/2727分,分別超過96.3%/58.7%/96.6%/99.9%的人類參賽者;在SWE-bench Verified基準上,R1/V3/o1/o3分別得分49.2/42.0/48.9/71.7分。
蒸餾技術能顯著提升小模型推理能力。通過向更高效的小模型蒸餾DeepSeek-R1的輸出,能夠顯著提升小模型推理能力。例如,向Qwen2.5-Math-7B蒸餾R1模型得到的DeepSeek-R1-Distill-Qwen-7B(簡稱R1-7B,下同),全麵超越非推理模型如GPT-4o;向Qwen2.5-14B蒸餾得到R1-14B在所有評估指標上均超過了QwQ-32B-Preview;而向Qwen2.5-32B和Llama-3.3-70B-Instruct蒸餾得到的R1-32B和R1-70B在大多數基準測試中顯著超越了o1-mini。
Janus-Pro 在多模態理解和生成方麵優於統一模型和單一功能模型。Janus-pro主要延續Janus通過解耦多模態理解和生成的研究思路,通過優化訓練策略、擴展訓練數據和模型規模等方麵提高模型性能:
多模態理解:在Janus測試過程中選取POPE、MME-P、MMB、SEED、MMMU、MM-Vet等廣泛認可的圖像視覺語言基準測試,同時包括了一種用於真實世界視覺推理和組合式問答的新數據集GQA。與其他前沿圖像理解生成統一模型和僅用於理解的模型相比,Janus-Pro 取得了總體最佳的結果,例如Janus-Pro-7B在多模態理解基準MMBench上得分79.2,超越了包括Janus(69.4)、TokenFlow(68.9)和MetaMorph(75.2)等,主因其將多模態理解和生成的視覺編碼解耦,緩解了這兩個任務之間的衝突。此外,Janus-Pro與規模更大的模型相比仍具競爭力,例如Janus-Pro-7B在除GQA外的其他基準測試上的表現都優於 TokenFlow-XL(13B)。
文本-圖像生成:為評估Janus視覺生成能力,DeepSeek采用 GenEval(文本到圖像構圖能力基準測試)和 DPG-Bench(密集提示圖基準測試)兩個工具進行測試。Janus-Pro-7B 在 GenEval 上的總體準確率達到 80%,超過了所有其他統一模型或僅用於生成的模型,包括Transfusion(63%)、SD3-Medium(74%)和 DALL-E 3(67%),反映Janus-Pro具有更好的指令跟隨能力。同時,Janus-Pro 在 DPG-Bench 上的得分為 84.19,超過了所有其他方法,表明 Janus-Pro 在遵循用於文本到圖像生成的密集指令方麵表現出色。
我們認為,DeepSeek-R1性能已基本達到OpenAI-o1水平,較o3模型基準測試表現仍有不小差距,隨著DeepSeek在MoE架構、強化學習等技術上進一步迭代,推理模型性能表現有望持續增長;Janus-Pro在多模態理解和生成方麵則相對表現較好,一定程度驗證了圖像理解和生成解耦思路的可行性。
1.3 第三問:如何看待DeepSeek-V3模型的訓練成本?
DeepSeek通用及推理模型成本相較於OpenAI同類模型下降至數十分之一以下:
通用模型方麵,2024年12月26日DeepSeek-V3更新上線,模型API服務定價調整為每百萬輸入tokens 0.5元(緩存命中)/ 2元(緩存未命中),每百萬輸出tokens 8元。此外,V3模型設置長達45天的優惠價格體驗期:2025年2月8日前,V3的API服務價格仍保持每百萬輸入tokens 0.1元(緩存命中)/ 1元(緩存未命中),每百萬輸出tokens 2元。與此同時,OpenAI GPT-4o的API服務定價為每百萬輸入tokens 1.25美元(緩存命中)/ 2.5美元(緩存未命中),每百萬輸出tokens 10美元。
推理模型方麵,DeepSeek-R1 API 服務定價為每百萬輸入 tokens 1元(緩存命中)/ 4元(緩存未命中),每百萬輸出 tokens 16元。而OpenAI o1的API 服務定價為每百萬輸入 tokens 7.5美元(緩存命中)/ 15美元(緩存未命中),每百萬輸出 tokens 60美元。
需要注意的是,不同模型token切分方法可能不同,通常1 token可對應1-2個中文漢字,或對應3-4個英文字符,或0.75個英文單詞。
DeepSeek-V3(R1的基礎模型)總訓練成本僅為 557.6 萬美元,但不包括架構、算法等成本。以H800算力計算,DeepSeek-V3預訓練階段在不到兩個月的時間內完成,耗費266.4萬個GPU小時,加上上下文長度擴展所需的11.9萬個GPU小時和後訓練階段的0.5萬個GPU小時,DeepSeek-V3的完整訓練僅需 278.8 萬個 GPU 小時;假設 H800 GPU 的租用價格為每 GPU 小時 2 美元,我們的總訓練成本僅為 557.6 萬美元。需要注意的是,上述成本僅包括 DeepSeek-V3 的正式訓練成本,不包括與架構、算法或數據的前期研究及消融實驗相關的成本。
根據我們測算,GPT-4需要2.5萬張A100訓練95天(5700萬A100 GPU小時),OpenAI o1需要用3.2萬張H100訓練90天(6912萬H100 SXM GPU小時):1)GPT-4由16個111B的MoE模型構成,其中兩個用於向前傳播,另有55B被用做注意力機製的共享,則GPT-4的激活參數量約為280B,我們假定o1模型激活參數量是GPT-4的兩倍,達到560B;2)GPT-4的預訓練數據集token量為13B,我們假定o1模型接近其兩倍,達到25B;3)GPT-4的訓練時間約為90-100天,我們取中間值95天,並假定o1的訓練周期為90天;4)GPT-4的GPU利用率在32%到36%之間,我們取中間值34%,並假定o1 GPU利用率也為34%;5)根據OpenAI在Scaling Laws 論文中給出的經驗公式計算(C = rT ≈ 6*P*D,P為模型參數量,D為訓練集token大小,r為訓練集群硬件FLOPS總吞吐),則OpenAI o1預訓練需要用3.2萬張H100。
算法迭代、架構升級促進DeepSeek-V3模型訓練成本降低,符合產業趨勢。相較於GPT-4和o1模型,DeepSeek-R1的基礎模型DeepSeek-V3訓練成本明顯更低,結合V3技術報告和上述計算過程,我們認為成本優化主要緣於:1)V3模型通過DeepSeekMoE架構(3.1中將進一步說明),使用更細粒度專家模型,同時隔離部分共享專家,提高計算資源利用率,激活參數少(僅37B),算力消耗低;2)V3模型采用MLA算法(3.1中將進一步說明),通過低秩聯合壓縮注意力鍵值,減少推理時的鍵值(KV)緩存,降低計算量;3)Dual Pipe框架實現高效流水線並行,或顯著提高GPU利用率;4)DeepSeek提出了一種利用FP8數據格式進行訓練的細粒度混合精度框架,通過低精度訓練優化訓練效率。
二、技術不斷革新,大模型Scaling Law仍有效
2.1 第四問:DeepSeek-V3/R1技術革新有哪些?
通過架構和基礎設施創新,DeepSeek-V3實現了高效訓練,奠定R1模型優化基礎。架構方麵,DeepSeek-V3延續了V2模型的MLA和DeepSeek MoE架構,同時進一步開創了無輔助損失的負載均衡策略,並設定了多token預測(MTP)訓練目標以增強性能:
多頭潛在注意力(MLA):LLM的核心機製是自注意力(Self-Attention),其要求模型在生成每個token時考慮之前所有詞的關係,則假設文本長度n時總體複雜度為〖O(n〗^3)=O(Σn^2);過去的研究提出了KV Cache方法,利用鍵值對(KV)存儲已計算的注意力信息,此時總體複雜度降低為O(n^2);而MLA則進一步通過投影的方式,將token的相異信息通過投影矩陣存儲,在幾乎不損失信息的情況下減少鍵值的緩存需求。
DeepSeekMoE:專家混合模型(MoE)是當前大模型技術中對前饋神經網絡(FNN)的一種替代方案。不同於FNN需要全部權重參與計算,MoE利用門控機製判斷輸入數據需要由哪些專家模型參與處理。相較於主流MoE模型,DeepSeekMoE使用更細粒度的專家,並隔離一些模型作為共享專家,進一步優化了激活參數。此外,為解決專家負載不平衡導致的路由崩潰和計算效率降低,DeepSeek提出無輔助損失負載均衡策略,為每個專家模型添加可動態調整的偏差項,確保訓練過程中專家負載平衡、提高模型性能。
多token預測(MTP):主流大模型token-by-token生成序列,而每次token生成需要頻繁與訪存交互,從而因為訪存效率形成訓練或推理的瓶頸。MTP方法主要將單token的生成,轉變成多token的生成,提升訓練和推理的性能。DeepSeek主要對過往MTP算法進行了一定優化,順序預測額外token,並在每個預測深度保持完整的因果鏈。
除了基礎架構,DeepSeek還在基礎設施方麵進行了一定優化。例如設計了一種創新的管道並行算法 DualPipe,在每一對前向和後向塊內重疊計算和通信,提高通信效率、加速了模型訓練;提出了一種用於 FP8 訓練的混合精度框架,其中大多數計算密集型操作在 FP8 精度下進行,而一些關鍵操作則戰略性地保持在原始數據格式以平衡訓練效率和數值穩定性;訓練過程中,采用英偉達 PTX(並行線程執行)匯編級編程替代標準 CUDA 方案,實現了硬件級深度優化,減少了計算冗餘,提高了推理速度。
R1-Zero驗證純強化學習(RL)對推理能力的提升,R1則強調冷啟動和多階段訓練的平衡。R1-Zero的特別之處在於,其無需任何監督微調數據即可獲得強大的推理能力,反映了模型僅通過強化學習就能有效學習和泛化的能力。具體而言,R1-Zero模型在RL過程中延續了DeepSeek-V3組相對策略優化算法(GRPO),通過組內獎勵對比優化策略,而不需要額外的判別器,最終實現訓練集上的平均響應長度持續提升,自然地學會了通過更多的思考時間來解決推理任務;此外,R1-Zero訓練過程自然地湧現出“思考能力”,即模型自發學會了重新評估其初始回答,並為問題分配更多的思考時間,這種“反思”的特性能夠一定程度解決大模型幻覺問題(大模型逐token輸出,過去沒有機製去糾正已經輸出的錯誤,反而會繼續用錯誤掩蓋先前的問題,帶來幻覺問題)。
盡管R1-Zero模型展現了強大的推理能力,但仍麵臨可讀性差和語言混合等挑戰,R1模型則通過冷啟動和多階段訓練解決了上述問題。R1同樣從DeepSeek-V3-Base基礎模型出發,經過數千條優質長鏈思維(CoT)數據微調(SFT)作為冷啟動,使模型輸出更符合要求、可讀性更強;而後,針對微調後的模型采用與R1-Zero相同的大規模強化學習,並引入語言一致性獎勵,直至模型在推理任務上達到收斂;麵向推理的強化學習收斂後,利用生成的檢查點收集新的SFT數據,從而融入來自其他領域的數據,以增強模型在寫作、角色扮演和其他通用任務中的能力;最後,為了進一步使模型與人類偏好保持一致,實施次級RL階段,旨在提高模型的有用性和無害性、精煉其推理能力。通過冷啟動和多階段訓練,R1模型最終具備較強的推理性能,同時在可讀性上表現較好。
R1係列模型提供了RL Scaling Law的可行方向。實際上,在OpenAI推出o1模型時即發現了推理性能隨著訓練時間和測試時間計算而平穩提升的“RL Scaling law”,但業內尚未通過過程獎勵模型(PRM)和蒙特卡洛樹搜索(MCTS)等方法做出較好的效果,R1的技術報告更是提到PRM和MCTS存在難以規模化拓展、獎勵欺騙等問題。R1模型的技術報告提供了一種多階段訓練的方式,其中在第一階段RL過程中,研究人員可以通過擴大RL訓練集的方式提升模型性能,或為一種可以驗證的“RL Scaling law”方向;OpenAI首席研究官Mark Chen也承認,“DeepSeek的確獨立發現了一些o1的核心思路”。
蒸餾使小模型具備較強邏輯推理能力的思路或與OpenAI o1-mini不同。據張俊林分析,o1係列模型更可能是重新訓練的(OpenAI多次強調o1-mini邏輯推理能力強,但在世界知識方麵弱;如果其基於GPT係列模型而來,世界知識應該不會弱於GPT 4o-mini),而DeepSeek-R1則是在V3的基礎上通過強化學習訓練得到。因此,DeepSeek通過向更高效的小模型蒸餾DeepSeek-R1的輸出,顯著提升小模型推理能力,更可能走出了與OpenAI o1-mini不同的道路,從而實際上打破了之前“小模型邏輯推理能力難以通過蒸餾提升”的研究結論。
此時,小模型有望通過“能力分治”(DCA)的模式將語言、世界知識及邏輯推理三個能力解耦,即語言能力靠小模型自身、邏輯推理靠RL+蒸餾,世界知識靠外掛RAG,從而具備目前最強大模型的能力,對於中小型開發者而言,部署模型也將更加友好。
我們認為,DeepSeek-V3/R1係列模型的核心突破在於1)技術及架構升級顯著優化模型訓練成本,即工程優化了MoE模型架構,預計未來各廠商仍將圍繞MoE模型進行注意力頭的架構優化;2)組相對策略優化算法(GRPO)實質上僅依賴模型自身近些迭代,實現了“反思能力”;3)提供了一種具體可行的“RL Scaling law”方向,各廠商或將跟進並繼續探索其他方向;4)蒸餾使小模型具備較強邏輯推理能力,有望促進中小型開發者推出相關應用。
2.2 第五問:Janus係列模型技術革新有哪些?
Janus係列模型緩解多模態理解和生成的衝突,提升模型能力表現。多模態理解與生成任務本身存在視覺編碼器需求的衝突,其中在理解任務中,視覺編碼器的目的是提取高層次的語義信息並進行表示;而生成任務則主要關注生成局部細節並在圖像中保持全局一致性,因此需要低維度編碼表示空間結構和紋理細節。Janus係列模型的核心技術在於實現多模態理解與生成的解耦,通過2 個獨立的視覺編碼路徑,緩解多模態理解和生成的衝突,從而提高模型的能力表現和可擴展性。
多模態生成模型架構尚無定論,自回歸和擴散模型持續發展。目前圖像生成模型主要包括以Transformer 為代表的自回歸生成、以 DDPM、LDM、DiT 為代表的擴散模型,以及 MaskGIT、MAR等掩碼自回歸圖像生成三類架構。自回歸架構通過算法逐個生成像素,DeepSeek的Janus係列模型為其中代表;掩碼自回歸則優化了單次像素生成數量和順序,提高了自回歸模型的速度和表現;擴散模型的代表包括Sora,其將圖像生成表示成噪聲圖像變化至目標圖像的過程,輸入輸出自始至終都是完整圖像。目前,自回歸和擴散模型均有前沿技術持續性突破,帶來模型能力的持續提升。
我們認為,多模態模型整體仍處於技術探索過程中,Janus係列核心在於提供了一種理解和生成解耦的架構,一定程度提升了模型表現,後續自回歸和DiT技術將進一步發展,帶來多模態模型性能的持續優化。
2.3 第六問:DeepSeek數據集的特點是什麽?
合成(生成)數據在大模型訓練過程中發揮著重要作用。在高質量訓練數據耗盡,以及互聯網中充斥大量噪聲數據的背景下,合成數據已成為大模型訓練過程中數據集的重要來源, 截至 2024 年 9 月,在 Hugging Face 平台上標注為 “合成” 的數據集已超過 1000 個。具體而言,合成數據主要由算法、模型生成,為大模型訓練提供更豐富且針對性強的信息,幫助拓展模型性能:
通用大模型:在通用大模型訓練中,合成數據主要用於豐富數據集,提升模型性能。以 DeepSeek-V3 的訓練為例,其在監督微調階段借助 DeepSeek-R1 模型生成樣本數據,經 RL 訓練後用拒絕采樣篩選高質量數據用於最終模型訓練,有效提升了模型的推理能力。
推理模型:在推理模型訓練中,合成數據主要用於優化訓練流程。例如,DeepSeek-R1在冷啟動階段利用R1-Zero生成+人工標注數據進行微調,並在監督微調階段通過V3模型收集了約60萬條與推理相關的訓練樣本,以及約20萬條與推理無關的訓練樣本。此外,R1向小模型蒸餾的過程實際上也是通過R1生成數據對小模型進行監督微調實現的。
多模態模型:多模態模型訓練中,合成數據能改善數據質量,顯著強化視覺生成能力。Janus - Pro 在預訓練階段相較於 Janus 引入約 7200 萬個合成美學數據樣本,使真實數據與合成數據比例達到 1:1,從而加速了模型收斂速度,提升圖像生成質量。而Kimi-1.5作為以強化學習方式訓練的多模態大模型,分別在預訓練階段通過合成數據強化了推理和基於知識任務的解答能力,在多模態訓練階段合成了圖像文本交錯數據。
GRPO 算法在一定程度上使模型擺脫人類經驗的束縛。如 2.1 所述,R1 - Zero 模型在 RL 過程中延續了 DeepSeek - V3 組的相對策略優化算法(GRPO)。該算法通過組內獎勵對比優化策略,無需額外的判別器,最終實現了訓練集上平均響應長度的持續提升,使模型自然地學會通過更多思考時間來解決推理任務。實際上,GRPO 對於 RL 數據集的處理同樣具有重要意義。具體而言,PPO 算法需要依賴價值模型估計狀態價值,以幫助計算優勢函數;而 GRPO 算法隻對輸出的語言內容進行相對優勢計算,不需要設計價值模型。價值模型的設定本身就包含了人類偏好,這種偏好通過人類經驗限定了數據集的價值。而 GRPO 算法本質上可看作模型生成內容的自我博弈,它能讓模型擺脫人類經驗的束縛,通過提升思考深度不斷拓展性能,最終甚至可能超越人類水平。
我們認為,DeepSeek-V3/R1/Janus等模型對於合成數據的應用符合大模型研究趨勢,而GRPO 算法則進一步使模型在RL過程中擺脫了人類經驗的限製,從而能夠最大程度挖掘數據集的價值,向模型超越人類,最終實現AGI的道路進發。
2.3 第七問:Scaling Law到底是否有效?
訓練側Scaling law推動模型能力持續提升,但仍麵臨技術、算力、數據的製約。早在2020年,OpenAI即在論文中提出了“Scaling law”,其內涵在於大模型的最終性能主要與計算量、模型參數量和訓練數據量三者的大小相關,而與模型的具體結構(層數/深度/寬度)基本無關。在“Scaling law”的思路下,業內追求在訓練側用更多的高質量數據,訓練更大參數規模的模型,尤其在MoE架構並行計算的加持下,大模型參數甚至能夠提升至萬億以上,極大程度提高了模型的效果。
然而,受到技術、算力、數據的製約,訓練側“Scaling law”正麵臨瓶頸:1)更高參數規模的模型訓練比較複雜:當參數規模提升到萬億規模,模型進一步調整的技術方式仍待突破;2)算力規模一定程度製約了模型發展:英偉達 H100目前可以做到單一集群 3.2 萬張卡充分互聯,每2小時會出錯一次(Founder Park訪談拾象科技 CEO 李廣密)。一旦算力集群增加到10萬卡,可能每20-30分鍾即會出錯一次,對數據中心的運維能力要求較高,否則會導致算力利用率明顯下降。此時需要性能更強的算力卡出現。3)高質量數據缺失:早有消息稱大模型訓練已經耗盡了高質量數據,因此如果隻是簡單提升訓練集規模,往往重複的數據占據了主要部分,從而對模型能力的提升有限。而數據合成的技術仍未能突破,同樣一定程度上製約了模型的發展。
思維鏈等方式打開推理側大模型能力提升空間。當訓練側“Scaling law”進度相對放緩,OpenAI於2024年9月發布了係列新模型o1,其利用強化學習技術,通過提高推理側的思考時間,大幅優化了模型表現;還能夠在訓練過程中生成高質量數據,解決天然數據缺失的問題。以思維鏈技術為例,其類比人類思考過程,使大模型在推理過程中把複雜問題拆解成若幹簡單步驟,從用戶提出的問題出發,逐步生成正確答案。OpenAI o1模型性能隨著訓練時間和測試時間計算而平穩提升,後訓練及推理階段思考深度(時間)或將成為 新的“Scaling law”;相較於OpenAI未開源推理算法,DeepSeek-R1係列模型提供了RL Scaling Law的可行方向,有望促進各廠商跟進並繼續探索其他推理側拓展方向。
Scaling law三條路徑齊頭並進,助力模型性能持續提升。正如英偉達CEO黃仁勳在CES 2025上的主題發言提到的,o1模型推出後,大模型Scaling law已經實際上分為了三個路徑:
Pre-Training Scaling:對應OpenAI 2020年提出的結論,訓練數據規模越大、模型規模越大、計算資源投入越多,AI模型的性能就會相應提升。盡管Pre-Training Scaling目前受技術、算力、數據影響遭遇瓶頸,但更強大的基礎模型仍然是各廠商追求的主要方向,DeepSeek-R1的技術報告同樣提出,“更大基礎模型發現的推理模式對於提升推理能力至關重要”。未來隨著MoE架構、模型Infra等方麵的優化,Pre-Training Scaling有望持續發展。
Post-Training Scaling:包括強化學習和人類反饋等技術,通過輸入大量優質的提示,優化模型性能表現。實際上,受限於人類工作效率,原有的人類反饋強化學習(RLHF)存在難以規模化擴張的問題(例如人工標注數據效率較低、不同標注者標準不一致等),而DeepSeek-R1純RL的技術方案實際上打破了這種限製,為各廠商提供了Post-Training Scaling的可行方案。
Test-Time Scaling:強調重新調配資源,即在推理階段考慮投入多少算力,並利用思維鏈將問題分解成若幹個小步驟逐一解決。通過在模型推理階段更加深入的思考,模型將具備更強勁的性能。
我們認為,Scaling Law仍有效,同時RL技術的不斷迭代為模型能力的規模化擴張帶來了新的方向。特別是DeepSeek通過架構和技術創新,提出了純RL和分階段的模型訓練方法,並實現了較好的性能表現。預計各廠商將陸續跟進DeepSeek的算法方向,並不斷對架構進行調整,以探索出更為理想的模型優化方式。
三、DeepSeek-R1促進AI平權,產業鏈享受發展紅利
3.1 第八問:R1是否意味著AI平權已經實現?
DeepSeek-R1開源引發全球複現熱潮,小模型+RL實現“反思”湧現。在美國對中國實施 AI 芯片封鎖的背景下,DeepSeek以極低的成本成功訓練出躋身全球第一梯隊的推理模型 R1。同時,DeepSeek 完全開源了模型權重,所遵循的 MIT License 開源協議極為寬鬆,允許其他開發者將模型用於商業用途並進行模型蒸餾,被Facebook首席人工智能科學家楊立昆譽為“開源模型對閉源模型的勝利”。
R1發布以來,全球前沿團隊積極複現,目前已取得較好成效。其中,UC伯克利的團隊在CountDown遊戲中複現了DeepSeek R1-Zero,以不到30美金的成本通過強化學習,使3B的基礎語言模型完成自我驗證和搜索;港科大的團隊隻用了8K個樣本,就在7B模型上複刻出了DeepSeek-R1-Zero和DeepSeek-R1的訓練,使模型在複雜的數學推理上取得強勁的結果;甚至全球最大開源平台HuggingFace團隊,也在1月26日官宣開始複刻DeepSeek-R1的所有pipeline,並將在複刻完成後,開源所有的訓練數據和腳本。
全球大廠接連接入R1,DeepSeek衝擊下OpenAI戰略方向或將轉向。盡管美國質疑DeepSeek在安全性、隱私方麵的問題,但英偉達、英特爾、亞馬遜、微軟、AMD等海外巨頭仍紛紛在自家產品中接入了DeepSeek;國內矽基流動和華為雲同樣聯合首發並上線了基於華為雲昇騰雲服務的DeepSeek R1/V3推理服務。受DeepSeek全球熱度衝擊,Sam Altman承認在開源策略上“站在了曆史錯誤的一邊”,並表示正在討論開源部分模型。此外,OpenAI於2月1日緊急更新了o3-mini係列,即使是免費用戶也可以通過選擇“Search+Reason”來使用體驗o3-mini的搜索功能。然而,o3-mini模型當前的定價為每百萬輸入 tokens 0.55美元(緩存命中)/ 1.1美元(緩存未命中),每百萬輸出 tokens 4.4美元,遠高於R1模型。
參考安卓及iOS份額變化,開源生態有望為AI產業注入活力。在智能手機操作係統領域,安卓的開源與 iOS的封閉帶來了截然不同的生態模式:
安卓:Android公司成立於2003年,2005年被Google收購,並在2007年正式推出了Android操作係統。生態上,安卓係統開源開放,允許眾多手機廠商基於其底層架構進行定製化開發,使其市場份額從2008年的2.8%提升到2011年的48%,但同時也帶來了專利訴訟、軟件盜版和係統安全等一係列問題;2011年,Google 推出 Android 4,從此安卓設備逐步正規化、標準化,直至2024年12月,安卓操作係統市場份額已經達到73.49%。
iOS:同樣在安卓係統正式發布的2007年,蘋果發布了搭載iOS係統的第一代iPhone,開啟了智能手機的新時代。相較於安卓的開放,蘋果iOS係統采用封閉式生態,嚴格把控軟件審核環節,一定程度限製了係統的靈活性,但為用戶提供了一致且高質量的使用體驗。從市場份額看,近年來iOS係統的市占率相對穩定,2024年12月市場份額為26.04%,低於2009年1月iOS的市場份額35.56%。
AI產業:類比手機操作係統領域,當前AI 產業同樣麵臨開源和閉源之爭。參考安卓係統發展曆程,開源模式能夠吸引全球範圍的開發者參與AI技術創新,後來者能夠基於已有成果快速進行應用開發與產品迭代,從而推動 AI 應用的快速落地,推動AI產業加速發展。
我們認為,DeepSeek-R1作為開源模型性能接近頭部閉源模型o1,一定程度上已經反映了AI平權。實際上,過去OpenAI的領先更多基於先發優勢,而當開源模型的性能實現對閉源模型的追趕,全球的團隊的研發能力能夠使開源模型的性能始終位於前列。近期各研究團隊對R1模型的積極複現更是側麵驗證了開源模式的優勢。此外,DeepSeek-R1使小模型具備推理能力成為可能,更低的成本將更有利於開發者探索AI的實際落地,帶來更有價值的產品。
3.2 第九問:DeepSeek出圈對產業的影響有幾何?
DeepSeek以其低成本、高性能全麵影響AI產業鏈。AI產業鏈大致可分為基礎層(算力、數據、技術等)、模型層(通用/行業大模型、開發平台)和應用層(通用/垂域應用、Agent等)。盡管創始人梁文鋒稱DeepSeek技術突破隻是“美國每天發生的大量創新裏非常普通的一個”,但其低成本、高性能,以及為小模型帶來強大推理能力的蒸餾方式,仍對AI產業鏈產生了衝擊:
算力:DeepSeek的爆火使得“傑文斯悖論”這一經濟學名詞受到關注,它是指“燃料效率的提高往往會增加燃料使用”。如果將該理論拓展到算力領域,模型對算力應用效率的提升反而會帶來算力需求的增長。實際上,“傑文斯悖論”反映了簡單的經濟學原理——當需求價格彈性係數大於1,價格下降則會帶來銷售收入增加。因此,DeepSeek影響下算力需求是否增加的關鍵在於算力的價格彈性,而這又受到算力用途的影響(一般來說,商品用途多,需求彈性就越大)。
算力作為新一輪科技革命的底層基礎,將會應用於千行百業,DeepSeek-R1使小模型能通過蒸餾具備較強邏輯推理能力,更進一步加速了下遊應用的產生,則算力的價格彈性更可能大於1,符合“傑文斯悖論”,從而持續保持旺盛的需求。此外,梁文鋒在訪談中提到高端芯片禁運或將成為卡點,同樣反應了算力芯片自主可控的重要性。
模型:DeepSeek-R1模型的突破實際上反映了中美在前沿大模型差距的縮小。以發布於2024年3月的GPT-4為例,2024年1月發布的智譜GLM-4才在部分benchmark上達到了其90%-100%的水平,模型差距在10個月以上;而2025年1月發布的R1已經接近OpenAI 2024年9月發布的o1模型,模型差距縮短到4個月左右。而大模型本身及其對應的Chat bot產品,用戶切換成本低,存在“贏者通吃”的現象,例如kimi 在2024年3月實現上下文無損輸入長度提升至200萬字,爆火出圈帶來流量的大幅上漲;2024年12月字節火山引擎熱度攀升,以及DeepSeek-V3的發布同樣帶來了流量的快速提升。在此背景下,預計大廠將跟進DeepSeek模型層的研發,技術開源亦將促進大廠持續投入,形成正反饋。此外,DeepSeek通過純RL算法、架構優化等方式實現了模型性能的提升,或將促進各廠商在相關領域進行更多的探索。
應用:DeepSeek-V3/R1作為通用/推理方麵的基礎模型,性能升級及在各類 Benchmark 跑分中的提高,本身就為應用落地帶來了更大的可能性。然而,對於開發者而言,更關鍵的點在於模型能夠和應用適配調優,提供穩定性的API服務,以及性價比更高的tokens成本。參考2024年5月DeepSeek-V2發布後帶來的大模型價格戰,即使模型成本更高,字節、阿裏等大廠亦按照燒錢補貼的邏輯大幅降價,本質上是因為開發者價格敏感,大廠願意虧錢搶占市場份額,培育開發者使用習慣。
考慮到DeepSeek-R1開發和調用成本本身較低,還通過蒸餾的方式帶來了小模型推理能力的提升,則應用開發者能夠以更低的成本部署模型或調用API,並保持相對優秀的性能。當應用開發門檻降低,預計會出現更多產品探索方向,直至出現具有突破性的 “killer”應用。同時,DeepSeek-R1的低價,同樣有望帶來推理模型新一輪的價格戰(o3-mini的價格本身已經驗證了這一觀點),為開發者帶來更多性價比之選。最後,當DeepSeek模型的能力達到全球第一梯隊後,其作為國內廠商能為國內應用開發者提供更穩定的服務(調用GPT API可能會受到各種限製),亦將促進各類應用產生。
數據:DeepSeek 係列模型的訓練過程仍凸顯了高質量數據的重要性。例如V3模型訓練時使用了14.8 萬億涵蓋多種領域和語言的token;R1通過精心篩選和處理的冷啟動數據提升了模型性能和可讀性;Janus-Pro 在訓練時同樣較前代模型增加約 9000 萬用於多模態理解的樣本和約 7200 萬用於視覺生成的合成美學數據。結合RL範式的可能性,預計高質量數據仍將在模型訓練中具有重要意義。
四、投資建議
4.1 第十問:DeepSeek將帶來哪些投資機會?
算力:算力作為新一輪科技革命的底層基礎,將持續受益於千行百業的應用需求。疊加 DeepSeek - R1 為推理範式帶來泛化的可能性,預計各廠商技術探索下算力產業鏈持續高景氣。此外,中美AI競爭加劇,高端算力芯片禁售下自主可控重要性進一步凸顯。建議關注以國產算力和AI推理需求為核心的算力環節,尤其是IDC、服務器、國產芯片等算力配套產業。
應用:DeepSeek-R1有望引發新一輪大模型API降價,小模型通過蒸餾具備強勁推理能力,這也將促使開發者探索更多應用落地的可能性。AI應用作為新一代生產力工具,看多C端軟件的持續發展,B端應用軟件商業化進展更快。建議關注B端Agent,其中OA+ERP作為核心入口,AI結合更易,有望率先商業化,其次關注用戶量多、生態好且可雲化的軟件公司等。
端側:小模型能力提升同樣促進了端側模型部署,我們看好AI終端作為新一代計算平台爆發可能。首先,我們認為AI+教育作為高頻應用場景有望率先落地,特別教育部人工智能賦能教育行動陸續推進,有望帶動AI學習機、AI教育大屏等需求增加,推薦、等;其次,我們認為AI眼鏡、AIPC、等新終端的出貨量有望隨著模型升級後使用範圍的增加而增加,因此建議關注以AI眼鏡、PC、機器人為代表的終端供應商或內部核心軟件供應商。
數據 :高質量數據仍然是大模型訓練中不可或缺的一環,B端 Agent落地亦需要行業know-how進行微調。建議關注向量數據庫相關公司、數據處理類企業,以及具備行業側專業數據的廠商。
風險提示:(1)AI產業商業化落地不及預期:目前各環節AI 產品的商業化模式尚處於探索階段,如果各環節產品的推進節奏不及預期,或對相關企業業績造成不利影響;(2)市場競爭風險:海外 AI 廠商憑借先發優勢,以及較強的技術積累,在競爭中處於優勢地位,如果國內 AI 廠商技術迭代不及預期,經營狀況或將受到影響;同時,目前國內已有眾多企業投入AI產品研發,後續可能存在同質化競爭風險,進而影響相關企業的收入;(3)政策風險:AI技術的發展直接受各國政策和監管影響。隨著AI在各個領域的滲透,政府可能會進一步出台相應的監管政策以規範其發展。如果企業未能及時適應和遵守相關政策,可能麵臨相應處罰,甚至被迫調整業務策略。此外,政策的不確定性也可能導致企業戰略規劃和投資決策的錯誤,增加運營的不確定性;(4)地緣政治風險:在全球地緣政治環境的波動下,尤其美國對中國的出口限製或將直接影響國內企業算力芯片的獲取,進而影響其產品研發和市場競爭力。同時,地緣政治風險也可能導致 AI 產品開拓海外市場麵臨障礙,影響相關企業的營收情況。
報告來源
證券研究報告名稱:《DeepSeek核心十問十答》
對外發布時間:2025年2月4日
報告發布機構:中信建投證券股份有限公司
本報告分析師:
應瑛 SAC 編號:S1440521100010
02 DeepSeek R1深度解析及算力影響幾何
Deepseek發布深度推理能力模型,性能和成本方麵表現出色。Deepseek發布兩款具備深度推理能力的大模型R1-Zero和DeepSeek-R1。R1-Zero采用純粹的強化學習訓練,模型效果逼近OpenAI o1模型,證明了大語言模型僅通過RL,無SFT,大模型也可以有強大的推理能力。但是R1-Zero也存在可讀性差和語言混合的問題,在進一步的優化過程中,DeepSeek-V3-Base經曆兩次微調和兩次強化學習得到R1模型,主要包括冷啟動階段、麵向推理的強化學習、拒絕采樣與監督微調、麵向全場景的強化學習四個階段,R1在推理任務上表現出色,特別是在AIME 2024、MATH-500和Codeforces等任務上,取得了與OpenAI-o1-1217相媲美甚至超越的成績。
國產模型邁向深度推理,策略創新百花齊放。在Deepseek R1-Zero模型中,采用的強化學習策略是GRPO策略,取消價值網絡,采用分組相對獎勵,專門優化數學推理任務,減少計算資源消耗;KIMI 1.5采用Partial rollout的強化學習策略,同時采用模型合並、最短拒絕采樣、DPO 和long2short RL策略實現短鏈推理;Qwen2.5擴大監督微調數據範圍以及兩階段強化學習,增強模型處理能力。
DeepSeek R1通過較少算力實現高性能模型表現,主要原因是DeepSeek R1實現算法、框架和硬件的優化協同。DeepSeek R1在諸多維度上進行了大量優化,算法層麵引入專家混合模型、多頭隱式注意力、多token預測,框架層麵實現FP8混合精度訓練,硬件層麵采用優化的流水線並行策略,同時高效配置專家分發與跨節點通信,實現最優效率配置。當前階段大模型行業正處於從傳統的生成式模型向深度推理模型過渡階段,算力的整體需求也從預訓練階段逐步過渡向後訓練和推理側,通過大量協同優化,DeepSeek R1在特定發展階段通過較少算力實現高性能模型表現,算力行業的長期增長邏輯並未受到挑戰。過去的預訓練側的scaling law正逐步邁向更廣闊的空間,在深度推理的階段,模型的未來算力需求依然會呈現爆發式上漲,充足的算力需求對於人工智能模型的性能進步依然至關重要。
風險提示:
大模型技術發展不及預期:大模型屬於先進AI算法,若後續大模型算法更新迭代效果不及預期,則會影響大模型演進及拓展,進而會影響其商業化落地等;
商業化落地不及預期:大模型的商業落地模式在業界中普遍處於探索階段,用戶對於大模型的接受程度和商業化變現能力可能不及預期;
算力基礎設施支持不及預期:美國製裁技企業,對中國形成芯片、算力的封鎖,大語言模型訓練過程中需要大量算力資源,需要關注中美關係帶來的算力的壓力;
政策監管力度不及預期:大語言模型帶來新的網絡生態商業,尚屬於前期成長階段,政策監管難度加大,相關法律法規尚不完善,政策監管力度可能不及預期;
數據數量與數據質量不及預期:大型語言模型需要大量的高質量數據進行訓練,若數據數量和質量存在短板,則會影響大語言模型效果。
報告來源
證券研究報告名稱:《DeepSeek R1深度解析及算力影響幾何》
對外發布時間:2025年2月3日
報告發布機構:中信建投證券股份有限公司
本報告分析師:
於芳博 SAC 編號:S1440522030001
龐佳軍 SAC 編號:S1440524110001
辛俠平 SAC編號:S1440524070006
研究助理:孟龍飛
03 重點推薦端側AI產業
DeepSeek在保持模型優異性能指標的同時大幅降低訓練和推理成本。2025年1月20日,DeepSeek-R1發布,以 DeepSeek-V3 模型為基礎,通過結合大規模強化學習、專家模型架構、FP8混合精度等技術手段降低訓練成本,同時具備深度思考能力,在數學、代碼、自然語言推理等多個任務上性能比肩 OpenAI O-1217 模型。DeepSeek-R1發布後,在保持較為優異的性能指標基礎上,市場對於其在訓練和推理端的低成本尤為重視。DeepSeek-V3 使用 2048 塊 H800 GPU 完成了 6710 億參數的訓練,訓練成本為 557.6 萬美元,DeepSeek-R1模型的每百萬輸出 tokens 為 16 元,均顯著低於同等水平的模型成本。
利用DeepSeek模型生成的數據樣本實現小參數量的模型蒸餾,提升模型性能。DeepSeek R1 生成 80 萬條高質量推理數據樣本,使用這些推理數據對較小的基礎模型進行監督微調(SFT),將 DeepSeek R1的知識和推理能力進行遷移。DeepSeek 團隊開源了多個基於不同規模的 Qwen 和 Llama 架構的蒸餾模型,如 DeepSeek - R1 - Distill - Qwen - 1.5B、DeepSeek - R1 - Distill - Llama - 8B、DeepSeek - R1 - Distill - Llama - 70B 等。
高性能、輕量化、低成本的模型能力將顯著推動端側AI產業發展。端側硬件設備是將大模型能力進行實物化輸出落地的關鍵環節,近日OpenAI 的 CEO Sam Altman 在接受媒體采訪時也透露 OpenAI 將開發可替代手機的生成式 AI 專用終端。國內物聯網模組廠商在端側AI領域具備先發優勢,並積極進行產業布局,如正加速開發DeepSeek-R1模型在端側落地應用及端雲結合整體方案,2025年將推出單顆模組算力達到100Tops的高階AI硬件,遠期規劃AI模組算力超過200Tops。
風險提示:國際環境變化對供應鏈的安全和穩定產生影響,對相關公司向海外拓展的進度產生影響;人工智能行業發展不及預期,影響雲計算產業鏈相關公司的需求;市場競爭加劇,導致毛利率快速下滑;匯率波動影響外向型企業的匯兌收益與毛利率,包括ICT設備、光模塊/光器件板塊的企業;數字經濟和數字中國建設發展不及預期;電信運營商的雲計算業務發展不及預期;運營商資本開支不及預期;雲廠商資本開支不及預期;通信模組、智能控製器行業需求不及預期。
報告來源
證券研究報告名稱:《重點推薦端側AI產業》
對外發布時間:2025年2月5日
報告發布機構:中信建投證券股份有限公司
本報告分析師:
閻貴成 SAC 編號:S1440518040002
SFC 編號:BNS315
劉永旭 SAC 編號:S1440520070014
SFC 編號:BVF090
武超則 SAC 編號:S1440513090003
SFC 編號:BEM208
研究助理:朱源哲
04 DeepSeek激活創新競爭,AI應用迎來“安卓時刻”
應用開發迎來“安卓時刻”
回顧安卓與iOS應用的發展,我們率先提出不應隻關注大模型本身的用戶數及活躍度,更應該關注開發者,尤其是中小開發者的數量。據GitHub,在Llama比DeepSeek開源時間早1年半的情況下,目前DeepSeek R1在GitHub上的開發者點讚數量已經達到約5.7萬,接近Llama。根據GitHub、Hugging Face社區上的開發者實測,經過R1微調的80億參數小模型可以在個人筆記本中運行,本地化部署門檻顯著下降,應用的開發將迎來百花齊放。
有用戶有產品能力的公司,仍將“贏在起跑線”
雖然春節期間Deepseek的關注度趕超字節豆包,但我們認為以字節跳動為代表的中國頭部互聯網公司,手握高粘性+大DAU產品,疊加強產品能力。在第二階段的應用、場景等領域,用戶數+產品力+商業變現能力,仍然將幫助他們在接下來的競爭中搶占先機。
目前豆包全球累計下載量(約9000萬)仍然明顯高於Deepseek(約2000萬),而其他擁有用戶基礎和產品能力的公司,也有機會迎頭趕上。
風險提示:宏觀經濟風險,版權保護力度不及預期,知識產權未劃分明確的風險,與IP或明星合作中斷的風險,大眾審美取向發生轉變的風險,競爭加劇的風險,用戶付費意願低的風險,消費習慣難以改變的風險,關聯公司公司治理風險,內容上線表現不及預期的風險,生成式AI技術發展不及預期的風險,產品研發難度大的風險,產品上線延期的風險,營銷買量成本上升風險,人才流失的風險,人力成本上升的風險,政策監管的風險,商業化能力不及預期的風險。
報告來源
證券研究報告名稱:《DeepSeek激活創新競爭,AI應用迎來“安卓時刻”》
對外發布時間:2025年2月4日
報告發布機構:中信建投證券股份有限公司
本報告分析師:
楊艾莉 SAC 編號:S1440519060002
SFC 編號:BQI330
楊曉瑋 SAC 編號:S1440523110001
05 DeepSeek本地部署與全球資產配置組合跟蹤
Deepseek介紹:DeepSeek,成立於2023年,是幻方量化的子公司,位於杭州的人工智能公司。它於2024年末推出DeepSeek-V3模型(671B參數),性能超越多種開源模型,並接近頂尖閉源模型。2025年1月,DeepSeek發布R1係列模型(660B參數),在多項任務上表現優異,同時推出了幾個小模型對標OpenAI的產品。DeepSeek通過其創新技術顯著提高了生成速度,並提供了具有競爭力的API服務定價。
Deepseek本地部署方法:Ollama是一個開源工具,用於在個人設備上高效運行大型語言模型(LLMs),無需依賴雲端。DeepSeek-R1模型可通過Ollama實現本地部署:首先,從Ollama官網下載適合係統的Windows版本並安裝,完成後係統托盤會出現Ollama圖標。其次,訪問“Models”頁麵選擇DeepSeek-R1,並根據顯卡配置(如4090顯卡24G顯存)選擇32B版本,複製對應的運行指令。然後,在命令行窗口中執行該指令以下載和運行模型(32B版本約19GB)。為提升用戶體驗,可采用Docker+Open WebUI構建圖文交互界麵,甚至將DeepSeek-R1 32B集成到微信中作為智能體使用,享受其快速響應和深度思考功能。
對AI領域投資的思考:通過DeepSeek官網與DeepSeek-V3對話,可以了解部署各版本模型對硬件的要求。普通筆記本和台式機僅配備CPU,僅能勉強運行DeepSeek-R1-1.5B和7B,但響應速度慢,缺乏實用性。英偉達RTX 4090可較快運行DeepSeek-R1-32B,但在處理70B版本時表現不佳。中小模型如1.5B、7B和14B適合簡單的微信交流場景,但無法解決複雜問題;32B模型具備深度思考能力,適用於服務客戶的微信交流。671B完整版及70B模型需要企業級顯卡如A100或" target="_blank">中信建投:DeepSeek產業鏈投資機遇
來源:證券研究
中國DeepSeek爆火全球,為AI行業的發展注入了嶄新的活力,全麵引領AI浪潮。
近期DeepSeek多款模型上線並完全開源,其中R1在推理任務上基本實現於o1相當的性能,Janus-Pro 在多模態理解和生成方麵表現較好。受春節信息傳播下沉促進,DeepSeek出圈並成為全球增速最快的 AI 原生應用,日活躍用戶數在2月1日突破3000萬大關。此外,DeepSeek通過算法迭代、架構升級,使通用及推理模型成本相較於OpenAI同類模型下降至數十分之一以下。
中信建投證券計算機、人工智能、通信、傳媒、策略研究團隊推出【DeepSeek產業鏈投資機遇】:
01 DeepSeek核心十問十答
DeepSeek-R1模型發布,具有高性能、低算力需求的特性,帶動小模型推理能力的提升,引發全球開發者及用戶關注。R1作為開源模型性能接近頭部閉源模型o1,一定程度上已經反映了AI平權,同時純強化學習對推理能力的提升帶來RL範式泛化可能,預計後續基模的持續迭代,有望推動AI全產業鏈持續保持高景氣和高關注度,關注算力、應用、端側、數據等核心投資機會。
DeepSeek模型密集更新,高性能+低成本促進用戶數高增
近期DeepSeek多款模型上線並完全開源,其中R1在推理任務上基本實現於o1相當的性能,Janus-Pro 在多模態理解和生成方麵表現較好。受春節信息傳播下沉促進,DeepSeek出圈並成為全球增速最快的 AI 原生應用,第18天達到1500萬日活。此外,DeepSeek通過算法迭代、架構升級,使通用及推理模型成本相較於OpenAI同類模型下降至數十分之一以下。
技術不斷革新,大模型Scaling Law仍有效
DeepSeek通過多頭潛在注意力、MoE、多token預測等架構和基礎設施創新實現了高效訓練,並在R1-Zero模型驗證了純強化學習對推理能力的提升。盡管Pre-Training Scaling麵臨技術、算力、數據的製約,但強化學習帶來了規模化擴張新方向,預計各廠商將陸續跟進,持續優化模型架構。
DeepSeek-R1促進AI平權,產業鏈享受發展紅利
R1作為開源模型性能接近頭部閉源模型o1,一定程度上已經反映了AI平權。同時,R1使小模型具備推理能力成為可能,更低的成本將更有利於開發者探索AI的實際落地。
一、DeepSeek模型密集更新,高性能+低成本促進用戶數高增
1.1 第一問:DeepSeek的用戶量趨勢?
DeepSeek堅定開源路線,密集更新MoE、推理、多模態模型。近期,DeepSeek連續發布並開源多個大模型,其低成本、高性能的特性迅速引發全球用戶的關注。其中,2024年12月26日發布的DeepSeek-V3為671B參數的自研 MoE 模型,運行時僅需激活37B,在 14.8T token 的數據上進行了預訓練;2025年1月20日發布的DeepSeek-R1為660B的高性能推理模型,對用戶開放思維鏈輸出,允許用戶通過蒸餾技術借助 R1 訓練其他模型;2025年1月27日,DeepSeek在Hugging Face平台上傳了視覺模型 Janus-Pro和多模態理解模型JanusFlow -1.3B,進一步在圖像領域發力。
DeepSeek Web端與APP端訪問量持續增長,春節信息傳播下沉加速產品關注度裂變。Web端,2024年10月至2024年12月DeepSeek訪問量分別為245/422/1101萬,其中11月和12月分別同比增長72.24%/160.90%,12月受全模型V3促進訪問量大幅增長;APP端,DeepSeek 2025年1月10日(官方公眾號1月15日正式發文)在iOS/Android上線官方APP,而後受益於1月20日發布R1模型的高性能、低成本,疊加春節期間信息傳播下沉,產品關注度呈裂變式增長。具體而言,DeepSeek APP安卓/iOS端國區單日下載量均於1月26日前後迎來陡增,至1月29日單日下載量分別達到784.15/29.92萬;同時,DeepSeek 安卓端在華為應用商店下載排行中位列第四,iOS端則霸榜全球173個地區中160/162/171個總榜(免費)/應用(免費)/效率(免費)第一;此外,從產品發布日起日活用戶看,DeepSeek第5天超過 ChatGPT,第15天以259萬日活達到 ChatGPT 的2倍,亦為全球增速最快的 AI 原生應用,第18天達到1500萬日活,而ChatGPT上線第244天才達到1500萬DAU。
我們認為,DeepSeek用戶數將持續高速增長。一方麵DeepSeek作為開源路線的堅定踐行者,有望受到全球開發者的高度關注;另一方麵受益於春節期間信息傳播下沉,DeepSeek的國內滲透率將持續提升。
1.2 第二問:R1和Janus-pro模型的性能如何?
DeepSeek-R1 在推理任務上基本實現與 OpenAI-o1相當的性能,較o3模型仍有差距。DeepSeek在R1模型的測試過程中,選取英文、中文、數學、代碼等基準測試,與Claude-3.5、GPT-4o、DeepSeek-V3、OpenAI o1、OpenAI o1-mini等模型進行比較:
教育為導向的知識任務:在以MMLU(R1 90.8分;V3 88.5分;o1 91.8分)和GPQA Diamond(R1 71.5分;V3 59.1分;o1 75.7分;o3 87.7分)為代表的知識基準上,R1相比V3表現出更優越的性能,主因大規模強化學習(RL)促進STEM相關問題上準確性顯著進步;在依賴長上下文的FRAMES(R1 82.5分;V3 73.7分)基準,R1同樣展示了強大的文檔分析能力。
中英文搜索和數據分析任務:在英文事實基準測試SimpleQA(R1 30.1分;V3 24.9分;o1 47.0分)上,R1優於V3,展現了模型基於事實的查詢能力;而在中文事實基準測試C-SimpleQA(R1 63.7分;V3 68.0分)上,R1表現不如V3,主要係安全強化學習後模型傾向於拒絕回答某些查詢。如果沒有安全RL, R1的準確率可以超過70%。此外,R1模型在IF-Eval(R1 83.3分;V3 86.1分)、AlpacaEval2.0(R1 87.6分;V3 70.0分)和ArenaHard(R1 92.3分;V3 85.5分)等基準測試中同樣表現較好,展現了模型在遵循格式指令、寫作任務和開放域問答上的能力。
數學任務:在數學任務上, R1 表現出與 o1相當的性能,優於其他非推理模型,突出了推理模型在數學測試中的主導地位。例如在AIME 2024基準上,R1/V3/o1/o3分別得分79.8/39.2/79.2/96.7分;在Math-500基準上,R1/V3/o1分別得分97.3/90.2/96.4分。
編碼任務:推理模型在數學測試中同樣表現更佳,例如在Codeforces基準上,R1/V3/o1/o3分別得分2029/1134/2061/2727分,分別超過96.3%/58.7%/96.6%/99.9%的人類參賽者;在SWE-bench Verified基準上,R1/V3/o1/o3分別得分49.2/42.0/48.9/71.7分。
蒸餾技術能顯著提升小模型推理能力。通過向更高效的小模型蒸餾DeepSeek-R1的輸出,能夠顯著提升小模型推理能力。例如,向Qwen2.5-Math-7B蒸餾R1模型得到的DeepSeek-R1-Distill-Qwen-7B(簡稱R1-7B,下同),全麵超越非推理模型如GPT-4o;向Qwen2.5-14B蒸餾得到R1-14B在所有評估指標上均超過了QwQ-32B-Preview;而向Qwen2.5-32B和Llama-3.3-70B-Instruct蒸餾得到的R1-32B和R1-70B在大多數基準測試中顯著超越了o1-mini。
Janus-Pro 在多模態理解和生成方麵優於統一模型和單一功能模型。Janus-pro主要延續Janus通過解耦多模態理解和生成的研究思路,通過優化訓練策略、擴展訓練數據和模型規模等方麵提高模型性能:
多模態理解:在Janus測試過程中選取POPE、MME-P、MMB、SEED、MMMU、MM-Vet等廣泛認可的圖像視覺語言基準測試,同時包括了一種用於真實世界視覺推理和組合式問答的新數據集GQA。與其他前沿圖像理解生成統一模型和僅用於理解的模型相比,Janus-Pro 取得了總體最佳的結果,例如Janus-Pro-7B在多模態理解基準MMBench上得分79.2,超越了包括Janus(69.4)、TokenFlow(68.9)和MetaMorph(75.2)等,主因其將多模態理解和生成的視覺編碼解耦,緩解了這兩個任務之間的衝突。此外,Janus-Pro與規模更大的模型相比仍具競爭力,例如Janus-Pro-7B在除GQA外的其他基準測試上的表現都優於 TokenFlow-XL(13B)。
文本-圖像生成:為評估Janus視覺生成能力,DeepSeek采用 GenEval(文本到圖像構圖能力基準測試)和 DPG-Bench(密集提示圖基準測試)兩個工具進行測試。Janus-Pro-7B 在 GenEval 上的總體準確率達到 80%,超過了所有其他統一模型或僅用於生成的模型,包括Transfusion(63%)、SD3-Medium(74%)和 DALL-E 3(67%),反映Janus-Pro具有更好的指令跟隨能力。同時,Janus-Pro 在 DPG-Bench 上的得分為 84.19,超過了所有其他方法,表明 Janus-Pro 在遵循用於文本到圖像生成的密集指令方麵表現出色。
我們認為,DeepSeek-R1性能已基本達到OpenAI-o1水平,較o3模型基準測試表現仍有不小差距,隨著DeepSeek在MoE架構、強化學習等技術上進一步迭代,推理模型性能表現有望持續增長;Janus-Pro在多模態理解和生成方麵則相對表現較好,一定程度驗證了圖像理解和生成解耦思路的可行性。
1.3 第三問:如何看待DeepSeek-V3模型的訓練成本?
DeepSeek通用及推理模型成本相較於OpenAI同類模型下降至數十分之一以下:
通用模型方麵,2024年12月26日DeepSeek-V3更新上線,模型API服務定價調整為每百萬輸入tokens 0.5元(緩存命中)/ 2元(緩存未命中),每百萬輸出tokens 8元。此外,V3模型設置長達45天的優惠價格體驗期:2025年2月8日前,V3的API服務價格仍保持每百萬輸入tokens 0.1元(緩存命中)/ 1元(緩存未命中),每百萬輸出tokens 2元。與此同時,OpenAI GPT-4o的API服務定價為每百萬輸入tokens 1.25美元(緩存命中)/ 2.5美元(緩存未命中),每百萬輸出tokens 10美元。
推理模型方麵,DeepSeek-R1 API 服務定價為每百萬輸入 tokens 1元(緩存命中)/ 4元(緩存未命中),每百萬輸出 tokens 16元。而OpenAI o1的API 服務定價為每百萬輸入 tokens 7.5美元(緩存命中)/ 15美元(緩存未命中),每百萬輸出 tokens 60美元。
需要注意的是,不同模型token切分方法可能不同,通常1 token可對應1-2個中文漢字,或對應3-4個英文字符,或0.75個英文單詞。
DeepSeek-V3(R1的基礎模型)總訓練成本僅為 557.6 萬美元,但不包括架構、算法等成本。以H800算力計算,DeepSeek-V3預訓練階段在不到兩個月的時間內完成,耗費266.4萬個GPU小時,加上上下文長度擴展所需的11.9萬個GPU小時和後訓練階段的0.5萬個GPU小時,DeepSeek-V3的完整訓練僅需 278.8 萬個 GPU 小時;假設 H800 GPU 的租用價格為每 GPU 小時 2 美元,我們的總訓練成本僅為 557.6 萬美元。需要注意的是,上述成本僅包括 DeepSeek-V3 的正式訓練成本,不包括與架構、算法或數據的前期研究及消融實驗相關的成本。
根據我們測算,GPT-4需要2.5萬張A100訓練95天(5700萬A100 GPU小時),OpenAI o1需要用3.2萬張H100訓練90天(6912萬H100 SXM GPU小時):1)GPT-4由16個111B的MoE模型構成,其中兩個用於向前傳播,另有55B被用做注意力機製的共享,則GPT-4的激活參數量約為280B,我們假定o1模型激活參數量是GPT-4的兩倍,達到560B;2)GPT-4的預訓練數據集token量為13B,我們假定o1模型接近其兩倍,達到25B;3)GPT-4的訓練時間約為90-100天,我們取中間值95天,並假定o1的訓練周期為90天;4)GPT-4的GPU利用率在32%到36%之間,我們取中間值34%,並假定o1 GPU利用率也為34%;5)根據OpenAI在Scaling Laws 論文中給出的經驗公式計算(C = rT ≈ 6*P*D,P為模型參數量,D為訓練集token大小,r為訓練集群硬件FLOPS總吞吐),則OpenAI o1預訓練需要用3.2萬張H100。
算法迭代、架構升級促進DeepSeek-V3模型訓練成本降低,符合產業趨勢。相較於GPT-4和o1模型,DeepSeek-R1的基礎模型DeepSeek-V3訓練成本明顯更低,結合V3技術報告和上述計算過程,我們認為成本優化主要緣於:1)V3模型通過DeepSeekMoE架構(3.1中將進一步說明),使用更細粒度專家模型,同時隔離部分共享專家,提高計算資源利用率,激活參數少(僅37B),算力消耗低;2)V3模型采用MLA算法(3.1中將進一步說明),通過低秩聯合壓縮注意力鍵值,減少推理時的鍵值(KV)緩存,降低計算量;3)Dual Pipe框架實現高效流水線並行,或顯著提高GPU利用率;4)DeepSeek提出了一種利用FP8數據格式進行訓練的細粒度混合精度框架,通過低精度訓練優化訓練效率。
二、技術不斷革新,大模型Scaling Law仍有效
2.1 第四問:DeepSeek-V3/R1技術革新有哪些?
通過架構和基礎設施創新,DeepSeek-V3實現了高效訓練,奠定R1模型優化基礎。架構方麵,DeepSeek-V3延續了V2模型的MLA和DeepSeek MoE架構,同時進一步開創了無輔助損失的負載均衡策略,並設定了多token預測(MTP)訓練目標以增強性能:
多頭潛在注意力(MLA):LLM的核心機製是自注意力(Self-Attention),其要求模型在生成每個token時考慮之前所有詞的關係,則假設文本長度n時總體複雜度為〖O(n〗^3)=O(Σn^2);過去的研究提出了KV Cache方法,利用鍵值對(KV)存儲已計算的注意力信息,此時總體複雜度降低為O(n^2);而MLA則進一步通過投影的方式,將token的相異信息通過投影矩陣存儲,在幾乎不損失信息的情況下減少鍵值的緩存需求。
DeepSeekMoE:專家混合模型(MoE)是當前大模型技術中對前饋神經網絡(FNN)的一種替代方案。不同於FNN需要全部權重參與計算,MoE利用門控機製判斷輸入數據需要由哪些專家模型參與處理。相較於主流MoE模型,DeepSeekMoE使用更細粒度的專家,並隔離一些模型作為共享專家,進一步優化了激活參數。此外,為解決專家負載不平衡導致的路由崩潰和計算效率降低,DeepSeek提出無輔助損失負載均衡策略,為每個專家模型添加可動態調整的偏差項,確保訓練過程中專家負載平衡、提高模型性能。
多token預測(MTP):主流大模型token-by-token生成序列,而每次token生成需要頻繁與訪存交互,從而因為訪存效率形成訓練或推理的瓶頸。MTP方法主要將單token的生成,轉變成多token的生成,提升訓練和推理的性能。DeepSeek主要對過往MTP算法進行了一定優化,順序預測額外token,並在每個預測深度保持完整的因果鏈。
除了基礎架構,DeepSeek還在基礎設施方麵進行了一定優化。例如設計了一種創新的管道並行算法 DualPipe,在每一對前向和後向塊內重疊計算和通信,提高通信效率、加速了模型訓練;提出了一種用於 FP8 訓練的混合精度框架,其中大多數計算密集型操作在 FP8 精度下進行,而一些關鍵操作則戰略性地保持在原始數據格式以平衡訓練效率和數值穩定性;訓練過程中,采用英偉達 PTX(並行線程執行)匯編級編程替代標準 CUDA 方案,實現了硬件級深度優化,減少了計算冗餘,提高了推理速度。
R1-Zero驗證純強化學習(RL)對推理能力的提升,R1則強調冷啟動和多階段訓練的平衡。R1-Zero的特別之處在於,其無需任何監督微調數據即可獲得強大的推理能力,反映了模型僅通過強化學習就能有效學習和泛化的能力。具體而言,R1-Zero模型在RL過程中延續了DeepSeek-V3組相對策略優化算法(GRPO),通過組內獎勵對比優化策略,而不需要額外的判別器,最終實現訓練集上的平均響應長度持續提升,自然地學會了通過更多的思考時間來解決推理任務;此外,R1-Zero訓練過程自然地湧現出“思考能力”,即模型自發學會了重新評估其初始回答,並為問題分配更多的思考時間,這種“反思”的特性能夠一定程度解決大模型幻覺問題(大模型逐token輸出,過去沒有機製去糾正已經輸出的錯誤,反而會繼續用錯誤掩蓋先前的問題,帶來幻覺問題)。
盡管R1-Zero模型展現了強大的推理能力,但仍麵臨可讀性差和語言混合等挑戰,R1模型則通過冷啟動和多階段訓練解決了上述問題。R1同樣從DeepSeek-V3-Base基礎模型出發,經過數千條優質長鏈思維(CoT)數據微調(SFT)作為冷啟動,使模型輸出更符合要求、可讀性更強;而後,針對微調後的模型采用與R1-Zero相同的大規模強化學習,並引入語言一致性獎勵,直至模型在推理任務上達到收斂;麵向推理的強化學習收斂後,利用生成的檢查點收集新的SFT數據,從而融入來自其他領域的數據,以增強模型在寫作、角色扮演和其他通用任務中的能力;最後,為了進一步使模型與人類偏好保持一致,實施次級RL階段,旨在提高模型的有用性和無害性、精煉其推理能力。通過冷啟動和多階段訓練,R1模型最終具備較強的推理性能,同時在可讀性上表現較好。
R1係列模型提供了RL Scaling Law的可行方向。實際上,在OpenAI推出o1模型時即發現了推理性能隨著訓練時間和測試時間計算而平穩提升的“RL Scaling law”,但業內尚未通過過程獎勵模型(PRM)和蒙特卡洛樹搜索(MCTS)等方法做出較好的效果,R1的技術報告更是提到PRM和MCTS存在難以規模化拓展、獎勵欺騙等問題。R1模型的技術報告提供了一種多階段訓練的方式,其中在第一階段RL過程中,研究人員可以通過擴大RL訓練集的方式提升模型性能,或為一種可以驗證的“RL Scaling law”方向;OpenAI首席研究官Mark Chen也承認,“DeepSeek的確獨立發現了一些o1的核心思路”。
蒸餾使小模型具備較強邏輯推理能力的思路或與OpenAI o1-mini不同。據張俊林分析,o1係列模型更可能是重新訓練的(OpenAI多次強調o1-mini邏輯推理能力強,但在世界知識方麵弱;如果其基於GPT係列模型而來,世界知識應該不會弱於GPT 4o-mini),而DeepSeek-R1則是在V3的基礎上通過強化學習訓練得到。因此,DeepSeek通過向更高效的小模型蒸餾DeepSeek-R1的輸出,顯著提升小模型推理能力,更可能走出了與OpenAI o1-mini不同的道路,從而實際上打破了之前“小模型邏輯推理能力難以通過蒸餾提升”的研究結論。
此時,小模型有望通過“能力分治”(DCA)的模式將語言、世界知識及邏輯推理三個能力解耦,即語言能力靠小模型自身、邏輯推理靠RL+蒸餾,世界知識靠外掛RAG,從而具備目前最強大模型的能力,對於中小型開發者而言,部署模型也將更加友好。
我們認為,DeepSeek-V3/R1係列模型的核心突破在於1)技術及架構升級顯著優化模型訓練成本,即工程優化了MoE模型架構,預計未來各廠商仍將圍繞MoE模型進行注意力頭的架構優化;2)組相對策略優化算法(GRPO)實質上僅依賴模型自身近些迭代,實現了“反思能力”;3)提供了一種具體可行的“RL Scaling law”方向,各廠商或將跟進並繼續探索其他方向;4)蒸餾使小模型具備較強邏輯推理能力,有望促進中小型開發者推出相關應用。
2.2 第五問:Janus係列模型技術革新有哪些?
Janus係列模型緩解多模態理解和生成的衝突,提升模型能力表現。多模態理解與生成任務本身存在視覺編碼器需求的衝突,其中在理解任務中,視覺編碼器的目的是提取高層次的語義信息並進行表示;而生成任務則主要關注生成局部細節並在圖像中保持全局一致性,因此需要低維度編碼表示空間結構和紋理細節。Janus係列模型的核心技術在於實現多模態理解與生成的解耦,通過2 個獨立的視覺編碼路徑,緩解多模態理解和生成的衝突,從而提高模型的能力表現和可擴展性。
多模態生成模型架構尚無定論,自回歸和擴散模型持續發展。目前圖像生成模型主要包括以Transformer 為代表的自回歸生成、以 DDPM、LDM、DiT 為代表的擴散模型,以及 MaskGIT、MAR等掩碼自回歸圖像生成三類架構。自回歸架構通過算法逐個生成像素,DeepSeek的Janus係列模型為其中代表;掩碼自回歸則優化了單次像素生成數量和順序,提高了自回歸模型的速度和表現;擴散模型的代表包括Sora,其將圖像生成表示成噪聲圖像變化至目標圖像的過程,輸入輸出自始至終都是完整圖像。目前,自回歸和擴散模型均有前沿技術持續性突破,帶來模型能力的持續提升。
我們認為,多模態模型整體仍處於技術探索過程中,Janus係列核心在於提供了一種理解和生成解耦的架構,一定程度提升了模型表現,後續自回歸和DiT技術將進一步發展,帶來多模態模型性能的持續優化。
2.3 第六問:DeepSeek數據集的特點是什麽?
合成(生成)數據在大模型訓練過程中發揮著重要作用。在高質量訓練數據耗盡,以及互聯網中充斥大量噪聲數據的背景下,合成數據已成為大模型訓練過程中數據集的重要來源, 截至 2024 年 9 月,在 Hugging Face 平台上標注為 “合成” 的數據集已超過 1000 個。具體而言,合成數據主要由算法、模型生成,為大模型訓練提供更豐富且針對性強的信息,幫助拓展模型性能:
通用大模型:在通用大模型訓練中,合成數據主要用於豐富數據集,提升模型性能。以 DeepSeek-V3 的訓練為例,其在監督微調階段借助 DeepSeek-R1 模型生成樣本數據,經 RL 訓練後用拒絕采樣篩選高質量數據用於最終模型訓練,有效提升了模型的推理能力。
推理模型:在推理模型訓練中,合成數據主要用於優化訓練流程。例如,DeepSeek-R1在冷啟動階段利用R1-Zero生成+人工標注數據進行微調,並在監督微調階段通過V3模型收集了約60萬條與推理相關的訓練樣本,以及約20萬條與推理無關的訓練樣本。此外,R1向小模型蒸餾的過程實際上也是通過R1生成數據對小模型進行監督微調實現的。
多模態模型:多模態模型訓練中,合成數據能改善數據質量,顯著強化視覺生成能力。Janus - Pro 在預訓練階段相較於 Janus 引入約 7200 萬個合成美學數據樣本,使真實數據與合成數據比例達到 1:1,從而加速了模型收斂速度,提升圖像生成質量。而Kimi-1.5作為以強化學習方式訓練的多模態大模型,分別在預訓練階段通過合成數據強化了推理和基於知識任務的解答能力,在多模態訓練階段合成了圖像文本交錯數據。
GRPO 算法在一定程度上使模型擺脫人類經驗的束縛。如 2.1 所述,R1 - Zero 模型在 RL 過程中延續了 DeepSeek - V3 組的相對策略優化算法(GRPO)。該算法通過組內獎勵對比優化策略,無需額外的判別器,最終實現了訓練集上平均響應長度的持續提升,使模型自然地學會通過更多思考時間來解決推理任務。實際上,GRPO 對於 RL 數據集的處理同樣具有重要意義。具體而言,PPO 算法需要依賴價值模型估計狀態價值,以幫助計算優勢函數;而 GRPO 算法隻對輸出的語言內容進行相對優勢計算,不需要設計價值模型。價值模型的設定本身就包含了人類偏好,這種偏好通過人類經驗限定了數據集的價值。而 GRPO 算法本質上可看作模型生成內容的自我博弈,它能讓模型擺脫人類經驗的束縛,通過提升思考深度不斷拓展性能,最終甚至可能超越人類水平。
我們認為,DeepSeek-V3/R1/Janus等模型對於合成數據的應用符合大模型研究趨勢,而GRPO 算法則進一步使模型在RL過程中擺脫了人類經驗的限製,從而能夠最大程度挖掘數據集的價值,向模型超越人類,最終實現AGI的道路進發。
2.3 第七問:Scaling Law到底是否有效?
訓練側Scaling law推動模型能力持續提升,但仍麵臨技術、算力、數據的製約。早在2020年,OpenAI即在論文中提出了“Scaling law”,其內涵在於大模型的最終性能主要與計算量、模型參數量和訓練數據量三者的大小相關,而與模型的具體結構(層數/深度/寬度)基本無關。在“Scaling law”的思路下,業內追求在訓練側用更多的高質量數據,訓練更大參數規模的模型,尤其在MoE架構並行計算的加持下,大模型參數甚至能夠提升至萬億以上,極大程度提高了模型的效果。
然而,受到技術、算力、數據的製約,訓練側“Scaling law”正麵臨瓶頸:1)更高參數規模的模型訓練比較複雜:當參數規模提升到萬億規模,模型進一步調整的技術方式仍待突破;2)算力規模一定程度製約了模型發展:英偉達 H100目前可以做到單一集群 3.2 萬張卡充分互聯,每2小時會出錯一次(Founder Park訪談拾象科技 CEO 李廣密)。一旦算力集群增加到10萬卡,可能每20-30分鍾即會出錯一次,對數據中心的運維能力要求較高,否則會導致算力利用率明顯下降。此時需要性能更強的算力卡出現。3)高質量數據缺失:早有消息稱大模型訓練已經耗盡了高質量數據,因此如果隻是簡單提升訓練集規模,往往重複的數據占據了主要部分,從而對模型能力的提升有限。而數據合成的技術仍未能突破,同樣一定程度上製約了模型的發展。
思維鏈等方式打開推理側大模型能力提升空間。當訓練側“Scaling law”進度相對放緩,OpenAI於2024年9月發布了係列新模型o1,其利用強化學習技術,通過提高推理側的思考時間,大幅優化了模型表現;還能夠在訓練過程中生成高質量數據,解決天然數據缺失的問題。以思維鏈技術為例,其類比人類思考過程,使大模型在推理過程中把複雜問題拆解成若幹簡單步驟,從用戶提出的問題出發,逐步生成正確答案。OpenAI o1模型性能隨著訓練時間和測試時間計算而平穩提升,後訓練及推理階段思考深度(時間)或將成為 新的“Scaling law”;相較於OpenAI未開源推理算法,DeepSeek-R1係列模型提供了RL Scaling Law的可行方向,有望促進各廠商跟進並繼續探索其他推理側拓展方向。
Scaling law三條路徑齊頭並進,助力模型性能持續提升。正如英偉達CEO黃仁勳在CES 2025上的主題發言提到的,o1模型推出後,大模型Scaling law已經實際上分為了三個路徑:
Pre-Training Scaling:對應OpenAI 2020年提出的結論,訓練數據規模越大、模型規模越大、計算資源投入越多,AI模型的性能就會相應提升。盡管Pre-Training Scaling目前受技術、算力、數據影響遭遇瓶頸,但更強大的基礎模型仍然是各廠商追求的主要方向,DeepSeek-R1的技術報告同樣提出,“更大基礎模型發現的推理模式對於提升推理能力至關重要”。未來隨著MoE架構、模型Infra等方麵的優化,Pre-Training Scaling有望持續發展。
Post-Training Scaling:包括強化學習和人類反饋等技術,通過輸入大量優質的提示,優化模型性能表現。實際上,受限於人類工作效率,原有的人類反饋強化學習(RLHF)存在難以規模化擴張的問題(例如人工標注數據效率較低、不同標注者標準不一致等),而DeepSeek-R1純RL的技術方案實際上打破了這種限製,為各廠商提供了Post-Training Scaling的可行方案。
Test-Time Scaling:強調重新調配資源,即在推理階段考慮投入多少算力,並利用思維鏈將問題分解成若幹個小步驟逐一解決。通過在模型推理階段更加深入的思考,模型將具備更強勁的性能。
我們認為,Scaling Law仍有效,同時RL技術的不斷迭代為模型能力的規模化擴張帶來了新的方向。特別是DeepSeek通過架構和技術創新,提出了純RL和分階段的模型訓練方法,並實現了較好的性能表現。預計各廠商將陸續跟進DeepSeek的算法方向,並不斷對架構進行調整,以探索出更為理想的模型優化方式。
三、DeepSeek-R1促進AI平權,產業鏈享受發展紅利
3.1 第八問:R1是否意味著AI平權已經實現?
DeepSeek-R1開源引發全球複現熱潮,小模型+RL實現“反思”湧現。在美國對中國實施 AI 芯片封鎖的背景下,DeepSeek以極低的成本成功訓練出躋身全球第一梯隊的推理模型 R1。同時,DeepSeek 完全開源了模型權重,所遵循的 MIT License 開源協議極為寬鬆,允許其他開發者將模型用於商業用途並進行模型蒸餾,被Facebook首席人工智能科學家楊立昆譽為“開源模型對閉源模型的勝利”。
R1發布以來,全球前沿團隊積極複現,目前已取得較好成效。其中,UC伯克利的團隊在CountDown遊戲中複現了DeepSeek R1-Zero,以不到30美金的成本通過強化學習,使3B的基礎語言模型完成自我驗證和搜索;港科大的團隊隻用了8K個樣本,就在7B模型上複刻出了DeepSeek-R1-Zero和DeepSeek-R1的訓練,使模型在複雜的數學推理上取得強勁的結果;甚至全球最大開源平台HuggingFace團隊,也在1月26日官宣開始複刻DeepSeek-R1的所有pipeline,並將在複刻完成後,開源所有的訓練數據和腳本。
全球大廠接連接入R1,DeepSeek衝擊下OpenAI戰略方向或將轉向。盡管美國質疑DeepSeek在安全性、隱私方麵的問題,但英偉達、英特爾、亞馬遜、微軟、AMD等海外巨頭仍紛紛在自家產品中接入了DeepSeek;國內矽基流動和華為雲同樣聯合首發並上線了基於華為雲昇騰雲服務的DeepSeek R1/V3推理服務。受DeepSeek全球熱度衝擊,Sam Altman承認在開源策略上“站在了曆史錯誤的一邊”,並表示正在討論開源部分模型。此外,OpenAI於2月1日緊急更新了o3-mini係列,即使是免費用戶也可以通過選擇“Search+Reason”來使用體驗o3-mini的搜索功能。然而,o3-mini模型當前的定價為每百萬輸入 tokens 0.55美元(緩存命中)/ 1.1美元(緩存未命中),每百萬輸出 tokens 4.4美元,遠高於R1模型。
參考安卓及iOS份額變化,開源生態有望為AI產業注入活力。在智能手機操作係統領域,安卓的開源與 iOS的封閉帶來了截然不同的生態模式:
安卓:Android公司成立於2003年,2005年被Google收購,並在2007年正式推出了Android操作係統。生態上,安卓係統開源開放,允許眾多手機廠商基於其底層架構進行定製化開發,使其市場份額從2008年的2.8%提升到2011年的48%,但同時也帶來了專利訴訟、軟件盜版和係統安全等一係列問題;2011年,Google 推出 Android 4,從此安卓設備逐步正規化、標準化,直至2024年12月,安卓操作係統市場份額已經達到73.49%。
iOS:同樣在安卓係統正式發布的2007年,蘋果發布了搭載iOS係統的第一代iPhone,開啟了智能手機的新時代。相較於安卓的開放,蘋果iOS係統采用封閉式生態,嚴格把控軟件審核環節,一定程度限製了係統的靈活性,但為用戶提供了一致且高質量的使用體驗。從市場份額看,近年來iOS係統的市占率相對穩定,2024年12月市場份額為26.04%,低於2009年1月iOS的市場份額35.56%。
AI產業:類比手機操作係統領域,當前AI 產業同樣麵臨開源和閉源之爭。參考安卓係統發展曆程,開源模式能夠吸引全球範圍的開發者參與AI技術創新,後來者能夠基於已有成果快速進行應用開發與產品迭代,從而推動 AI 應用的快速落地,推動AI產業加速發展。
我們認為,DeepSeek-R1作為開源模型性能接近頭部閉源模型o1,一定程度上已經反映了AI平權。實際上,過去OpenAI的領先更多基於先發優勢,而當開源模型的性能實現對閉源模型的追趕,全球的團隊的研發能力能夠使開源模型的性能始終位於前列。近期各研究團隊對R1模型的積極複現更是側麵驗證了開源模式的優勢。此外,DeepSeek-R1使小模型具備推理能力成為可能,更低的成本將更有利於開發者探索AI的實際落地,帶來更有價值的產品。
3.2 第九問:DeepSeek出圈對產業的影響有幾何?
DeepSeek以其低成本、高性能全麵影響AI產業鏈。AI產業鏈大致可分為基礎層(算力、數據、技術等)、模型層(通用/行業大模型、開發平台)和應用層(通用/垂域應用、Agent等)。盡管創始人梁文鋒稱DeepSeek技術突破隻是“美國每天發生的大量創新裏非常普通的一個”,但其低成本、高性能,以及為小模型帶來強大推理能力的蒸餾方式,仍對AI產業鏈產生了衝擊:
算力:DeepSeek的爆火使得“傑文斯悖論”這一經濟學名詞受到關注,它是指“燃料效率的提高往往會增加燃料使用”。如果將該理論拓展到算力領域,模型對算力應用效率的提升反而會帶來算力需求的增長。實際上,“傑文斯悖論”反映了簡單的經濟學原理——當需求價格彈性係數大於1,價格下降則會帶來銷售收入增加。因此,DeepSeek影響下算力需求是否增加的關鍵在於算力的價格彈性,而這又受到算力用途的影響(一般來說,商品用途多,需求彈性就越大)。
算力作為新一輪科技革命的底層基礎,將會應用於千行百業,DeepSeek-R1使小模型能通過蒸餾具備較強邏輯推理能力,更進一步加速了下遊應用的產生,則算力的價格彈性更可能大於1,符合“傑文斯悖論”,從而持續保持旺盛的需求。此外,梁文鋒在訪談中提到高端芯片禁運或將成為卡點,同樣反應了算力芯片自主可控的重要性。
模型:DeepSeek-R1模型的突破實際上反映了中美在前沿大模型差距的縮小。以發布於2024年3月的GPT-4為例,2024年1月發布的智譜GLM-4才在部分benchmark上達到了其90%-100%的水平,模型差距在10個月以上;而2025年1月發布的R1已經接近OpenAI 2024年9月發布的o1模型,模型差距縮短到4個月左右。而大模型本身及其對應的Chat bot產品,用戶切換成本低,存在“贏者通吃”的現象,例如kimi 在2024年3月實現上下文無損輸入長度提升至200萬字,爆火出圈帶來流量的大幅上漲;2024年12月字節火山引擎熱度攀升,以及DeepSeek-V3的發布同樣帶來了流量的快速提升。在此背景下,預計大廠將跟進DeepSeek模型層的研發,技術開源亦將促進大廠持續投入,形成正反饋。此外,DeepSeek通過純RL算法、架構優化等方式實現了模型性能的提升,或將促進各廠商在相關領域進行更多的探索。
應用:DeepSeek-V3/R1作為通用/推理方麵的基礎模型,性能升級及在各類 Benchmark 跑分中的提高,本身就為應用落地帶來了更大的可能性。然而,對於開發者而言,更關鍵的點在於模型能夠和應用適配調優,提供穩定性的API服務,以及性價比更高的tokens成本。參考2024年5月DeepSeek-V2發布後帶來的大模型價格戰,即使模型成本更高,字節、阿裏等大廠亦按照燒錢補貼的邏輯大幅降價,本質上是因為開發者價格敏感,大廠願意虧錢搶占市場份額,培育開發者使用習慣。
考慮到DeepSeek-R1開發和調用成本本身較低,還通過蒸餾的方式帶來了小模型推理能力的提升,則應用開發者能夠以更低的成本部署模型或調用API,並保持相對優秀的性能。當應用開發門檻降低,預計會出現更多產品探索方向,直至出現具有突破性的 “killer”應用。同時,DeepSeek-R1的低價,同樣有望帶來推理模型新一輪的價格戰(o3-mini的價格本身已經驗證了這一觀點),為開發者帶來更多性價比之選。最後,當DeepSeek模型的能力達到全球第一梯隊後,其作為國內廠商能為國內應用開發者提供更穩定的服務(調用GPT API可能會受到各種限製),亦將促進各類應用產生。
數據:DeepSeek 係列模型的訓練過程仍凸顯了高質量數據的重要性。例如V3模型訓練時使用了14.8 萬億涵蓋多種領域和語言的token;R1通過精心篩選和處理的冷啟動數據提升了模型性能和可讀性;Janus-Pro 在訓練時同樣較前代模型增加約 9000 萬用於多模態理解的樣本和約 7200 萬用於視覺生成的合成美學數據。結合RL範式的可能性,預計高質量數據仍將在模型訓練中具有重要意義。
四、投資建議
4.1 第十問:DeepSeek將帶來哪些投資機會?
算力:算力作為新一輪科技革命的底層基礎,將持續受益於千行百業的應用需求。疊加 DeepSeek - R1 為推理範式帶來泛化的可能性,預計各廠商技術探索下算力產業鏈持續高景氣。此外,中美AI競爭加劇,高端算力芯片禁售下自主可控重要性進一步凸顯。建議關注以國產算力和AI推理需求為核心的算力環節,尤其是IDC、服務器、國產芯片等算力配套產業。
應用:DeepSeek-R1有望引發新一輪大模型API降價,小模型通過蒸餾具備強勁推理能力,這也將促使開發者探索更多應用落地的可能性。AI應用作為新一代生產力工具,看多C端軟件的持續發展,B端應用軟件商業化進展更快。建議關注B端Agent,其中OA+ERP作為核心入口,AI結合更易,有望率先商業化,其次關注用戶量多、生態好且可雲化的軟件公司等。
端側:小模型能力提升同樣促進了端側模型部署,我們看好AI終端作為新一代計算平台爆發可能。首先,我們認為AI+教育作為高頻應用場景有望率先落地,特別教育部人工智能賦能教育行動陸續推進,有望帶動AI學習機、AI教育大屏等需求增加,推薦、等;其次,我們認為AI眼鏡、AIPC、等新終端的出貨量有望隨著模型升級後使用範圍的增加而增加,因此建議關注以AI眼鏡、PC、機器人為代表的終端供應商或內部核心軟件供應商。
數據 :高質量數據仍然是大模型訓練中不可或缺的一環,B端 Agent落地亦需要行業know-how進行微調。建議關注向量數據庫相關公司、數據處理類企業,以及具備行業側專業數據的廠商。
風險提示:(1)AI產業商業化落地不及預期:目前各環節AI 產品的商業化模式尚處於探索階段,如果各環節產品的推進節奏不及預期,或對相關企業業績造成不利影響;(2)市場競爭風險:海外 AI 廠商憑借先發優勢,以及較強的技術積累,在競爭中處於優勢地位,如果國內 AI 廠商技術迭代不及預期,經營狀況或將受到影響;同時,目前國內已有眾多企業投入AI產品研發,後續可能存在同質化競爭風險,進而影響相關企業的收入;(3)政策風險:AI技術的發展直接受各國政策和監管影響。隨著AI在各個領域的滲透,政府可能會進一步出台相應的監管政策以規範其發展。如果企業未能及時適應和遵守相關政策,可能麵臨相應處罰,甚至被迫調整業務策略。此外,政策的不確定性也可能導致企業戰略規劃和投資決策的錯誤,增加運營的不確定性;(4)地緣政治風險:在全球地緣政治環境的波動下,尤其美國對中國的出口限製或將直接影響國內企業算力芯片的獲取,進而影響其產品研發和市場競爭力。同時,地緣政治風險也可能導致 AI 產品開拓海外市場麵臨障礙,影響相關企業的營收情況。
報告來源
證券研究報告名稱:《DeepSeek核心十問十答》
對外發布時間:2025年2月4日
報告發布機構:中信建投證券股份有限公司
本報告分析師:
應瑛 SAC 編號:S1440521100010
02 DeepSeek R1深度解析及算力影響幾何
Deepseek發布深度推理能力模型,性能和成本方麵表現出色。Deepseek發布兩款具備深度推理能力的大模型R1-Zero和DeepSeek-R1。R1-Zero采用純粹的強化學習訓練,模型效果逼近OpenAI o1模型,證明了大語言模型僅通過RL,無SFT,大模型也可以有強大的推理能力。但是R1-Zero也存在可讀性差和語言混合的問題,在進一步的優化過程中,DeepSeek-V3-Base經曆兩次微調和兩次強化學習得到R1模型,主要包括冷啟動階段、麵向推理的強化學習、拒絕采樣與監督微調、麵向全場景的強化學習四個階段,R1在推理任務上表現出色,特別是在AIME 2024、MATH-500和Codeforces等任務上,取得了與OpenAI-o1-1217相媲美甚至超越的成績。
國產模型邁向深度推理,策略創新百花齊放。在Deepseek R1-Zero模型中,采用的強化學習策略是GRPO策略,取消價值網絡,采用分組相對獎勵,專門優化數學推理任務,減少計算資源消耗;KIMI 1.5采用Partial rollout的強化學習策略,同時采用模型合並、最短拒絕采樣、DPO 和long2short RL策略實現短鏈推理;Qwen2.5擴大監督微調數據範圍以及兩階段強化學習,增強模型處理能力。
DeepSeek R1通過較少算力實現高性能模型表現,主要原因是DeepSeek R1實現算法、框架和硬件的優化協同。DeepSeek R1在諸多維度上進行了大量優化,算法層麵引入專家混合模型、多頭隱式注意力、多token預測,框架層麵實現FP8混合精度訓練,硬件層麵采用優化的流水線並行策略,同時高效配置專家分發與跨節點通信,實現最優效率配置。當前階段大模型行業正處於從傳統的生成式模型向深度推理模型過渡階段,算力的整體需求也從預訓練階段逐步過渡向後訓練和推理側,通過大量協同優化,DeepSeek R1在特定發展階段通過較少算力實現高性能模型表現,算力行業的長期增長邏輯並未受到挑戰。過去的預訓練側的scaling law正逐步邁向更廣闊的空間,在深度推理的階段,模型的未來算力需求依然會呈現爆發式上漲,充足的算力需求對於人工智能模型的性能進步依然至關重要。
風險提示:
大模型技術發展不及預期:大模型屬於先進AI算法,若後續大模型算法更新迭代效果不及預期,則會影響大模型演進及拓展,進而會影響其商業化落地等;
商業化落地不及預期:大模型的商業落地模式在業界中普遍處於探索階段,用戶對於大模型的接受程度和商業化變現能力可能不及預期;
算力基礎設施支持不及預期:美國製裁技企業,對中國形成芯片、算力的封鎖,大語言模型訓練過程中需要大量算力資源,需要關注中美關係帶來的算力的壓力;
政策監管力度不及預期:大語言模型帶來新的網絡生態商業,尚屬於前期成長階段,政策監管難度加大,相關法律法規尚不完善,政策監管力度可能不及預期;
數據數量與數據質量不及預期:大型語言模型需要大量的高質量數據進行訓練,若數據數量和質量存在短板,則會影響大語言模型效果。
報告來源
證券研究報告名稱:《DeepSeek R1深度解析及算力影響幾何》
對外發布時間:2025年2月3日
報告發布機構:中信建投證券股份有限公司
本報告分析師:
於芳博 SAC 編號:S1440522030001
龐佳軍 SAC 編號:S1440524110001
辛俠平 SAC編號:S1440524070006
研究助理:孟龍飛
03 重點推薦端側AI產業
DeepSeek在保持模型優異性能指標的同時大幅降低訓練和推理成本。2025年1月20日,DeepSeek-R1發布,以 DeepSeek-V3 模型為基礎,通過結合大規模強化學習、專家模型架構、FP8混合精度等技術手段降低訓練成本,同時具備深度思考能力,在數學、代碼、自然語言推理等多個任務上性能比肩 OpenAI O-1217 模型。DeepSeek-R1發布後,在保持較為優異的性能指標基礎上,市場對於其在訓練和推理端的低成本尤為重視。DeepSeek-V3 使用 2048 塊 H800 GPU 完成了 6710 億參數的訓練,訓練成本為 557.6 萬美元,DeepSeek-R1模型的每百萬輸出 tokens 為 16 元,均顯著低於同等水平的模型成本。
利用DeepSeek模型生成的數據樣本實現小參數量的模型蒸餾,提升模型性能。DeepSeek R1 生成 80 萬條高質量推理數據樣本,使用這些推理數據對較小的基礎模型進行監督微調(SFT),將 DeepSeek R1的知識和推理能力進行遷移。DeepSeek 團隊開源了多個基於不同規模的 Qwen 和 Llama 架構的蒸餾模型,如 DeepSeek - R1 - Distill - Qwen - 1.5B、DeepSeek - R1 - Distill - Llama - 8B、DeepSeek - R1 - Distill - Llama - 70B 等。
高性能、輕量化、低成本的模型能力將顯著推動端側AI產業發展。端側硬件設備是將大模型能力進行實物化輸出落地的關鍵環節,近日OpenAI 的 CEO Sam Altman 在接受媒體采訪時也透露 OpenAI 將開發可替代手機的生成式 AI 專用終端。國內物聯網模組廠商在端側AI領域具備先發優勢,並積極進行產業布局,如正加速開發DeepSeek-R1模型在端側落地應用及端雲結合整體方案,2025年將推出單顆模組算力達到100Tops的高階AI硬件,遠期規劃AI模組算力超過200Tops。
風險提示:國際環境變化對供應鏈的安全和穩定產生影響,對相關公司向海外拓展的進度產生影響;人工智能行業發展不及預期,影響雲計算產業鏈相關公司的需求;市場競爭加劇,導致毛利率快速下滑;匯率波動影響外向型企業的匯兌收益與毛利率,包括ICT設備、光模塊/光器件板塊的企業;數字經濟和數字中國建設發展不及預期;電信運營商的雲計算業務發展不及預期;運營商資本開支不及預期;雲廠商資本開支不及預期;通信模組、智能控製器行業需求不及預期。
報告來源
證券研究報告名稱:《重點推薦端側AI產業》
對外發布時間:2025年2月5日
報告發布機構:中信建投證券股份有限公司
本報告分析師:
閻貴成 SAC 編號:S1440518040002
SFC 編號:BNS315
劉永旭 SAC 編號:S1440520070014
SFC 編號:BVF090
武超則 SAC 編號:S1440513090003
SFC 編號:BEM208
研究助理:朱源哲
04 DeepSeek激活創新競爭,AI應用迎來“安卓時刻”
應用開發迎來“安卓時刻”
回顧安卓與iOS應用的發展,我們率先提出不應隻關注大模型本身的用戶數及活躍度,更應該關注開發者,尤其是中小開發者的數量。據GitHub,在Llama比DeepSeek開源時間早1年半的情況下,目前DeepSeek R1在GitHub上的開發者點讚數量已經達到約5.7萬,接近Llama。根據GitHub、Hugging Face社區上的開發者實測,經過R1微調的80億參數小模型可以在個人筆記本中運行,本地化部署門檻顯著下降,應用的開發將迎來百花齊放。
有用戶有產品能力的公司,仍將“贏在起跑線”
雖然春節期間Deepseek的關注度趕超字節豆包,但我們認為以字節跳動為代表的中國頭部互聯網公司,手握高粘性+大DAU產品,疊加強產品能力。在第二階段的應用、場景等領域,用戶數+產品力+商業變現能力,仍然將幫助他們在接下來的競爭中搶占先機。
目前豆包全球累計下載量(約9000萬)仍然明顯高於Deepseek(約2000萬),而其他擁有用戶基礎和產品能力的公司,也有機會迎頭趕上。
風險提示:宏觀經濟風險,版權保護力度不及預期,知識產權未劃分明確的風險,與IP或明星合作中斷的風險,大眾審美取向發生轉變的風險,競爭加劇的風險,用戶付費意願低的風險,消費習慣難以改變的風險,關聯公司公司治理風險,內容上線表現不及預期的風險,生成式AI技術發展不及預期的風險,產品研發難度大的風險,產品上線延期的風險,營銷買量成本上升風險,人才流失的風險,人力成本上升的風險,政策監管的風險,商業化能力不及預期的風險。
報告來源
證券研究報告名稱:《DeepSeek激活創新競爭,AI應用迎來“安卓時刻”》
對外發布時間:2025年2月4日
報告發布機構:中信建投證券股份有限公司
本報告分析師:
楊艾莉 SAC 編號:S1440519060002
SFC 編號:BQI330
楊曉瑋 SAC 編號:S1440523110001
05 DeepSeek本地部署與全球資產配置組合跟蹤
Deepseek介紹:DeepSeek,成立於2023年,是幻方量化的子公司,位於杭州的人工智能公司。它於2024年末推出DeepSeek-V3模型(671B參數),性能超越多種開源模型,並接近頂尖閉源模型。2025年1月,DeepSeek發布R1係列模型(660B參數),在多項任務上表現優異,同時推出了幾個小模型對標OpenAI的產品。DeepSeek通過其創新技術顯著提高了生成速度,並提供了具有競爭力的API服務定價。
Deepseek本地部署方法:Ollama是一個開源工具,用於在個人設備上高效運行大型語言模型(LLMs),無需依賴雲端。DeepSeek-R1模型可通過Ollama實現本地部署:首先,從Ollama官網下載適合係統的Windows版本並安裝,完成後係統托盤會出現Ollama圖標。其次,訪問“Models”頁麵選擇DeepSeek-R1,並根據顯卡配置(如4090顯卡24G顯存)選擇32B版本,複製對應的運行指令。然後,在命令行窗口中執行該指令以下載和運行模型(32B版本約19GB)。為提升用戶體驗,可采用Docker+Open WebUI構建圖文交互界麵,甚至將DeepSeek-R1 32B集成到微信中作為智能體使用,享受其快速響應和深度思考功能。
對AI領域投資的思考:通過DeepSeek官網與DeepSeek-V3對話,可以了解部署各版本模型對硬件的要求。普通筆記本和台式機僅配備CPU,僅能勉強運行DeepSeek-R1-1.5B和7B,但響應速度慢,缺乏實用性。英偉達RTX 4090可較快運行DeepSeek-R1-32B,但在處理70B版本時表現不佳。中小模型如1.5B、7B和14B適合簡單的微信交流場景,但無法解決複雜問題;32B模型具備深度思考能力,適用於服務客戶的微信交流。671B完整版及70B模型需要企業級顯卡如A100或
- 連“股神”都不炒了,巴菲特持有的美妝股大跌,背後原因何在?
- 搞笑電影排行國產?全球十大搞笑電影?
- 都挺好劇情分集介紹?都挺好分集劇情介紹 都挺好分集劇情簡介?
- 險資試點“買黃金”!人保財險等10家公司先行,有何影響?
- 睬組詞語(“采”可以組哪些詞語)
- 中泰聯合聲明:以零容忍的堅決態度 加強打擊人口販運、電詐等跨境犯罪
- 海通計算機|DeepSeek初探:從V3到R1,高性能+低價格打開全新AI發展範式,推動AI在辦公、教育、醫療廣泛應用
- 春立醫療截至1月末累計回購A股86.81萬股
- 2012年流行歌曲排行,2012最火的歌曲有哪些?
- 偶數的概念 偶數是什麽意思
- 劍網3免費嗎??劍網3是免費的嗎?
- 265鞋碼是多大碼(鞋碼對照表250是多少碼)
- 地瓜和紅薯有什麽區別?地瓜和紅薯的區別?
- 2025年1月境外人民幣市場綜述
- 須的意思(戌的意思和含義是什麽)
- sky手機什麽牌子?SKY-20180330COG是什麽手機?
- 交強險的保險責任是什麽~交強險保險責任是什麽
- 黃鼠狼咬人嗎有多大咬合力--黃鼠狼會不會咬人
- 騰訊雲上線DeepSeek-R1和V3原版模型的API接口
- 新生兒用品清單及品牌(初生嬰兒準備物品清單有哪些物品)
- 突發!這家A股公司將易主,明起停牌
- 金價頻創新高之際 倫敦1月黃金流出量創曆史紀錄
- 海馬體證件照修圖教程(海馬體拍照拍藍底還是白底好看-海馬體證件照底色選哪個)
- 突發!台積電再對大陸斷供,16/14nm
- 蘋果ipad鎖屏密碼忘了怎麽辦(ipad忘記鎖屏密碼怎麽辦)
- 橡膠補強劑介紹?氧化鋅在橡膠中起到什麽作用?
- 中信建投:DeepSeek持續催化,AI落地加速
- 華夏時評:打破常規促增長,埋頭苦幹求創新
- 平安旅遊保險網官網、旅遊意外險在哪兒買?
- 黎耀祥演的電視劇?盤點黎耀祥電視劇,【在線觀看】免費百度雲資源?
- 特朗普:DeepSeek不會對國家安全構成威脅,美國將從中受益
- 建成區麵積說明_西安建成區麵積2021?
- 陳嘉映、我的小夥伴六年級作文
- 歐洲央行發布“中性利率”區間預測,降息還差最後兩步?
- 最不受歡迎ETF:2月7日華夏科創50ETF遭淨贖回11.60億元,華泰柏瑞滬深300ETF遭淨贖回8.51億元
- 漢朝的電視劇排行榜(漢朝先後順序的電視劇)
- 華夏時評:打破常規促增長,埋頭苦幹求創新
- 航班號是什麽怎麽看?怎麽查詢自己的航班號?
- 霹靂火演員表大小姐;特種兵之霹靂火演員表 特種兵之霹靂火角色介紹?
- 平安旅遊保險網官網、旅遊意外險在哪兒買?
- dota敵法師出裝?burning敵法師出裝先後?
- 400億美元投資!這家巨頭將取代微軟,成為OpenAI最大金主
- 口蘑焯水多長時間,新鮮口蘑需不需要焯水?
- 消息稱今年業界隻有 4 家製造大折疊手機,均采用側邊指紋“強調極致輕薄”
- 鳳凰知音積分兌換商城__鳳凰知音商城支付密碼忘了
- 奧爾良雞腿的機器.雞腿去骨方法?
- 如何篩選出一隻能夠長期持有的基金?當DeepSeek給我推薦了9隻基金之後,看完之後天塌了 感覺Deepseek太強大
- 大連瑜伽培訓學校?國家認可的瑜伽學校有哪幾個
- 鋁塑板生膠和熟膠的區別?請問生膠和熟膠是怎麽區分的?
- 沐浴桶尺寸?木浴缸尺寸大小是多少?優點有哪些呢?
- AMD釋放危險信號
- 追夢者聯盟演員表——《追夢者聯盟》大灣區製作班底講述大灣區年輕人逐夢故事,該劇的班底如何
- 又一智駕巨頭,衝擊IPO!
- 講話無意曝光!特魯多:特朗普“吞並加拿大”威脅是真的,美國想從加關鍵礦產中獲益
- 受關稅擔憂影響,油價將連續第三周下跌
蠻來生作網的名片
职业:起底自殺程序員“毒妻”翟欣欣人生三個側麵|翟欣欣|程序員|蘇享茂_新浪新聞程序员,宁夏回族自治区设计师
现居:新疆和田策勒县
工作室:北上廣深連續3個月漲幅超20% 年末樓市或有價無市|房地產|廣深|樓市小组
Email:11月中國服務業PMI 52.5 新增訂單創四個月新低|匯豐中國|PMI|訂單
热门文章
- 長鏡頭電影有哪些(人們所說的電影長鏡頭是指什麽)
- 涉違規使用保險費率等 人保財險及相關責任人被罰1299萬 回應:整改完成,持續做好風控
- 春節錯位或推高物價,1月票據利率相對平穩,信貸“開門紅”概率低
- 海通計算機|DeepSeek初探:從V3到R1,高性能+低價格打開全新AI發展範式,推動AI在辦公、教育、醫療廣泛應用
- 生日的別稱是什麽?生日的別稱都有哪些?
- 漂亮的魚兒童畫(世界上最美的魚圖片)
- 漢朝的電視劇排行榜(漢朝先後順序的電視劇)
- 概念股爆火!機會在哪?找“現金淹到脖子”的公司
- 熊出沒主題曲歌詞勇往直前!熊出沒動畫片主題曲歌詞?
- 安能物流發盈喜 預期2024年非香港財務報告準則利潤大增至不少於8.3億元
- 鬥羅之龍槍逆世(天命奇禦2八卦能洗幾次)
- 痞幼照片泄露百度雲--“機車女神”痞幼,家世惹人猜測?
- 長鏡頭電影有哪些(人們所說的電影長鏡頭是指什麽)
- 達派箱包特點(請問這是什麽品牌的背包,中文叫什麽)
- 轉動的讀音。轉的讀音如何區別?
- 枕芯是什麽材料的~請問枕芯是什麽?
- 涉足的近義詞--涉獵和涉足?
- 最近可轉債火了
- 1000萬噸鋼鐵巨頭永卓控股,入主上市公司富淼科技!
- 視頻|李大霄:建議把社保基金開放一個端口,讓廣大股民基民購買
- 阡陌的意思解釋?阡陌的意思?
- 特朗普稱已與普京通話討論結束俄烏衝突
- 山西大同比北極還冷
- 樂蜂網護膚品排行榜?聚美優品和樂蜂網的東西哪個好?
- b計劃數據恢複注冊碼~PPLAN英文是什麽意思
- 建設銀行上海市金山石化支行被罰40萬元:因貸款業務嚴重違反審慎經營規則
- 順豐快遞一天能到嗎?順豐空運一天可以到嗎?
- 中國天化工終止出售黑河龍江化工有限公司90%股權
- 南山16盤排隊進場,深圳頂豪“爭霸”賽即將開打
- 航班號是什麽怎麽看?怎麽查詢自己的航班號?
- 畢業論文內容摘要怎麽寫(論文的內容摘要怎麽寫)
- 霸王蟹的江湖 雁陣-皇帝蟹的物種分類是什麽
- 寶駿汽車靈語智艙與DeepSeek完成深度融合
- 租的拚音!組的拚音?
- A股蛇年首周喜迎開門紅!關於後市,私募紛紛發聲
- 華安證券:乘勢而上 不負春華
- 月亮怎麽拍蘋果,如何拍出好看的月亮
- 萬方數據庫免費入口登錄?萬方數據庫免費入口?
- 2025年資產配置洞察與展望——低利率時代下如何破局?
- 中國合夥人電影免費完整版(電影人生經典台詞大全)
- 對中國資產保持信心!景林資產去年四季度加倉拚多多、網易
- 【金融服務】打通金融服務“最後一公裏”,中國工商銀行上海市分行落實小微企業融資協調工作機製
- 出賣歌詞那英?出賣的歌詞
- 榮耀YOYO智能助手升級在即,DeepSeek AI助陣提升競爭力,AI領域競爭加劇
- 特易購和樂購的區別?沃爾瑪和特易購的區別?
- 突發!張蘭、汪小菲抖音賬號被無限期封禁!
- 秋千的英語單詞?大家幫忙“秋千”英語怎麽讀…幫忙…?
- GPU大戰一邊倒?AMD股價重挫 分析師坦言:市場隻認英偉達
- 硬盤壞道檢測軟件下載?如何用hdtune pro檢測硬盤壞道?
- 太原鋼鐵集團有限公司招聘信息;太原鋼鐵集團和中建三局哪個好
- 抖音重拳出擊!張蘭汪小菲抖音賬號被無限期封禁
- 步是什麽結構,“夾”字的多音字是什麽
- 玫瑰鹽是什麽(玫瑰鹽和海鹽區別)
- 遼寧省地級市經濟排名?遼寧14個城市順序是什麽?
- 台風命名表一覽,2022年台風命名表順序及含義是什麽
- DeepSeek引爆本地部署熱,個人企業爭相入局
- 《哪吒2》登頂影史全球單一市場票房榜 河南動漫產業如何乘風“追光”
- 電商平台搭建構思,怎樣搭建電子商務平台網站
- 首個“A+H”!僅用100天完成公司治理程序,137天完成行政審批
- 證監會召開投資者座談會!吳清:堅持問需於市場、問計於市場、問道於市場!
站长推荐
又一智駕巨頭,衝擊IPO!
農發行中層人事調整 涉及多家省分行行長
以色列政府要求哈馬斯離開加沙地帶
上海金山惠民村鎮銀行被罰220萬元:因貸款風險分類不準確 違規處置不良貸款資產等違法違規行為
破產重整,蘇寧把自己“玩”死了?
我家在中國伴奏g調~~找老歌,,,?
李衛當官第三部全集央視網?李衛當官有第3部嗎?
羊肉不能和什麽一起吃~羊肉不能和韭菜一起吃嗎?
樂普醫療和春立醫療的利潤大幅下滑,達安基因、金域醫學和迪安診斷均由盈轉虧,醫療器械“黃金十年”不再?
海通策略:如何找春季行情中領漲行業?
紙箱嘜頭模板(紙箱嘜頭上的數字是什麽字體)
變通牌天天膠囊說明書(禦芝林9塊9包郵的變通牌天天膠囊是真的嗎)
永保初心還是永葆!永葆和永保的區別
黎巴嫩組建新政府
小米充電寶鼓包了怎麽處理(鼓起來的充電寶如何處理掉)
字體安裝路徑怎麽設置 2007cad字體安裝在哪個文件夾?
家用網線怎麽選擇(網線接法是什麽)
紐約“虹吸”全球黃金:倫敦1月黃金流出量創曆史紀錄!
白宮官員:特朗普將撤銷布林肯和沙利文安全許可
專用肥料包裝設計(玉米專用肥料)
5g基站覆蓋範圍圖……一個5g基站的覆蓋範圍有多大?有沒有4g的大?
眼睛像什麽又黑又亮比喻句,一雙圓圓的大眼睛像什麽
中信證券:中國科技資產價值正被全球投資者重估,中美估值差有望
英語日期縮寫表達格式 日期的英文縮寫怎麽寫?
加拿大尋求加強與歐盟的貿易關係 以應對特朗普關稅威脅
於敦海博士?新聞司多少個副司長?
海岸城地產集團_深圳情人節約會去哪吃?
wireshark中文版下載32位(wireshark中文版怎麽抓包)
前蘇聯加盟國現狀。前蘇聯加盟共和國有哪些成員國?
力鴻檢驗2月7日耗資5.44萬港元回購2.4萬股
友情链接
- 国土部:建设用地利用粗放 须控制投放增量土地|用地|土地|建设
- 杭州发改委主任吐槽:摊大饼发展方式难以延续|城镇化|摊大饼|发改委
- 央行演绎不松不紧艺术 强调预期管理|央行|货币政策|不松不紧
- 多机构预测1月CPI为2.3% 料连续四月涨势放缓|CPI|机构|物价
- 2013年社会融资规模17.29万亿元 比上年多1.53万亿|社会融资规模|盛松成|中国人民银行
- 中国经改脉络渐显:三期叠加下保持调控定力|中国经济|经济|脉络
- 工信部:今年工业增加值增长目标为9.5%|工业增加值|工业经济|工信部
- 1月新增贷款1.32万亿 专家预期政策将中性偏紧|新增贷款|政策|专家
- 2013年农村五保集中供养年人均标准达4562元|五保|2013年|标准
- 青岛中石化爆炸事故炸掉7.5亿 原因查明|中石化|国务院|爆炸事故
- 高层定调房地产重提调控 思路仍是继续从严|房地产|调控|高层
- 百城价格指数连涨18个月 环比涨幅现年内最低|价格指数|涨幅|环比
- 央行部署经济工作会议 专家称稳健连贯性是基调|经济工作|稳健|货币政策
- 2014年中国经济或将稳中趋弱 乐观中需谨慎|中国经济|乐观|经济学家
- 央行今日进行1200亿元21天期逆回购|逆回购|央行|21天
- 杨栋梁:严查事故严厉追责|事故|安全生产|调查组
- 屠光绍:自贸区发展令更多内地金融资源流向香港|自贸区|香港|屠光绍
- 中行:2014年中国通胀抬头值得警惕和关注|2014年|中国通胀|中行
- 前11月全国家具制造业主营收入同比增13.6%|制造业|家具|主营
- 2013年CPI同比上涨2.6% 低于3.5%年度调控目标|价格上涨|CPI|调控
- 12月预计新增人民币贷款5749亿元 |人民币贷款|新增|流动性
- 汽车等5行业去年新增利润超全部的一半|汽车|利润|新增
- 社科院:我国7.5%经济增长目标实现|2013年|稳增长|经济增长
- 1月出口2071亿美元超预期 加工贸易份额首次跌破三成|贸易|我国|超预期
- 我国集中供热能耗高出欧洲一倍|能耗|欧洲|供热
- 社科院:去年人均税负近万元 建议慎征房产税|报告|房产税|税负
- 国资改革须打破既得利益|国有企业|所有制|资本
- 12月汇丰制造业PMI终值50.5|汇丰|终值|制造业
- 1月汇丰中国制造业PMI初值6个月新低 逊于预期|汇丰中国|PMI|制造业
- 1月汇丰中国制造业PMI初值6个月新低 逊于预期|汇丰中国|PMI|制造业
- 1月中国对外直接投资72.3亿美元 同比增47.2%|1月|对外直接投资|72.3亿
- 11月制造业PMI解读:经济运行进入平稳增长区间|PMI|制造业|经济
- 厉股份与吴市场的十年:建立好的市场经济|中国经济|克鲁格曼|吴敬琏
- 看空楼市者从业外蔓延至业内 王石警示形势不妙|楼市|房地产|看空
- 国家卫计委:未来四年要加快建立全民医保体系|卫计委|医保|医改
- 前十月工业企业利润同比增13.7% |工业企业|利润|同比
- 中行温彬:明年集中还款压力大|债务|政府|中行
- 余永定:中国目前主要问题是投资增速太高|余永定|中国|问题
- CPI连续两年处于2时代 预计今年总体温和上涨|CPI|价格|上涨
- 1月FDI同比增长16.1% 分析师称不能排除热钱流入|分析师|热钱流入|同比增长
- 习近平任改革领导小组组长 副组长组员或为常委等|领导小组|组长|习近平
- 周小川:逐步允许境外公司在境内上市|周小川|上市|人民币
- 海通证券姜超:预计2014年中国GDP增速为7.3%|2014年|海通证券|姜超
- 发改委:鼓励地方政府拓宽铁路投融资渠道|发改委|地方政府|铁路
- 2014年关税实施方案公布:非合金镍等进口税率为1%|税率|关税|合金
- 2013年我国进出口总值25.83万亿人民币|2013|外贸|进出口
- 专家:1月M1增速骤降或与企业预期保守有关|企业|活期存款|1月
- 国土部:明年用地规模将实施总量控制和减量供应|国土部|总量|供应
- 李稻葵:中国对外借钱一定要用人民币计价|人民币|李稻葵|中国
- 外商不得使用跨境人民币直投资金投资有价证券|人民币|直接投资|商务部