338 lines
22 KiB
Markdown
338 lines
22 KiB
Markdown
|
|
# 2025年12月大模型版本发布与全年发展回顾
|
|||
|
|
|
|||
|
|
下面分两部分回答你的问题:
|
|||
|
|
|
|||
|
|
1. 2025年12月各家大模型的**重点版本更新**
|
|||
|
|
2. 整个2025年大模型发展的**年度回顾与趋势总结**
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
## 一、2025年12月:关键大模型版本更新总览
|
|||
|
|
|
|||
|
|
可以把 2025年12月看成是“大模型年终总决赛月”:几乎所有头部厂商都在这一月集中放出了年度旗舰或关键迭代。
|
|||
|
|
|
|||
|
|
### 1. OpenAI:GPT‑5.2(12月11日)
|
|||
|
|
|
|||
|
|
**定位与版本:**
|
|||
|
|
GPT‑5.2被官方定位为“迄今最强的专业知识工作模型系列”[1],面向专业办公、复杂推理和长期运行的智能体。主要分为三档:
|
|||
|
|
|
|||
|
|
- **GPT‑5.2 Instant**:主打速度和性价比,日常问答、写作、翻译等轻量任务
|
|||
|
|
- **GPT‑5.2 Thinking**:深度推理版,针对代码、数学、长文档分析、规划
|
|||
|
|
- **GPT‑5.2 Pro**:旗舰版,面向高强度科研和复杂业务场景
|
|||
|
|
|
|||
|
|
**核心技术/能力更新:**
|
|||
|
|
|
|||
|
|
- **长上下文能力**:
|
|||
|
|
- 支持约 **40万 token** 上下文(部分评测提到256k–400k区间),在MRCRv2长上下文检索中,在256k长度下依然接近100%准确率[1][2]
|
|||
|
|
- **推理与专业能力跃迁**:
|
|||
|
|
- 在知识型工作评测 GDPval 中,GPT‑5.2 Thinking 有约 **70.9%** 任务表现不低于顶尖人类专业人士,而GPT‑5仅为38.8%[1][3]
|
|||
|
|
- 在SWE‑bench、GPQA、HMMT等软件工程、科学与数学竞赛类基准上全面刷新自家纪录
|
|||
|
|
- **多模态与视觉**:
|
|||
|
|
- 视觉理解错误率显著下降,能在复杂UI、图表、低质量图像中进行对象识别与空间关系推理
|
|||
|
|
- **智能体与工具调用**:
|
|||
|
|
- 在多步工具调用、端到端工作流自动化(如从读取多系统数据到生成完整决策报告)方面更稳定可靠
|
|||
|
|
|
|||
|
|
**商业与使用侧信号:**
|
|||
|
|
|
|||
|
|
- **API调用量**:12月13日(API上线首日)调用量**突破万亿tokens**,由Sam Altman在X上公开确认,刷新大模型首日使用纪录[4][5]
|
|||
|
|
- **定价**:输入约 **$1.75/百万tokens**,输出 **$14/百万tokens**(Pro更贵),并提供缓存折扣[2][6]
|
|||
|
|
- **战略意义**:这是对 **Google Gemini 3** 强势登场的“红色警报(Code Red)”式回应,体现OpenAI从“通用聊天助手”向“专业工作基础设施”转型的路线。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 2. DeepSeek:DeepSeek‑V3.2 / V3.2‑Speciale(12月1日)
|
|||
|
|
|
|||
|
|
**发布时间与版本:**
|
|||
|
|
|
|||
|
|
- 2025年12月1日,DeepSeek发布两个正式版模型:
|
|||
|
|
- **DeepSeek‑V3.2**:平衡推理能力与输出长度,主打日常使用与通用Agent
|
|||
|
|
- **DeepSeek‑V3.2‑Speciale**:极致推理版,面向数学证明、编程竞赛和学术研究[7][8]
|
|||
|
|
|
|||
|
|
**关键技术亮点:**
|
|||
|
|
|
|||
|
|
1. **DSA 稀疏注意力(DeepSeek Sparse Attention)**[9][10]
|
|||
|
|
- 通过“闪电索引器 + 细粒度稀疏注意力”机制,在长文本下只对“最相关的 token 子集”做注意力计算
|
|||
|
|
- 训练与推理 **长文本效率提升 2–3 倍**,长序列场景推理成本下降约 **50%**,显著降低显存与延迟
|
|||
|
|
2. **思考模式 + 工具调用深度融合**
|
|||
|
|
- V3.2是首批支持“**在思考模式下调用工具**”的开源模型:
|
|||
|
|
- 即先做长链推理,再根据中间结论选择性调用外部工具(搜索、代码执行、数据库等),再继续推理
|
|||
|
|
- 构造了 **1800+ 环境、8.5万+复杂指令** 的智能体强化学习数据集,在开源Agent评测中表现登顶[8][11]
|
|||
|
|
3. **推理性能**
|
|||
|
|
- 在主流推理Benchmark中性能 **接近GPT‑5,仅略低于Gemini‑3.0‑Pro**,而成本远低于同量级闭源模型[7][11]
|
|||
|
|
|
|||
|
|
**意义:**
|
|||
|
|
|
|||
|
|
- 巩固了DeepSeek作为“**开源推理与Agent标杆**”的地位,为中国开源阵营在全球开发者社区持续吸粉;
|
|||
|
|
- 标志着开源模型在**复杂推理与Agent任务**上首次与头部闭源模型站到同一高度。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 3. Google:Gemini 3 Flash(12月17日公开)
|
|||
|
|
|
|||
|
|
**定位:**
|
|||
|
|
|
|||
|
|
- 标语是“**以极低成本提供前沿智能,为速度而生**”[12][13]
|
|||
|
|
- 是Gemini 3 家族中的轻量高速版本,但在多个关键指标上**反超 Pro 级别大哥**:
|
|||
|
|
|
|||
|
|
**核心特性:**
|
|||
|
|
|
|||
|
|
- **速度与成本**:
|
|||
|
|
- 推理速度比前代 Gemini 2.5 Flash 提升约 **3 倍**,主打“接近搜索引擎的实时响应”[12]
|
|||
|
|
- API 价格:输入约 **$0.5/百万tokens**,输出 **$3/百万tokens**,仅为GPT‑5.2 同级服务的 1/4 左右[14]
|
|||
|
|
- **推理与编程能力**:
|
|||
|
|
- SWE‑bench Verified 编码基准得分 **78%**,**超过 Gemini 3 Pro**,达到“Pro价位以下的Pro级能力”[12][14]
|
|||
|
|
- 在多模态理解 MMM U Pro 中得分 **81.2%**,略微超过Pro版[13]
|
|||
|
|
|
|||
|
|
**产品与生态:**
|
|||
|
|
|
|||
|
|
- 发布当天即:
|
|||
|
|
- 成为 **Gemini App 默认模型**,取代 2.5 Flash
|
|||
|
|
- 成为 **Google Search AI Mode 默认驱动模型**[15]
|
|||
|
|
- 面向开发者通过 Google AI Studio、Gemini CLI、Vertex AI 等统一提供
|
|||
|
|
|
|||
|
|
**意义:**
|
|||
|
|
|
|||
|
|
- 这是谷歌在与OpenAI、新兴开源阵营竞争中打出的一张“**低价高能轻量模型**”王牌,意在用“**Flash + Search 分发**”打穿日常应用与轻量Agent市场。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 4. 字节跳动 / 火山引擎:豆包大模型 1.8(Doubao‑Seed‑1.8,12月18日)
|
|||
|
|
|
|||
|
|
**场景定位:**
|
|||
|
|
|
|||
|
|
- 明确面向 **多模态 Agent 场景** 做定向优化,是豆包家族的新旗舰[16][17]。
|
|||
|
|
- 聚焦:工具调用、复杂指令遵循、OS级Agent能力。
|
|||
|
|
|
|||
|
|
**关键指标:**
|
|||
|
|
|
|||
|
|
- **多模态理解与Agent**:
|
|||
|
|
- 工具调用、复杂指令遵循能力显著增强,在多模态智能体评测中进入全球第一梯队[16]
|
|||
|
|
- 支持单次 **1280 帧** 视频理解,并支持“低帧率长视频 + 高帧率关键片段”的混合理解模式,适用于教育、质检等场景[16]
|
|||
|
|
- **商业规模**:
|
|||
|
|
- 截至2025年12月,**日均 token 调用量突破 50 万亿**,同比增长 10 倍以上[16][18]
|
|||
|
|
- 超过百家企业客户单家累计使用量超过万亿 token
|
|||
|
|
|
|||
|
|
**意义:**
|
|||
|
|
|
|||
|
|
- 豆包从“对标GPT‑4o的便宜大模型”演进为“**多模态企业级Agent平台**”,在国内多模态/视频理解赛道确立头部位置;
|
|||
|
|
- 也标志中国大模型进入真正的**海量生产级调用时代**(50万亿/日量级)。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 5. MiniMax:M2.1 多语言编程模型(12月23日)
|
|||
|
|
|
|||
|
|
**定位:**
|
|||
|
|
|
|||
|
|
- M2 的迭代版,面向“**真实世界复杂任务的多语言编程与Agent模型**”[19]
|
|||
|
|
- 与智谱GLM‑4.7 同日形成“**国产开源双旗舰**”对飙。
|
|||
|
|
|
|||
|
|
**技术亮点:**
|
|||
|
|
|
|||
|
|
- 在多语言软件工程基准 **Multi‑SWE‑bench** 中,M2.1 得分 **72.5%**,达到当期 SOTA,超越 Gemini 3 Pro 与 Claude Sonnet 4.5 等国际模型[19]
|
|||
|
|
- 支持 Rust、Java、Golang、C++、TypeScript、Kotlin、Objective‑C 等主流语言[20]
|
|||
|
|
- 以 **约10B激活参数** 达到高性能,重点优化推理效率与工程可用性,而非单纯堆规模[21]
|
|||
|
|
|
|||
|
|
**开源与生态:**
|
|||
|
|
|
|||
|
|
- 官方宣布“**正式开源**”,并在 Hugging Face、ModelScope、GitHub 全面上架
|
|||
|
|
- 获得 vLLM **Day‑0 支持**,开发者发布当日即可接入高效推理[21]
|
|||
|
|
|
|||
|
|
**意义:**
|
|||
|
|
|
|||
|
|
- 在MiniMax冲刺港股IPO时间点,M2.1 作为技术名片,展示“**工程向 / Coding向 SOTA**”的能力;
|
|||
|
|
- 与GLM‑4.7共同塑造“中国开源代码大模型”的国际名片。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 6. 智谱AI:GLM‑4.7(12月23日)
|
|||
|
|
|
|||
|
|
**定位与发布时间:**
|
|||
|
|
|
|||
|
|
- 2025年12月23日,智谱发布并完全开源新一代旗舰大模型 **GLM‑4.7**[22]
|
|||
|
|
- 官方定位为“**高性能 + 高性价比的全场景智能体模型**”,特别强化 **Coding、长程任务规划与工具协同**。
|
|||
|
|
|
|||
|
|
**关键成绩:**
|
|||
|
|
|
|||
|
|
- 在全球百万开发者参与的 **Code Arena 编码盲测评估中**:
|
|||
|
|
- GLM‑4.7 排名 **开源第一、国产第一**,**综合成绩超过 GPT‑5.2**[22][23]
|
|||
|
|
- 在 LMArena、WebDev 等榜单中多项编码/工程指标跃升,成为开源 SOTA[24]
|
|||
|
|
|
|||
|
|
**技术与生态:**
|
|||
|
|
|
|||
|
|
- 采用 **358B 参数混合专家(MoE)架构**,在复杂推理、工具协同上做系统性优化[23]
|
|||
|
|
- 已在 BigModel.cn、z.ai 平台与 Claude Code、TRAE 等IDE集成,支持“先思考后行动”的编码工作流[23][24]
|
|||
|
|
|
|||
|
|
**意义:**
|
|||
|
|
|
|||
|
|
- 对智谱而言:
|
|||
|
|
- 是其冲刺“**全球大模型第一股**”(港股IPO)的**核心技术抓手**,并获得约 **29.84亿港元基石投资**支撑[25][26]
|
|||
|
|
- 对生态而言:
|
|||
|
|
- 标志中国开源在“**工程生产力 / Vibe Coding / Coding Agent**”方向上正式超车头部闭源模型。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
## 二、2025年度大模型发展回顾与趋势总结
|
|||
|
|
|
|||
|
|
在看完12月这波“年终大招”之后,再回看整个2025年,可以清晰看到几个主线:
|
|||
|
|
|
|||
|
|
### 1. 训练范式:从“模仿人类”走向“可验证推理”
|
|||
|
|
|
|||
|
|
2025年被不少研究者(如Karpathy 年度总结[27])视为“大模型从复读机向推理机器转型”的关键一年,其核心在于:
|
|||
|
|
|
|||
|
|
- **RLVR(Reinforcement Learning from Verifiable Rewards,可验证奖励强化学习)**
|
|||
|
|
- 在数学、代码、逻辑题等“**可自动验算对错**”的领域,大量使用“模型自玩 + 自动打分”的方式训练推理能力;
|
|||
|
|
- DeepSeek‑R1、o 系列、V3.2‑Speciale 等都在这一范式下展现出超人类水平的题解与证明能力;
|
|||
|
|
- **代价是**:推理阶段计算和训练成本大幅增加,开始显著侵蚀原本用于纯预训练的算力预算,但换来更“像思考而不是背答案”的模型。
|
|||
|
|
|
|||
|
|
**结论:** 大模型不再只是“预测下一个词”,而是在逐步构建“**可解释的中间思维链 + 策略探索**”。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 2. 应用范式:从“聊天机器人”走向“智能体(Agent)”
|
|||
|
|
|
|||
|
|
2025年可以被称为 **AI Agent 元年**:
|
|||
|
|
|
|||
|
|
- 代表性事件:
|
|||
|
|
- Claude Code 的本地代理模式;
|
|||
|
|
- GPT‑5.2 在智能体工具调用上的系统化增强;
|
|||
|
|
- DeepSeek‑V3.2 将“思考模式”首次融入工具调用;
|
|||
|
|
- 豆包 1.8 明确定位“多模态Agent大脑”;
|
|||
|
|
- MiniMax M2.1、GLM‑4.7 在“Agentic Coding / 终端自动化”方面表现突出。
|
|||
|
|
|
|||
|
|
**关键特征:**
|
|||
|
|
|
|||
|
|
- 不再只是理解和生成语言,而是:
|
|||
|
|
- 能**在复杂环境中多轮调用工具**;
|
|||
|
|
- 能形成任务规划 DAG(先搜索、再分析、再生成报告…);
|
|||
|
|
- 能持续执行长任务,支持**数百轮工具调用与上下文记忆**。
|
|||
|
|
|
|||
|
|
**对普通用户和企业的影响:**
|
|||
|
|
|
|||
|
|
- 个体侧:从“和模型对话”变成“把活交给模型干”(写代码、查资料、做PPT、跑报表)
|
|||
|
|
- 企业侧:越来越多实际工作流开始以“**智能体编排层**”为核心,如客服、运营、财务分析、研发辅助等。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 3. 模型形态:开源崛起 vs 闭源巩固
|
|||
|
|
|
|||
|
|
2025年的一个结构性变化,是“**中国开源 vs 美国闭源**”格局的成型并开始反向输出[28][29]:
|
|||
|
|
|
|||
|
|
- **美国阵营**:
|
|||
|
|
- OpenAI、Anthropic、Google 主力模型逐步收紧权重与训练细节,以闭源高价SaaS/API为主;
|
|||
|
|
- Meta在经历开源 LLaMA 系列后,开始筹划更闭源的“超智能实验室”与Avocado等下一代模型[30]。
|
|||
|
|
- **中国阵营**:
|
|||
|
|
- DeepSeek‑V3/V3.2、R1 系列;
|
|||
|
|
- 阿里通义 Qwen 系列;
|
|||
|
|
- 智谱 GLM‑4.7;
|
|||
|
|
- MiniMax M2.1 等,形成了**开源高性能矩阵**。
|
|||
|
|
- 斯坦福、a16z 等机构的数据表明:**中国开源模型在全球调用中占比已从2024年末的约1.2%飙升到接近30%**[31][32]。
|
|||
|
|
|
|||
|
|
**长远影响:**
|
|||
|
|
|
|||
|
|
- 开发者与中小企业在成本、可控性、可本地化部署方面强烈倾向开源,中国模型在 **Hugging Face / OpenRouter** 等平台频繁登顶;
|
|||
|
|
- 中国成为“**开源AI的主引擎**”,而美国继续在闭源“天花板模型”上保有领先。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 4. 商业与资本:从“烧钱造模”到“价值兑现”和IPO
|
|||
|
|
|
|||
|
|
资本层面也出现明显分化:
|
|||
|
|
|
|||
|
|
- **基础大模型层**:
|
|||
|
|
- 投资笔数与金额 **同比下降**,模型公司融资趋于头部集中(几家“基模五强”吸走大部分资金)[33];
|
|||
|
|
- 但头部公司仍有大额融资与IPO:
|
|||
|
|
- 智谱AI:2025年12月通过港交所聆讯,12月30日启动招股,募资规模约 **43亿港元**,2026年1月8日挂牌,被称为“全球大模型第一股”[25][26]
|
|||
|
|
- MiniMax:2025年12月21日公布聆讯后资料,12月31日定价,2026年1月9日上市,首日市值突破千亿港元[34]
|
|||
|
|
- **应用侧**:
|
|||
|
|
- 以“AI应用”“智能体平台”“具身智能机器人”等为代表的公司融资事件显著 **多于** 模型公司,证明市场开始押注“**用AI赚钱**”而非“再造一个基础模型”。
|
|||
|
|
|
|||
|
|
**整体趋势:** 2025年被不少报告视为“**AI应用元年**”,大模型从讲故事转向对实际营收与降本增效负责。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
### 5. 监管与治理:全球进入“硬约束时代”
|
|||
|
|
|
|||
|
|
- 中国:
|
|||
|
|
- 《生成式人工智能服务管理暂行办法》落地,明确备案要求,截至2025年12月31日已有 **748款生成式AI服务完成备案、435款应用/功能登记**[35];
|
|||
|
|
- 2025年9月1日,《人工智能生成合成内容标识办法》正式实施,对所有AIGC内容强制打水印和元数据标识[36]。
|
|||
|
|
- 欧洲与美国:
|
|||
|
|
- 欧盟《AI 法案》罚款机制落地,“**天价罚款 + 强审查**”正式生效;
|
|||
|
|
- 美国在国防与政府应用侧加强安全管控,但在商业创新方面仍以行业自律和诉讼为主。
|
|||
|
|
|
|||
|
|
**总体态势:** 全球逐渐从“**野蛮生长**”转向“**有侧栏的高速公路**”,企业在部署大模型和智能体时,需要把“合规、安全、隐私”前置考虑。
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
## 三、给你的“可执行理解”:如何看待 2025年12月与2025全年
|
|||
|
|
|
|||
|
|
如果用一句话概括:
|
|||
|
|
|
|||
|
|
> **2025年,技术上是“推理与Agent的一年”,生态上是“中国开源崛起的一年”,商业上是“从PPT到利润表的拐点”,而12月是这三条线同时收官且集中爆发的月份。**
|
|||
|
|
|
|||
|
|
你可以从三个层面记住 2025年12月:
|
|||
|
|
|
|||
|
|
1. **产品层**:
|
|||
|
|
|
|||
|
|
- GPT‑5.2、Gemini 3 Flash 把“闭源高端+轻量低价”的组合推向极致;
|
|||
|
|
- DeepSeek‑V3.2、GLM‑4.7、MiniMax M2.1、豆包 1.8 则代表了“中国开源+多模态+Agent+coding”的系统化应对。
|
|||
|
|
2. **工程与开发者视角**:
|
|||
|
|
|
|||
|
|
- 今年之后,“**写代码的人需要一个 Coding Agent**”基本会变成事实标准;
|
|||
|
|
- 对企业而言,大模型选择不再只是“谁分数高”,而是:
|
|||
|
|
- 总拥有成本(TCO)
|
|||
|
|
- 是否可本地化部署
|
|||
|
|
- 是否支持复杂Agent工作流
|
|||
|
|
- 是否符合法规与行业合规要求。
|
|||
|
|
3. **战略视角**:
|
|||
|
|
|
|||
|
|
- 2023–2024 是“大模型造神期”,2025 是“**回到现实与规模化落地**”的一年;
|
|||
|
|
- 2025年12月,一边是 GPT‑5.2、Gemini 3 Flash 这样的闭源旗舰与轻量王者,一边是 DeepSeek‑V3.2、GLM‑4.7、M2.1 这样的开源 SOTA——
|
|||
|
|
**“闭源 vs 开源、美国 vs 中国、天价算力 vs 极致性价比”** 三组矛盾在这个月全部对齐到了一个平面上。
|
|||
|
|
|
|||
|
|
如果你需要进一步落地到实践(例如:技术选型、学习路线或企业接入策略),可以在此基础上细化为:
|
|||
|
|
|
|||
|
|
- 通用智能与专业工作:优先关注 GPT‑5.2 / GPT‑5.2‑Codex
|
|||
|
|
- 多模态与视频场景:豆包 1.8、Gemini 3 系列
|
|||
|
|
- 开源 + 代码 + Agent:DeepSeek‑V3.2、GLM‑4.7、MiniMax M2.1
|
|||
|
|
- 成本敏感 + 本地部署:优先考虑中国开源权重模型(DeepSeek / GLM / Qwen / M2.1 等)
|
|||
|
|
|
|||
|
|
---
|
|||
|
|
|
|||
|
|
**References**
|
|||
|
|
|
|||
|
|
[1] 隆重推出GPT‑5.2. [https://openai.com/zh-Hans-CN/index/introducing-gpt-5-2/](https://openai.com/zh-Hans-CN/index/introducing-gpt-5-2/)
|
|||
|
|
[2] GPT-5.2 全面解析. [https://cloud.tencent.com/developer/article/2608423](https://cloud.tencent.com/developer/article/2608423)
|
|||
|
|
[3] GPT-5.2发布分析. [https://www.infoq.cn/article/drb6mxayutswarnsbyl7](https://www.infoq.cn/article/drb6mxayutswarnsbyl7)
|
|||
|
|
[4] 奥尔特曼:OpenAI GPT-5.2 API上线首日tokens超万亿. [https://www.sohu.com/a/964847809_362225](https://www.sohu.com/a/964847809_362225)
|
|||
|
|
[5] Trae国际版更新,接入GPT-5.2模型. [https://blog.csdn.net/2401_88722750/article/details/156020844](https://blog.csdn.net/2401_88722750/article/details/156020844)
|
|||
|
|
[6] GPT-5.2震撼发布. [https://blog.csdn.net/qq_41797451/article/details/155855065](https://blog.csdn.net/qq_41797451/article/details/155855065)
|
|||
|
|
[7] DeepSeek-V3.2正式版及高计算版发布. [http://www.news.cn/tech/20251202/f3b11a9de6d54f88887b27b1427b31c0/c.html](http://www.news.cn/tech/20251202/f3b11a9de6d54f88887b27b1427b31c0/c.html)
|
|||
|
|
[8] DeepSeek-V3.2正式版发布:强化Agent能力,融入思考推理. [https://so.html5.qq.com/page/real/search_news?docid=70000021_170692d79e369652](https://so.html5.qq.com/page/real/search_news?docid=70000021_170692d79e369652)
|
|||
|
|
[9] DeepSeek‑V3.2新特性介绍. [https://blog.csdn.net/m0_53830442/article/details/155731122](https://blog.csdn.net/m0_53830442/article/details/155731122)
|
|||
|
|
[10] 长文本推理提速2-3倍:DeepSeek-V3.2-Exp DSA机制实测. [https://blog.csdn.net/2501_93893000/article/details/154286701](https://blog.csdn.net/2501_93893000/article/details/154286701)
|
|||
|
|
[11] 2025 LLM 技术报告(11):DeepSeek‑V3.2. [https://zhuanlan.zhihu.com/p/1979678585833952663](https://zhuanlan.zhihu.com/p/1979678585833952663)
|
|||
|
|
[12] 谷歌发布Gemini 3 Flash,口述即原型. [https://new.qq.com/rain/a/20251218A03FGQ00](https://new.qq.com/rain/a/20251218A03FGQ00)
|
|||
|
|
[13] Gemini 3 Flash深度解析. [https://blog.csdn.net/nmdbbzcl/article/details/156065973](https://blog.csdn.net/nmdbbzcl/article/details/156065973)
|
|||
|
|
[14] AI定价战:Gemini 3 Flash如何以1/5价格挑战行业格局. [https://blog.csdn.net/qq_32420383/article/details/156233748](https://blog.csdn.net/qq_32420383/article/details/156233748)
|
|||
|
|
[15] 连月挑战OpenAI!谷歌发布更高效Gemini 3 Flash. [https://wallstreetcn.com/articles/3761592](https://wallstreetcn.com/articles/3761592)
|
|||
|
|
[16] 火山引擎发布豆包大模型1.8,多模态Agent能力进入全球第一梯队. [https://new.qq.com/rain/a/20251218A03UXI00](https://new.qq.com/rain/a/20251218A03UXI00)
|
|||
|
|
[17] 豆包大模型1.8发布:三大能力显著增强. [https://www.163.com/dy/article/KH2VAP6T0511CPVM.html](https://www.163.com/dy/article/KH2VAP6T0511CPVM.html)
|
|||
|
|
[18] 豆包大模型1.8发布,日均tokens超50万亿. [https://tech.gmw.cn/2025-12/18/content_38485511.htm](https://tech.gmw.cn/2025-12/18/content_38485511.htm)
|
|||
|
|
[19] 实测MiniMax M2.1之后,我们终于看懂其招股书里的技术底气. [https://so.html5.qq.com/page/real/search_news?docid=70000021_016694ba2f293152](https://so.html5.qq.com/page/real/search_news?docid=70000021_016694ba2f293152)
|
|||
|
|
[20] MiniMax发布M2.1大语言模型. [https://so.html5.qq.com/page/real/search_news?docid=70000021_503694bbc6336252](https://so.html5.qq.com/page/real/search_news?docid=70000021_503694bbc6336252)
|
|||
|
|
[21] MiniMax-M2.1:开源时代的生产级多语言编程与智能体模型. [https://zhuanlan.zhihu.com/p/1988139960218437023](https://zhuanlan.zhihu.com/p/1988139960218437023)
|
|||
|
|
[22] 国产大模型新高地:GLM-4.7发布,代码生成登顶开源界. [https://new.qq.com/rain/a/20251223A060PI00](https://new.qq.com/rain/a/20251223A060PI00)
|
|||
|
|
[23] 智谱上线并开源GLM-4.7. [https://so.html5.qq.com/page/real/search_news?docid=70000021_134694a355770552](https://so.html5.qq.com/page/real/search_news?docid=70000021_134694a355770552)
|
|||
|
|
[24] GLM-4.7编程能力开源第一. [https://so.html5.qq.com/page/real/search_news?docid=70000021_580695153b357852](https://so.html5.qq.com/page/real/search_news?docid=70000021_580695153b357852)
|
|||
|
|
[25] 2025年12月AI领域投融资分析. [https://so.html5.qq.com/page/real/search_news?docid=70000021_132695a4fd090952](https://so.html5.qq.com/page/real/search_news?docid=70000021_132695a4fd090952)
|
|||
|
|
[26] 智谱AI发行价116.2港元,1月8日挂牌港交所. [https://so.html5.qq.com/page/real/search_news?docid=70000021_6606953296343952](https://so.html5.qq.com/page/real/search_news?docid=70000021_6606953296343952)
|
|||
|
|
[27] AI大神卡帕西发布2025年度总结. [https://so.html5.qq.com/page/real/search_news?docid=70000021_15869476f4128252](https://so.html5.qq.com/page/real/search_news?docid=70000021_15869476f4128252)
|
|||
|
|
[28] 中国AI开源 vs 美国AI闭源. [https://www.163.com/dy/article/KI113QBL0514B2AC.html](https://www.163.com/dy/article/KI113QBL0514B2AC.html)
|
|||
|
|
[29] 2025大模型最全复盘. [https://hub.baai.ac.cn/view/51654](https://hub.baai.ac.cn/view/51654)
|
|||
|
|
[30] AI纪元2025终章:开源革命、监管铁幕与人类主体性的觉醒. [https://blog.csdn.net/baidu_34159046/article/details/155986465](https://blog.csdn.net/baidu_34159046/article/details/155986465)
|
|||
|
|
[31] 中美AI角逐新变局:中国开源模型在美使用率飙升至30%. [https://so.html5.qq.com/page/real/search_news?docid=70000021_7426948b41617452](https://so.html5.qq.com/page/real/search_news?docid=70000021_7426948b41617452)
|
|||
|
|
[32] 深度丨国内开源AI份额增至30%. [https://m.ofweek.com/ai/2025-12/ART-201700-8110-30676633.html](https://m.ofweek.com/ai/2025-12/ART-201700-8110-30676633.html)
|
|||
|
|
[33] 2025一级市场回顾:基础大模型进入“冷静期”. [https://finance.sina.com.cn/stock/vcpe/yc/2026-01-09/doc-inhfssrt5959093.shtml](https://finance.sina.com.cn/stock/vcpe/yc/2026-01-09/doc-inhfssrt5959093.shtml)
|
|||
|
|
[34] MiniMax:在港上市拟发行逾2500万股. [https://new.qq.com/rain/a/20251231A01A6W00](https://new.qq.com/rain/a/20251231A01A6W00)
|
|||
|
|
[35] 截至2025年12月31日累计748款生成式人工智能服务完成备案. [https://so.html5.qq.com/page/real/search_news?docid=70000021_2576960e0cd46352](https://so.html5.qq.com/page/real/search_news?docid=70000021_2576960e0cd46352)
|
|||
|
|
[36] 盘点 2025年多国AI影像监管治理的侧重差异. [https://www.sohu.com/a/974643262_121119372](https://www.sohu.com/a/974643262_121119372)
|