306 lines
21 KiB
Markdown
306 lines
21 KiB
Markdown
# 2025年2月大模型发布更新与发展回顾总结
|
||
|
||
> 聚焦 2025 年 2 月这一时间点,梳理全球主流大模型的版本更新、技术走向和行业格局变化,帮助你快速把握“这一月到底发生了什么”,以及它对后续发展的意义。
|
||
|
||
---
|
||
|
||
## 一、2 月核心版本发布一览
|
||
|
||
### 1. OpenAI:o3‑mini 轻量级推理模型
|
||
|
||
- **时间**:2025 年 2 月 1 日
|
||
- **定位**:o 系列中的“小钢炮”,主打**推理能力 + 性价比**
|
||
- **关键更新**:
|
||
- 首次向 **ChatGPT 免费用户**开放推理模型,可在对话中选择“推理模式”使用 o3‑mini[1][2]。
|
||
- 支持 **低 / 中 / 高** 三档“推理努力程度”,开发者可按场景在**速度 vs 准确度**之间动态权衡[1][2][3]。
|
||
- 在 AIME 2024 数学竞赛基准中:
|
||
- 低强度:与 o1‑mini 相当
|
||
- 中强度:与 o1 持平
|
||
- 高强度:准确率最高可达 ~87.3%,**明显超越 o1 / o1‑mini**[2][3]。
|
||
- 在博士级科学问题(GPQA Diamond)上,多档推理强度下准确率 70%–79% 区间,较前代有显著提升[3]。
|
||
- 平均响应时间比 o1‑mini 快约 **24%**,首 token 延迟缩短约 2.5 秒[3]。
|
||
- 支持**联网搜索**与**思维链展示**,可以把中间推理过程“摊开给用户看”[1][4]。
|
||
|
||
> **影响**:
|
||
> o3‑mini 把“强推理 + 显式思维链”拉到了免费层,对标 DeepSeek‑R1 的高性价比策略,宣告推理模型从高端实验品走向大众基础能力。
|
||
|
||
---
|
||
|
||
### 2. Google:Gemini 2.0 全系列开放
|
||
|
||
- **时间**:2025 年 2 月 5–6 日
|
||
- **发布内容**:
|
||
- **Gemini 2.0 Flash**
|
||
- 面向高频、大规模调用场景的“主力模型”
|
||
- 支持 **100 万 token 上下文窗口**,原生多模态(文本、图像、音频、视频)理解与生成[5][6]
|
||
- 相比 1.5 Pro,**速度翻倍**,关键基准测试性能反超 1.5 Pro[5][6]。
|
||
- **Gemini 2.0 Flash‑Lite**
|
||
- 强调“最具成本效益”,同样支持百万级上下文,更适合中小企业和大批量任务[5][7]。
|
||
- **Gemini 2.0 Pro Experimental**
|
||
- 谷歌当前**最强通用模型**:
|
||
- 上下文窗口 **200 万 token**[8][9]
|
||
- 在 MMLU‑Pro 等综合基准中,得分**超过 DeepSeek‑V3,略低于 DeepSeek‑R1**[9]
|
||
- 深度整合 Google 搜索与代码执行,强化**世界知识推理 + 编程能力**[8][10]。
|
||
- **Gemini 2.0 Flash Thinking**(推理增强版)
|
||
- 基于 Flash 训练,引入“思维链可视化”,会将复杂问题拆解为一系列步骤[5][11]
|
||
- 支持 **100 万 token 长上下文**,在 Chatbot Arena 推理相关榜单名列前茅[11]。
|
||
|
||
> **影响**:
|
||
> 谷歌以 2.0 全家桶正面回应 DeepSeek‑R1 与 OpenAI o3‑mini 的挑战:
|
||
>
|
||
> - 在 **长上下文 + 多模态 + 编程** 上建立明显优势;
|
||
> - 用 Flash‑Lite 降价对冲国产高性价比开源冲击。
|
||
|
||
---
|
||
|
||
### 3. DeepSeek:R1 持续发酵与“开源周”
|
||
|
||
#### 3.1 R1 推理大模型的持续扩散
|
||
|
||
- **发布时间回顾**:2025 年 1 月 20 日正式发布并开源权重[12]。
|
||
- **架构与规模**:
|
||
- 基于 DeepSeek‑V3 的 **MoE 架构**,总参数约 **6710 亿**,单次推理仅激活约 **370 亿参数**[13][14]。
|
||
- **性能**:
|
||
- 在数学、代码、自然语言推理等任务上**对标 OpenAI o1 正式版**[12][15]。
|
||
- **成本与定价**:
|
||
- 训练成本官方披露仅 **约 $5.6 百万**,远低于同级闭源模型(行业估计 GPT‑4 / GPT‑4o 在 $50–78M 级别)[16][17]。
|
||
- API 价格:
|
||
- 输入:每百万 token 1 元(缓存命中)/ 4 元(未命中)
|
||
- 输出:每百万 token 16 元
|
||
- 相比 o1 低 **27–55 倍**[12]。
|
||
- **生态扩散(2 月重点事件)**:
|
||
- 百度智能云等国内云平台陆续上架 R1/V3 模型,并给出超低价与限时免费服务[18]。
|
||
- 微信、百度搜索等接入 DeepSeek 能力,用户侧体验迅速普及[19]。
|
||
- 2 月中旬,DeepSeek‑R1 应用日活跃用户突破 **2000–3000 万**,成为继 ChatGPT 之后增速最快的 AI 产品之一[20]。
|
||
|
||
#### 3.2 2 月 24–28 日“开源周”
|
||
|
||
- **活动时间**:2025 年 2 月 24–28 日
|
||
- **连续开源五大核心组件**[21][22]:
|
||
1. **FlashMLA(2 月 24 日)**
|
||
- 针对 NVIDIA Hopper GPU(如 H800)优化的高效 MLA 解码内核
|
||
- 在 H800 上实现 **3000 GB/s 内存带宽、580 TFLOPS** 计算性能
|
||
- 通过低秩压缩使 KV Cache 显存占用降至传统方法的 5%–13%[21]。
|
||
2. **DeepEP(2 月 25 日)**
|
||
- 面向 MoE + Expert Parallelism 的通信库
|
||
- 支持 NVLink 和 RDMA,优化 all‑to‑all 通信,显著提升 MoE 训练与推理吞吐[22]。
|
||
3. **DeepGEMM(2 月 26 日)**
|
||
- 高效 FP8 GEMM 库,在 Hopper GPU 上可达 1350+ TFLOPS
|
||
- 核心逻辑仅 ~300 行代码,却在多数矩阵规模上优于专家手写 kernel[21][22]。
|
||
4. **DualPipe & EPLB(2 月 27 日)**
|
||
- DualPipe:计算通信重叠的双向流水线并行算法
|
||
- EPLB:MoE 负载均衡优化策略。
|
||
5. **3FS 文件系统(2 月 28 日)**
|
||
- 面向 V3/R1 训练与推理的数据访问系统,针对 SSD + RDMA 等硬件深度优化[21][23]。
|
||
|
||
> **影响**:
|
||
> DeepSeek 从“开源模型”进一步升级为“开源整条算力优化链路”,在全球首次把顶级工程优化细节(解码内核、EP通信、GEMM 内核、文件系统)系统性公开,极大降低全球开发高性能大模型的门槛,也为国产 GPU 生态提供了现成适配路线。
|
||
|
||
---
|
||
|
||
### 4. xAI:Grok 3 —— 极致堆算力的“推理怪兽”
|
||
|
||
- **时间**:2025 年 2 月 18 日
|
||
- **硬件规模**:
|
||
- 训练使用约 **20 万张 NVIDIA H100 GPU**,总 GPU 小时在 2 亿量级[24][25]。
|
||
- 依托名为 **Colossus** 的超级计算集群,单日耗电量接近中型城市[24][26]。
|
||
- **性能表现**:
|
||
- 在 AIME 2025 数学基准测试中取得 **93 分**,在 GPQA(博士级物理、生物、化学)中得分约 75 分[27]。
|
||
- xAI 声称在数学推理、科学逻辑、代码生成等核心领域**全面超越 DeepSeek‑V3、GPT‑4o、Gemini 2.0 Pro 等主流模型**[24][27]。
|
||
- 在 Chatbot Arena 排行中早期版本曾拿到 1402 分,短暂登顶[28]。
|
||
- **模型族结构**:
|
||
- Grok‑3、Grok‑3 mini,以及 Grok‑3 Reasoning / mini Reasoning 推理变体[29]。
|
||
- **技术路线**:
|
||
- 结合**思维链推理**、自我纠错与强化学习,强调“追求极致真实”的输出风格[30]。
|
||
|
||
> **影响**:
|
||
> Grok 3 用极端算力证明“堆算力仍然有效”,在推理性能上拉高天花板,但也暴露出与 DeepSeek 这种“低成本高性能”路线之间的巨大成本差距——这恰好凸显了未来 AI 行业将在“极致性能 vs 极致效率”两条路线上长期并存。
|
||
|
||
---
|
||
|
||
### 5. Inception Labs:Mercury —— 首个商业级扩散大语言模型(dLLM)
|
||
|
||
- **时间**:2025 年 2 月 27 日
|
||
- **技术范式**:
|
||
- 不是传统自回归(一个 token 接一个 token,从左到右生成),而是**扩散式生成**:
|
||
- 从噪声开始,一次性向所有方向预测,通过多步“去噪”逐步细化输出[31][32]。
|
||
- 本质上把图像扩散模型(如 MidJourney、Sora)的思想搬到文本上,实现**并行化文本生成**。
|
||
- **性能特点**:
|
||
- 在 NVIDIA H100 上每秒可生成 **>1000 token**,比同量级自回归 LLM **快 5–10 倍**,对 GPT‑4o‑mini、Claude 3.5 Haiku 等速度模型形成压制[31][33]。
|
||
- 推理成本预计降低 **5–10 倍**,更适合作为高并发在线服务引擎[31][34]。
|
||
- 首发方向为 **Mercury Coder**(代码生成),在多项编程基准上超过 GPT‑4o‑mini 等对手[31][33]。
|
||
- **关键创新**:
|
||
- 动态去噪调度:任务简单时减少迭代步数以提速,复杂任务保留更多步数提升精度[31]。
|
||
- “粗到精”生成过程 + 并行修改多个 token 的 Transformer 模块,减少错误与幻觉[32]。
|
||
|
||
> **影响**:
|
||
> Mercury 标志着“扩散 LLM”从论文走向商业化,把**生成速度**与**算力效率**推到了一个新高度,也预示未来文本生成不一定必须依赖 Transformer 自回归范式。
|
||
|
||
---
|
||
|
||
## 二、2025 年 2 月大模型发展回顾:几条关键主线
|
||
|
||
### 1. 推理为王:从“会说话”到“会思考”
|
||
|
||
2 月的所有主角——o3‑mini、Gemini 2.0 Flash Thinking、DeepSeek‑R1、Grok 3、Mercury——无一例外都在强调一个词:**Reasoning(推理)**。
|
||
|
||
- **方法层面**:
|
||
- OpenAI、Google 采用“**测试时计算(Test‑time Compute)+ 思维链**”模式:
|
||
通过增加推理时的计算步数换取更高准确率,并让模型显式展示思考过程。
|
||
- DeepSeek R1 通过**纯强化学习(RL)+ 少量冷启动数据**提升推理能力,证明“少标注也能练出强推理”。
|
||
- Mercury 则用扩散范式实现“粗到精”的多步修正,本质上也是一种“反思 + 修正”的推理过程。
|
||
|
||
> **结论**:
|
||
> 2025 年 2 月,大模型的竞争焦点从“通用对话能力”明显转向“复杂推理能力”,**推理已经成为衡量高端模型的第一指标**。
|
||
|
||
---
|
||
|
||
### 2. 效率革命:高性能不再等于高成本
|
||
|
||
这一月最鲜明的对比,是 **DeepSeek‑R1 vs Grok 3 vs Mercury**:
|
||
|
||
- DeepSeek‑R1:
|
||
- 用约 $5–6M 的训练成本,做到接近 o1 的推理能力;API 价格压到国际闭源模型的几十分之一。
|
||
- Grok 3:
|
||
- 用 20 万张 H100 堆出极致性能,但算力消耗是 DeepSeek‑V3 的数百倍,单模型能耗级别接近一座城市。
|
||
- Mercury:
|
||
- 通过扩散范式和并行生成,把推理速度拉到自回归 LLM 的 5–10 倍,同时大幅降低推理成本。
|
||
|
||
> **对开发者意味着什么?**
|
||
>
|
||
> - 未来做产品,不一定非要追求“最强模型”,而是要在**性能 / 成本 / 延迟**之间设计合适的**效率前沿**。
|
||
> - DeepSeek 与 Mercury 的出现,使“**低成本获得 GPT‑4 级甚至更优体验**”成为现实,对中小团队极度友好。
|
||
|
||
---
|
||
|
||
### 3. 开源普惠:从“开源权重”到“开源整条堆栈”
|
||
|
||
- DeepSeek 在 2 月的“开源周”把**解码内核、通信库、GEMM 内核、文件系统**都开源出来,相当于把训练和部署顶级大模型的工程 Know‑how 整套摆到台面上。
|
||
- 阿里通义千问在 2 月宣告更大规模的模型(如 QwQ‑Max、未来的 Qwen3 系列)在 Apache‑2.0 许可下开源。
|
||
- 百度宣布文心大模型 4.5 系列将在 6 月 30 日起开源,并在 2 月 13 日宣布**文心一言 4 月起全面免费**。
|
||
|
||
> **行业反馈**:
|
||
>
|
||
> - IDC 等机构预测,到 2025 年将有 **55% 以上企业选择开源基础模型**作为应用底座。
|
||
> - 对闭源巨头而言,Must‑Have 不再是“最强性能”,而是“在强性能的同时,**证明自己值得付费**”。
|
||
|
||
---
|
||
|
||
### 4. Agent 元年:大模型真正开始“干活”
|
||
|
||
2 月的大量新闻都在指向一个共识:**2025 年将是 AI Agent 商业化元年**。
|
||
|
||
- OpenAI 推出 **Operator**,开始把 ChatGPT 的能力封装成可编排的任务执行体。
|
||
- 微软、Salesforce 等在企业侧大规模推广面向办公、客服、销售的 Agent 方案。
|
||
- 国内:
|
||
- 腾讯“元宝 + 元器”、字节飞书 + 豆包、阿里通义 Agent 平台,都在以“**大模型 + 工具调用 + 记忆**”重构企业流程。
|
||
- 券商与咨询机构一致预判:**Agent 将是 2025–2027 年 AI 收入主要增量来源**。
|
||
|
||
> **工程侧落地建议**:
|
||
>
|
||
> - 新项目不必再把大模型只当成“聊天接口”,而应从一开始就围绕 **Agent 架构**设计:
|
||
> - 明确拆分:LLM 负责“理解+决策”,工具负责“执行”,存储负责“记忆”;
|
||
> - 在选型时优先考虑“**推理强 / 支持工具调用 / 支持长上下文**”的模型(如 R1、o3‑mini、Gemini 2.0 Pro / Flash Thinking)。
|
||
|
||
---
|
||
|
||
### 5. 监管与风险:从“野蛮生长”走向“强监管 + 高质量”
|
||
|
||
- 中国在 2 月 22 日发布 2025 年“清朗行动”方案,将整治 AI 滥用列为重点之一,要求:
|
||
- 所有 AI 生成内容**强制标识**;
|
||
- 平台需建立“技术 + 人工”双重审核,未标注的 AI 内容一律下架,严重者封号[35]。
|
||
- 同期,AI 医疗、AI 金融等领域的专项法规和沙盒机制在加速落地。
|
||
|
||
> **提示**:
|
||
>
|
||
> - 对国内团队来说,“合规工程”将成为与“模型工程”同等重要的一环。
|
||
> - 从 2025 年起,在 To B / To G 场景中,**可追溯性、可审计性和内容标识**不再是“加分项”,而是准入门槛。
|
||
|
||
---
|
||
|
||
## 三、面向实践的几点建议
|
||
|
||
结合 2025 年 2 月的最新格局,如果你在做或准备做大模型相关项目,可以参考如下路径:
|
||
|
||
1. **模型选型**
|
||
|
||
- 若项目主打复杂推理(数学、代码、科学计算):
|
||
- 优先考虑:DeepSeek‑R1(开源 + 低成本)、o3‑mini(国际生态 + 免费入口)、Gemini 2.0 Flash Thinking / Pro。
|
||
- 若重视速度与并发:
|
||
- 可关注:Gemini 2.0 Flash / Flash‑Lite、Mercury dLLM(尤其在代码生成类产品)。
|
||
- 若需要本地部署 / 私有化:
|
||
- 重点考虑:DeepSeek‑R1 蒸馏版本、QwQ‑32B 等可在消费级显卡或国产芯片上运行的模型。
|
||
2. **系统架构**
|
||
|
||
- 从一开始就按 **Agent 架构**设计系统,而不是把 LLM 当成简单 API:
|
||
- 大模型层(推理 + 规划)
|
||
- 工具层(搜索、数据库、RPA、业务系统)
|
||
- 记忆层(向量库 + 结构化知识库)
|
||
- 审计与合规层(日志、内容标识、行为追踪)。
|
||
3. **成本与算力规划**
|
||
|
||
- 优先利用 DeepSeek 等高性价比模型与开源算子(FlashMLA、DeepGEMM 等)优化推理成本。
|
||
- 对于云上部署,仔细评估“长上下文 + 推理增强”带来的 token 成本,不要盲目默认最高配置。
|
||
- 关注国产 GPU 与国产云平台的适配方案,提前预留迁移与多云策略空间。
|
||
4. **合规与风险控制**
|
||
|
||
- 在业务方案中预留 AI 内容标识、人工审核回路和可追溯日志。
|
||
- 金融、医疗、政务等高敏领域,务必采用“人机协同”模式,避免完全自动决策。
|
||
- 对开源模型和数据使用遵循相应 License(如 MIT、Apache‑2.0),避免后续商用侵权风险。
|
||
|
||
---
|
||
|
||
## 四、小结:2025 年 2 月的“拐点意义”
|
||
|
||
用一句话概括:
|
||
**2023 年是“对话大模型之年”,2024 年是“多模态之年”,而从 2025 年 2 月开始,大模型正式进入“推理 + 开源 + Agent + 效率”并行驱动的新阶段。**
|
||
|
||
- 推理能力被拉到 C 端免费层;
|
||
- 高性能不再必然意味着高成本;
|
||
- 最顶层的工程优化开始被系统性开源;
|
||
- Agent 从概念走向规模商业化落地;
|
||
- 监管从试探期步入“强约束 + 强执行”。
|
||
|
||
对个人开发者、中小团队和传统企业来说,2025 年 2 月之后的窗口期极为宝贵:
|
||
**这是第一次,顶级 AI 能力在性能、成本和可用性三个维度同时足够“接地气”。**
|
||
能否抓住这一波,很大程度上将决定未来 3–5 年在本行业里的 AI 竞争位置。
|
||
|
||
---
|
||
|
||
### References
|
||
|
||
[1] OpenAI 发布 o3‑mini 相关新闻. [https://new.qq.com/rain/a/20250201A041AJ00](https://new.qq.com/rain/a/20250201A041AJ00)
|
||
[2] OpenAI 推出 o3‑mini 推理模型性能报道. [https://juejin.cn/post/7466075000996577320](https://juejin.cn/post/7466075000996577320)
|
||
[3] o3‑mini AIME 与 GPQA 基准测试数据报道. [https://finance.sina.com.cn/roll/2025-02-01/doc-inehxsyk0147847.shtml](https://finance.sina.com.cn/roll/2025-02-01/doc-inehxsyk0147847.shtml)
|
||
[4] OpenAI o3‑mini 官方说明. [https://openai.com/zh-Hans-CN/index/openai-o3-mini/](https://openai.com/zh-Hans-CN/index/openai-o3-mini/)
|
||
[5] 谷歌发布 Gemini 2.0 系列新闻. [https://new.qq.com/rain/a/20250206A03ST800](https://new.qq.com/rain/a/20250206A03ST800)
|
||
[6] Gemini 2.0 Flash 模型技术解析. [https://blog.csdn.net/lycwhu/article/details/146163604](https://blog.csdn.net/lycwhu/article/details/146163604)
|
||
[7] Gemini 2.0 Flash‑Lite 发布与定价说明. [https://ai.google.dev/gemini-api/docs/changelog?hl=zh-cn](https://ai.google.dev/gemini-api/docs/changelog?hl=zh-cn)
|
||
[8] Gemini 2.0 Pro Experimental 模型详解. [https://www.datalearner.com/ai-models/pretrained-models/gemini_2_pro](https://www.datalearner.com/ai-models/pretrained-models/gemini_2_pro)
|
||
[9] 谷歌发布 Gemini 2.0 Pro 性能评测文章. [https://www.toutiao.com/article/7468268118503146022/](https://www.toutiao.com/article/7468268118503146022/)
|
||
[10] 谷歌 Gemini 2.0 技术与应用报道. [https://36kr.com/p/3154371643496969](https://36kr.com/p/3154371643496969)
|
||
[11] Gemini 2.0 Flash Thinking 模型介绍. [https://ai-bot.cn/gemini-2-0-flash-thinking/](https://ai-bot.cn/gemini-2-0-flash-thinking/)
|
||
[12] DeepSeek‑R1 发布相关新闻. [https://new.qq.com/rain/a/20250120A08S5U00](https://new.qq.com/rain/a/20250120A08S5U00)
|
||
[13] DeepSeek‑R1 技术架构解析. [https://zhuanlan.zhihu.com/p/24226643215](https://zhuanlan.zhihu.com/p/24226643215)
|
||
[14] DeepSeek MoE 参数规模说明. [https://www.ibm.com/cn-zh/think/insights/deepseek-breakthrough-is-a-win-for-innovation-and-accessibility](https://www.ibm.com/cn-zh/think/insights/deepseek-breakthrough-is-a-win-for-innovation-and-accessibility)
|
||
[15] DeepSeek‑R1 性能与 o1 对标报道. [https://so.html5.qq.com/page/real/search_news?docid=70000021_799678e531a43652](https://so.html5.qq.com/page/real/search_news?docid=70000021_799678e531a43652)
|
||
[16] DeepSeek 训练成本分析评论. [https://finance.sina.com.cn/tech/roll/2025-02-08/doc-ineitvcc9059877.shtml](https://finance.sina.com.cn/tech/roll/2025-02-08/doc-ineitvcc9059877.shtml)
|
||
[17] DeepSeek V3 训练成本报道. [http://www.news.cn/tech/20250207/f5d5fb35d6fb48bbb220e3438b682195/c.html](http://www.news.cn/tech/20250207/f5d5fb35d6fb48bbb220e3438b682195/c.html)
|
||
[18] DeepSeek‑R1/V3 上架百度智能云新闻. [https://so.html5.qq.com/page/real/search_news?docid=70000021_82967a0a92a86552](https://so.html5.qq.com/page/real/search_news?docid=70000021_82967a0a92a86552)
|
||
[19] 微信与百度接入 DeepSeek 报道. [https://www.sohu.com/a/860258368_121902920](https://www.sohu.com/a/860258368_121902920)
|
||
[20] DeepSeek 用户规模增长报道. [https://www.toutiao.com/w/1824121020179651/](https://www.toutiao.com/w/1824121020179651/)
|
||
[21] DeepSeek 开源周 FlashMLA/DeepGEMM 细节. [https://www.toutiao.com/w/1825453738006544/](https://www.toutiao.com/w/1825453738006544/)
|
||
[22] DeepSeek 开源周综述. [https://36kr.com/p/3186220751724681](https://36kr.com/p/3186220751724681)
|
||
[23] DeepSeek 开源周官方解读. [https://www.shaqiu.cn/article/4NDrLgzM9mx1](https://www.shaqiu.cn/article/4NDrLgzM9mx1)
|
||
[24] xAI 发布 Grok‑3 新闻. [https://new.qq.com/rain/a/20250218A07F8D00](https://new.qq.com/rain/a/20250218A07F8D00)
|
||
[25] Grok‑3 训练算力规模报道. [https://www.toutiao.com/article/7472979419808776730/](https://www.toutiao.com/article/7472979419808776730/)
|
||
[26] Grok‑3 能耗与数据中心规模分析. [https://www.stdaily.com/web/gdxw/2025-02/20/content_299010.html](https://www.stdaily.com/web/gdxw/2025-02/20/content_299010.html)
|
||
[27] Grok‑3 基准测试与性能解读. [https://www.toutiao.com/article/7473041735347454516/](https://www.toutiao.com/article/7473041735347454516/)
|
||
[28] Grok‑3 Chatbot Arena 排名报道. [https://new.qq.com/rain/a/20250218A07F8D00](https://new.qq.com/rain/a/20250218A07F8D00)
|
||
[29] Grok‑3 系列模型结构说明. [https://so.html5.qq.com/page/real/search_news?docid=70000021_10067b45a5729952](https://so.html5.qq.com/page/real/search_news?docid=70000021_10067b45a5729952)
|
||
[30] Grok‑3 技术分析文章. [https://www.sohu.com/a/863213566_121902920](https://www.sohu.com/a/863213566_121902920)
|
||
[31] Mercury dLLM 技术原理报道. [https://aitntnews.com/newDetail.html?newId=11806](https://aitntnews.com/newDetail.html?newId=11806)
|
||
[32] Mercury “粗到精”生成机制解析. [https://www.toutiao.com/w/1825259137981467/](https://www.toutiao.com/w/1825259137981467/)
|
||
[33] Mercury Coder 编程基准测试报道. [https://www.chinaz.com/ainews/15830.shtml](https://www.chinaz.com/ainews/15830.shtml)
|
||
[34] Mercury 模型效率与成本分析. [https://cloud.tencent.com/developer/article/2503621](https://cloud.tencent.com/developer/article/2503621)
|
||
[35] 中央网信办 2025 年“清朗行动”方案解读. [https://www.toutiao.com/article/7474119557109350947/](https://www.toutiao.com/article/7474119557109350947/) |