这周的新闻有一个共同特点:每一条都在说"AI 已经不是未来式了,它是现在进行时"。
AI 诊断罕见病的准确率超过了人类专科医生。华尔街投行说大多数人对即将到来的 AI 突破毫无准备。Meta 一口气发了四代自研芯片,要摆脱对 NVIDIA 的依赖。MCP 协议的服务器数量突破了一万。
不是某一个领域在加速,而是所有领域同时在加速。
我们一个一个说。
头条:DeepRare 诊断罕见病,准确率超过人类医生
这是本周最值得关注的一条新闻,不是因为它最"炸裂",而是因为它最"实在"。
DeepRare 是一个专门针对罕见病的 AI 诊断系统。在最新发表的临床对照研究中,它的诊断准确率达到了 64.4%,而参与对照的人类罕见病专科医生的准确率是 54.6%。
差距接近 10 个百分点。
这个数字为什么重要?因为罕见病诊断是医学中最难的领域之一。全球有超过 7000 种已知罕见病,影响约 3 亿人口。一个典型的罕见病患者从出现症状到获得正确诊断,平均需要 5-7 年,期间经历 7-8 个医生。原因很简单:大多数医生一辈子都见不到几例某种罕见病。
AI 的优势恰好在这里。它可以同时"记住"所有 7000 种罕见病的症状模式,不受个人经验的限制。
几个细节值得注意:
| 指标 | DeepRare | 人类专科医生 |
|---|---|---|
| 总体诊断准确率 | 64.4% | 54.6% |
| 首诊正确率 | 58.2% | 41.3% |
| 平均诊断用时 | ~3 分钟 | ~45 分钟 |
| 建议检查的精准度 | 72.1% | 68.4% |
首诊正确率的差距更大:58.2% vs 41.3%。这意味着 DeepRare 在第一次看到患者信息时就给出正确诊断的概率,比专科医生高出 17 个百分点。
这不是 AI 取代医生的故事。这是 AI 帮助医生不再漏诊的故事。想象一下:一个基层医院的全科医生,有了 DeepRare 的辅助,在罕见病诊断上可能比三甲医院的专科医生还准。这才是真正的"医疗资源均等化"。
Morgan Stanley 警告:2026 年 AI 突破,大多数人没准备好
Morgan Stanley 在本周发布了一份措辞罕见的研究报告,核心论点是:2026 年将出现一系列 AI 能力突破,而全球大多数企业和个人对此毫无准备。
报告提到的几个关键预测:
- AI Agent 将在 2026 年下半年进入大规模商用,不是"试点"级别,而是"替代现有工作流"级别
- AI 编码工具将导致软件开发行业出现结构性变化,初级开发者的供需关系首当其冲
- 多模态 AI 将彻底改变内容生产行业,图文、视频、音频的生产成本将降到现在的十分之一
有意思的是,Elon Musk 在报告发布后转发了其中一段,并加了一句:“This matches what we’re seeing internally at xAI.”
Morgan Stanley 建议企业现在就开始做三件事:
- 审计现有业务流程中哪些环节可以被 AI Agent 替代
- 重新评估人才结构,投资员工 AI 技能培训
- 将 AI 基础设施投入从"可选"升级为"战略级"
华尔街投行的研报通常措辞保守,用"可能"、“预期”、“或将"来对冲风险。这份报告直接用了"warning”。当最谨慎的一群人开始发出警告时,也许真的该认真对待了。
Meta 发布四代自研 AI 芯片:MTIA 300/400/450/500
Meta 本周公布了自研 AI 芯片的完整路线图,一口气展示了四代产品:MTIA 300、MTIA 400、MTIA 450、MTIA 500。
这是 Meta 减少对 NVIDIA 依赖的战略行动。目前 Meta 的 AI 训练和推理主要依赖 NVIDIA 的 GPU,每年在此项上的支出高达数百亿美元。
四代芯片的定位各有不同:
| 芯片 | 定位 | 主要用途 | 预计时间线 |
|---|---|---|---|
| MTIA 300 | 推理专用 | 广告排序、推荐系统 | 2026 H1 |
| MTIA 400 | 推理增强 | 大模型推理、多模态 | 2026 H2 |
| MTIA 450 | 训练入门 | 中等规模模型训练 | 2027 H1 |
| MTIA 500 | 全能旗舰 | 大规模训练 + 推理 | 2027 H2 |
Meta 的策略很清晰:先从推理侧切入(MTIA 300/400),因为推理工作负载相对可预测,适合用专用芯片优化。等推理芯片成熟后,再向训练侧扩展(MTIA 450/500)。
值得注意的是,Meta 并不打算完全替代 NVIDIA。据知情人士透露,Meta 的目标是将自研芯片占比提升到 30-40%,而不是 100%。这是一个务实的策略:自研芯片降成本,NVIDIA 芯片保性能前沿。
当你的客户开始自己造芯片的时候,你就知道你的定价权正在被侵蚀。NVIDIA 面临的挑战不是某一个竞争对手,而是所有大客户都在尝试减少对它的依赖。这个趋势不可逆。
Yann LeCun 的 AMI Labs:10 亿美元赌一个不同的方向
上期我们提到了 Yann LeCun 创办 AMI Labs 并融资 10.3 亿美元。这周有更多细节流出。
AMI Labs 的核心研究方向是世界模型(World Models)。和当前主流的大语言模型不同,世界模型的目标不是学习语言,而是学习物理世界的规律。
LeCun 的核心论点是:LLM 只能处理文本,而文本是对现实世界的一种高度压缩和有损的表示。一个只从文本中学习的 AI,永远不可能真正"理解"世界。
AMI Labs 的研究路线:
- 视觉先验学习:让 AI 从视频中学习物理规律(重力、碰撞、流体动力学)
- 多模态融合:不是"看图说话"那种简单的多模态,而是在底层表示上统一视觉、触觉、听觉信息
- 规划与推理:基于世界模型进行长程规划,而不是一步步地自回归生成
本周新披露的信息:
- AMI Labs 在巴黎和纽约设立了两个研究中心,计划 6 个月内招聘 100 名研究员
- 已经从 DeepMind、OpenAI、Meta FAIR 挖走了至少 12 名高级研究员
- 第一个公开 Demo 预计 2026 年 Q4 发布
10 亿美元的种子轮,押注一个和整个 LLM 行业反着来的方向。如果 LeCun 是对的,我们现在做的一切都只是序章。如果他错了,这也是有史以来最昂贵的学术实验之一。不管怎样,科学就是这样进步的。
MCP 突破万服务器,NIST 发布 AI Agent 标准
两个看似独立但高度相关的消息。
第一条:Anthropic 主导的 Model Context Protocol(MCP) 生态突破了 10,000 个已发布的服务器。半年前这个数字还不到 500。
MCP 是一个让 AI 模型连接外部工具和数据源的标准协议。你可以把它理解为"AI 的 USB 接口"。有了 MCP,Claude 可以直接操作你的数据库、读你的邮件、调你的 API,不需要你手动复制粘贴数据。
10,000 个服务器意味着 MCP 已经覆盖了大多数主流 SaaS 产品和开发工具。从 GitHub、Slack、Notion 到各种数据库、云服务、支付系统,基本上你能想到的工具都有对应的 MCP 服务器了。
第二条:美国国家标准与技术研究院(NIST)正式启动了 AI Agent 标准倡议,邀请行业参与者共同制定 AI Agent 的安全、互操作性和治理标准。
这两件事放在一起看:一边是基础设施在快速成熟(MCP),一边是监管框架在开始建立(NIST)。AI Agent 从"实验室概念"到"生产级工具"的转变正在加速。
微软必应接入 Sora 2,视频生成免费开放
微软本周宣布将 OpenAI 的 Sora 2 视频生成模型接入必应搜索和 Microsoft Edge 浏览器,面向所有用户免费开放。
这意味着你在 Bing 上搜索时,可以直接用文字描述生成视频片段。不需要 ChatGPT Plus 订阅,不需要任何额外费用。
免费版的限制:
- 每天最多生成 5 个视频
- 最长 15 秒
- 720p 分辨率
- 带 Bing 水印
虽然限制不少,但对于大多数人来说,这是第一次可以零成本体验到前沿的视频生成 AI。
微软的策略一直很清晰:用 AI 功能给自家产品引流。Copilot 是这样,Bing 集成 Sora 也是这样。对用户来说倒是好事。
海尔千亿研发预算布局具身智能
国内方面,海尔集团本周宣布将在未来三年投入超过 1000 亿元人民币 用于研发,其中"具身智能"被列为最优先方向之一。
具身智能(Embodied AI)是让 AI 拥有物理身体的研究方向,通俗点说就是智能机器人。海尔的具体布局包括:
- 家庭服务机器人:不是扫地机器人那种,而是能操控家电、整理物品、辅助烹饪的通用机器人
- 工业协作机器人:工厂产线上的柔性制造
- 物流配送机器人:最后一公里配送
海尔的优势在于它拥有大量的家电产品数据和制造能力。但具身智能这个领域,目前全球都还在早期探索阶段。Boston Dynamics 做了几十年还没盈利,Figure AI 拿了大额融资但产品距离商用还有距离。
千亿研发听起来很猛,但具身智能不是砸钱就能砸出来的。期待实际成果。
Stanford:永远不离开你设备的 AI 助手
斯坦福大学本周发布了一个名为 LocalFirst AI 的开源框架,核心理念是:AI 助手的所有数据处理都在本地完成,永远不发送到云端。
这个框架的技术架构:
- 基于量化后的小模型(7B-13B 参数)在本地运行
- 使用 WebAssembly 实现跨平台兼容(浏览器、桌面、移动端)
- 所有个人数据(日程、邮件、文件)都存储在本地加密数据库中
- 离线可用,连网时可选择性同步
为什么这个框架值得关注?因为它直接回应了 AI 领域最大的争议之一:隐私。
当你把数据发送给 ChatGPT 或 Claude 的云端 API 时,你的数据就离开了你的控制范围。对个人用户来说这可能还好,但对企业用户,特别是处理敏感数据的行业(医疗、法律、金融),这是一个真实的 blocker。
LocalFirst AI 的能力目前还远不及 GPT-5 或 Claude Opus 这样的前沿云端模型。但对于很多场景(日程管理、邮件分类、文档摘要),本地模型已经够用了。
未来的 AI 架构可能不是"全云端"或"全本地"的二选一,而是一个混合体:敏感数据在本地处理,需要强推理能力时再调用云端。Stanford 的框架指向了这个方向。
快讯速览
- 百度发布浏览器级 AI Agent:直接在浏览器中运行的 AI 助手,可以自动填表、预订、比价。不需要安装插件。百度称之为"网页即 Agent"。
- GStack 发布:一个能同时规划、编码、测试和审查软件的 AI 系统。不是"AI 辅助编码",而是"AI 全流程开发"。目前在内部测试阶段。
- NIST AI 100-5 草案 发布,首次定义了 AI Agent 的分类框架,将 Agent 分为 Reactive、Deliberative、Autonomous 三个层级,每个层级对应不同的安全要求和治理标准。
- Anthropic Claude 推出 Agentic Memory 功能测试版,允许 AI Agent 在多次会话间保持持久记忆,而不需要每次重新加载上下文。
本周观点
回看这周的新闻,有一个趋势比任何单条新闻都重要:AI 正在从"通用聪明"走向"专业可靠"。
DeepRare 不是一个"什么都能聊"的 AI,它是一个专门诊断罕见病的 AI,而且在这个领域比人类专家更准。MCP 不是一个"万能接口",它是一个让 AI 精准连接特定工具的协议。LocalFirst AI 不是要取代 GPT-5,它是要在"隐私优先"这个特定场景下做到够好。
2024 年,我们在讨论"AI 能做什么"。2025 年,我们在讨论"AI 做得有多好"。2026 年,讨论变成了"AI 在这个具体问题上,比人做得好多少"。
这才是真正的进步。不是更大的模型、更多的参数、更高的跑分,而是在一个又一个具体场景中,AI 证明了它的实用价值。
下周见。
本文首发于 aieii.com,一个关注 AI 工具与趋势的中文内容平台。