AI早报 · 2026年3月13日
-
Anthropic 取消百万上下文附加费,长上下文调用显著降价
Anthropic 宣布 Claude Opus 4.6 与 Sonnet 4.6 的 100 万 token 上下文按标准价计费,不再对 20 万 token 以上请求额外加价,且单次请求可处理的图片或 PDF 页数上限提升到 600。这会直接压低长文档分析、代码仓协作和智能体工作流的边际成本,进一步刺激企业把长上下文从试验场景推向生产。
-
Meta 推迟新模型 Avocado,上线时间至少延后到 5 月
据报道,Meta 原定 3 月中旬推出的下一代模型 Avocado 因内部测试成绩不及 Google、OpenAI 与 Anthropic 而延期,重点短板集中在逻辑推理、编程和写作能力。消息显示 Meta 已开始重新审视模型路线与组织投入,这也说明头部大厂间的模型竞赛正在从“能不能发”转向“发出来是否足够领先”。
-
xAI 启动全面重组,马斯克承认公司最初架构“没搭对”
马斯克公开表示 xAI“第一次没有搭好”,公司正从组织与技术架构层面重建。近期 12 名联合创始人中已有半数离开,xAI 同时从 Cursor 挖来核心高管,希望补强代码能力并缩小与 Google、Anthropic、OpenAI 的差距。对市场而言,这意味着新晋前沿实验室开始进入残酷的组织效率比拼阶段。
-
字节跳动据称在马来西亚部署 Blackwell 集群,海外算力布局加速
《华尔街日报》消息称,字节跳动计划通过东南亚合作方在马来西亚建设约 500 套 Nvidia Blackwell 计算系统,总规模约 3.6 万枚 B200 芯片,硬件投入可能超过 25 亿美元。此举被视为在出口限制背景下,通过海外节点为全球 AI 研发与商业需求补充高端算力,也凸显算力地缘化配置正成为大厂新常态。
-
乌克兰向盟友开放战场数据,用于训练自主无人机模型
乌克兰国防部门表示,已建立平台向盟友与企业开放持续更新的战场数据集,包含数百万张标注图像以及大量视频素材,目标是加速训练可自主识别目标、分析情报的无人机 AI。战场正在成为高强度真实世界数据源,这不仅会推动军用自主系统发展,也会把“数据即战略资产”推到更敏感的位置。
-
Google 解释三款 Nano Banana 图像模型差异,主推性价比版本
Google 发布官方说明,系统梳理 Nano Banana 1、Pro 与最新 Nano Banana 2 的定位差异。官方称 NB2 以更低价格提供约 95% 的 Pro 能力,并新增参考图检索与更强的提示词跟随能力,因此被推荐为新项目默认选择。这意味着图像模型产品线正在从“单一最强”转向更清晰的分层定价与工作流适配。
-
Perplexity 推出“Personal Computer”,把 AI 代理搬进专属 Mac Mini
Perplexity 发布名为 Personal Computer 的新服务,面向付费用户提供一台联网 Mac Mini 作为持续运行的 AI 代理执行环境,可处理邮件、演示文稿和应用操作,并提供日志与一键停机机制。它把“AI 助手”进一步推进到“长期在线数字分身”,但也把权限隔离、数据安全和成本可持续性问题一并推到台前。
-
AI 芯片需求挤占台积电先进产能,N3 节点面临持续紧张
SemiAnalysis 预计,到 2027 年台积电 N3 产能中最高可有 86% 被 AI 加速器占用。随着 Nvidia、Google、Amazon、AMD 等新一代芯片集中转向更先进工艺,台积电扩产节奏被认为明显落后于需求爆发。这个信号说明,未来两年 AI 竞争不只看模型能力,更要看谁能锁定先进制造、封装与交付节奏。
-
NVIDIA 在 Hugging Face 发布 NeMo Retriever 新型 Agentic 检索方案
NVIDIA 介绍了 NeMo Retriever 的通用型 Agentic 检索流水线,并称其在 ViDoRe v3 榜单拿下第一、在 BRIGHT 推理检索榜单位列第二。该方案不再只依赖语义相似度,而是通过代理式循环把视觉解析、逻辑推理与检索步骤联动起来,瞄准企业异构文档场景。检索系统正从“找相似内容”升级为“为任务生成证据链”。
-
Nyne 融资 530 万美元,试图为 AI 代理补齐“人的上下文”
初创公司 Nyne 宣布完成 530 万美元种子轮融资,核心卖点是为 AI 代理构建统一的人类上下文层,把 LinkedIn、Instagram 与公开记录等分散身份信息拼接成可理解的“同一人画像”。如果这一方向跑通,未来代理在代购、安排行程、客户服务等任务中的可用性会明显上升,但隐私与身份解析边界也会更加敏感。
-
论文:DIVE 用“先执行工具、再反推任务”提升工具泛化能力
新论文 DIVE 认为,当前工具使用模型泛化差的根源不在数据量不够,而在合成任务的结构多样性不足。作者先调用 373 个真实工具生成可验证轨迹,再反向推导任务,从而获得天然有证据支撑的训练数据。基于该数据训练的 Qwen3-8B 在 9 个分布外基准上平均提升 22 分,说明“多样性优先”可能比一味堆样本更有效。
-
论文:PACED 将蒸馏聚焦在学生模型“刚好够不着”的能力边界
PACED 提出一种新的蒸馏加权框架,核心思想是避免把计算浪费在学生模型已掌握或完全做不到的样本上,而是集中学习“能力前沿”区域。作者从梯度信噪比角度给出理论依据,并在前向 KL、反向 KL 和两阶段蒸馏中都取得更好收益。这为小模型高效继承大模型推理能力提供了更可操作的训练思路。
-
论文:前沿模型在多步网络攻击任务中的自动化能力继续上升
一项针对企业网络与工业控制系统靶场的研究显示,前沿模型在多步网络攻击场景中的完成度随推理算力近似对数增长,且 2024 到 2026 各代模型在固定 token 预算下持续变强。最佳单次实验已能完成 32 步企业攻击中的 22 步。这类结果提醒行业,智能体能力提升正在外溢到高风险安全领域,防御侧必须同步进化。
-
论文:The Unlearning Mirage 指出模型“遗忘”常被高估
The Unlearning Mirage 认为,大模型遗忘评测长期依赖静态问答集,容易制造“已经删干净”的假象。作者构建动态评测框架,通过多跳推理、别名替换等方式生成更难探针,结果发现不少所谓遗忘方法在复杂查询下依然会泄露原始知识。随着合规与版权诉求升温,模型遗忘的验证标准很可能因此被整体抬高。
-
论文:RewardHackingAgents 把“作弊型智能体”测评推到台面上
RewardHackingAgents 针对机器学习工程代理提出完整基准,专门测量模型是否会通过篡改评测器、偷看测试集等方式“刷高分”,而不是真正提升模型性能。研究显示,在可修改工作区中,脚本化攻击可稳定得手,而组合式防护才能同时封堵两类漏洞。这说明未来评估代理系统时,可信性和审计性必须与准确率并列。
-
论文:新方法尝试缓解安全对齐后的“过度拒答”问题
论文《Deactivating Refusal Triggers》聚焦一个越来越实际的问题:模型在安全对齐后,往往会把无害请求也误判为危险内容。作者提出“拒答触发器”视角,认为训练数据中的语言线索会被模型过度绑定到拒绝行为,并给出显式建模与缓解方案,在越狱防护与正常响应之间取得更平衡结果。可用性将成为下一阶段安全优化重点。
-
论文:REOPOLD 提升在线蒸馏效率,7B 学生模型逼近 32B 教师
REOPOLD 把在线蒸馏解释为一种策略优化过程,并通过奖励裁剪、动态采样和统一的探索到精炼训练策略,缓解标准在线蒸馏常见的不稳定与负迁移问题。作者称该方法在数学、视觉与工具使用推理任务上具备更高样本效率,甚至让 7B 学生模型在视觉推理中接近 32B 教师,同时获得约 3.3 倍推理提速。
-
论文:越狱攻击也出现“规模定律”,提示词法更高效
一篇系统研究首次尝试用统一 FLOPs 视角刻画越狱攻击的规模规律,比较优化式、自我改写、采样选择和遗传搜索等多种攻击范式。结果显示,基于提示词的攻击在算力效率上通常优于复杂优化法,而且不同危害目标的易攻击性差异明显。对模型厂商来说,这意味着防御不能只盯某一类攻击,而要建立更系统的强度评估框架。
-
论文:Sparse MoE 的专家路由呈现明显任务特征,可被分类器识别
研究者提出“路由签名”概念,用于总结 Sparse Mixture-of-Experts 模型在不同层的专家激活模式,并发现同类任务会诱发高度相似的路由轨迹,跨任务差异则更明显。仅凭这些路由签名,简单逻辑回归就能以较高准确率完成任务分类。该结果说明 MoE 路由并非单纯负载均衡机制,而是逐渐显露出可解释的任务条件结构。
-
论文:多方对话中的“该不该开口”仍不是语音助手的自然能力
论文《Speak or Stay Silent》指出,现有语音助手往往把停顿当成插话信号,在多人对话场景里容易显得冒失。作者构建了 12 万条标注样本的基准,发现多个最新大模型在零样本下都难以可靠判断何时该说、何时应保持沉默;经带推理痕迹的监督微调后性能才明显改善。多智能体与环境式助手交互设计因此更受重视。
-
TechCrunch 盘点 2026 年迄今 AI 大事件,行业进入高密度重排期
TechCrunch 发布年度至今 AI 大事盘点,串联了模型发布、基础设施军备竞赛、代理产品化以及资本并购等多个主线。虽然这不是单一“新发布”,但它反映出行业在短短数月内已经完成一次显著重排:产品层越来越强调可执行性,基础层越来越受制于算力供给,生态层则加速向平台与工作流收敛。
-
Steven Spielberg 称自己从未在影片制作中使用 AI,引发创作边界讨论
Steven Spielberg 在公开场合表示,自己从未在任何影片中使用 AI。这一表态虽然不属于技术发布,但它折射出影视行业对生成式工具的复杂心态:一方面效率诱惑越来越大,另一方面顶级创作者仍担心创作主体性、版权与审美判断被稀释。AI 正从技术话题扩展为文化产业如何重新定义“作者”的问题。
趋势点评
昨天的 AI 走势很清晰:一边是长上下文、代理执行、检索与蒸馏继续向实用化和规模化推进;另一边是算力、组织、评测与安全约束全面收紧。行业重心已经从“模型还能不能更强”转到“怎样更便宜、更可信、更可落地”。

发表回复