以下为 2026年2月7日(昨日)AI 相关要闻精选,共 20 条,按对产业与研究影响的综合重要性排序。
热点新闻(20条)
-
Benchmark 追加加码 Cerebras:设立专项资金参与其 10 亿美元融资
AI 芯片公司 Cerebras 新一轮融资估值约 230 亿美元,Benchmark 通过两支“基础设施”专项基金投入约 2.25 亿美元,反映头部 VC 对算力供给侧的持续押注。文章同时提到其与 OpenAI 的多年算力合作及 IPO 进程中的合规因素。
来源:https://techcrunch.com/2026/02/06/benchmark-raises-225m-in-special-funds-to-double-down-on-cerebras
-
WordPress 推出 Claude 连接器:可读访问站点后台数据
WordPress 上线面向 Anthropic Claude 的连接器,站点主可授权其读取特定后台数据并随时撤销。当前为只读权限,Claude 可用于流量与内容表现分析、低互动文章定位、评论与插件信息查询等,意在把“对话式分析”带进 CMS 运维与编辑流程。
来源:https://techcrunch.com/2026/02/06/it-just-got-easier-for-claude-to-check-in-on-your-wordpress-site/
-
AI 代理“也许能当律师”:Mercor 榜单显示新模型分数大幅跃升
TechCrunch 报道 Mercor 的职业任务评测中,Anthropic Opus 4.6 将一次性试题得分推近 30%,在多次尝试设置下平均约 45%,并引入“agent swarms”等代理能力。虽离人类水平仍远,但短期内的跃升提示:多步推理与协作式代理正快速逼近可用阈值。
来源:https://techcrunch.com/2026/02/06/maybe-ai-agents-can-be-lawyers-after-all/
-
超级碗广告“AI 继续加戏”:从 AI 生成广告到 AI 产品大混战
今年超级碗广告把 AI 从“主题”推向“生产工具+产品主角”:Svedka 宣称主要由 AI 生成的广告引发创意岗位讨论;Anthropic 借机强调 Claude 不上广告并与对手隔空交锋;多家大厂与 SaaS 公司集中展示 AI 眼镜、家居助手与自动化平台,AI 营销进入规模化竞争期。
来源:https://techcrunch.com/2026/02/06/super-bowl-60-ai-ads-svedka-anthropic-brands-commercials/
-
Kindle Scribe Colorsoft 上线:大屏彩墨阅读器加入一批 AI 工具
TechCrunch 评测指出,Kindle Scribe Colorsoft 以彩色电子墨水与手写体验定位“高端标注/笔记”人群,并加入 AI 相关功能:手写整理、摘要、跨笔记检索与基于笔记的问答等。其价格较高,但反映消费硬件正把 AI 从手机端扩散到“阅读与学习工具链”。
来源:https://techcrunch.com/2026/02/06/kindle-scribe-colorsoft-review-e-ink-color-tablet/
-
MIT Tech Review:Moltbook 是“AI 剧场”,更像人类对 AI 的投射
文章复盘“机器人社交网络”Moltbook 的爆红与混乱,认为其展示的不是通用自主智能,而是大量代理在既定社交行为模板上的模式匹配与人类提示驱动。与此同时,海量代理在开放网络环境运行带来的安全与越权风险更值得关注:提示注入、恶意指令传播与权限滥用会被规模效应放大。
来源:https://www.technologyreview.com/2026/02/06/1132448/moltbook-was-peak-ai-theater/
-
PieArena:前沿语言代理在谈判任务上接近 MBA 学生水平
研究提出基于商学院谈判课程场景的多代理评测 PieArena,发现代表性前沿代理在部分设置下可匹配或超过受训学生的谈判结果,同时暴露不同模型在欺骗倾向、计算准确性、指令遵循与声誉感知上的差异。结论提示:高风险商业沟通场景可能更早出现“可部署但不够可信”的两难。
-
AgentXRay:仅凭输入输出“重建”黑箱代理工作流,让系统可解释可编辑
论文提出“代理工作流重建”任务:在无法访问模型参数的情况下,从黑箱系统的输入输出中搜索出近似的可解释工作流(角色分工与工具调用链)。AgentXRay 用 MCTS 结合剪枝在组合空间中优化,得到可修改的白盒流程,帮助审计、控成本与对齐代理系统行为。
-
PATHWAYS:评测 Web 代理的“调查取证+发现关键上下文”能力
PATHWAYS 收录 250 个多步决策任务,重点考察代理能否发现并正确使用页面中隐藏的关键信息。结果显示,多数代理能到达相关页面却常漏取决定性证据,遇到误导性表层信号时准确率接近随机;还常出现“声称引用未访问证据”的调查式幻觉,暴露 Web 代理的证据整合短板。
-
ProAct:训练代理学会“更可靠的前瞻推演”,提升长程规划表现
ProAct 提出两阶段训练:先用基于环境搜索的轨迹做“有根的前瞻蒸馏”,把复杂搜索树压缩为因果推理链;再用可插拔的 Monte-Carlo Critic 通过轻量回滚校准价值估计,稳定 PPO/GRPO 等策略优化。作者在 2048、Sokoban 等环境中报告规划准确性显著提升。
-
Hallucination-Resistant Security Planning:用“约束一致性+外部反馈”抑制安全管理场景幻觉
论文把 LLM 作为安全事件响应的决策支持,采用迭代循环生成候选行动,再用系统约束与前瞻预测检查一致性;一致性不足则拒绝采纳并从数字孪生等外部系统获取反馈,用 ICL 细化方案。作者声称在公开数据集上可将恢复时间最多降低约 30%,并可通过阈值控制幻觉风险。
-
Surgery:利用 attention sink 机制缓解“有害微调”对对齐安全性的破坏
研究观察到注意力头的“sink divergence”符号与模型在有害微调后变得更危险相关,提出可分离假设:学习有害模式的注意力头可由该统计量符号区分。方法在微调阶段加入抑制正向 sink divergence 的正则项,引导注意力头向更安全的群体迁移,在多个安全基准上报告防御效果提升。
-
DeepRead:面向长文档的“结构感知”代理检索与阅读
DeepRead 将 PDF 转为保留标题与段落边界的结构化 Markdown,并为段落加上包含章节与顺序的坐标元数据。代理通过“Retrieve 定位段落+ReadSection 连续阅读”组合实现更接近人类的“先定位再通读”策略,作者称在文档问答上优于把长文档扁平切块的常见 agentic search 框架。
-
Towards Reducible Uncertainty Modeling:把不确定性从“累积”改为“可条件降低”,面向交互式代理
论文指出现有不确定性量化多聚焦单轮问答,放到开放世界交互代理会把不确定性误当作单向累积。作者提出“条件不确定性降低”视角:通过行动与交互获取信息以削减可约简不确定性,并给出统一公式化框架,旨在为代理级 UQ 设计提供可操作指导,服务安全护栏与可靠部署。
-
DemPO:用“抽签式代表性样本”重权重 RLHF,让偏好对齐更接近公众价值
DemPO 将公民大会常用的 sortition(抽签配额)引入偏好对齐:Hard Panel 仅用满足配额的小型代表性面板数据训练;Soft Panel 则按被抽中的概率对所有标注者加权。作者证明 Soft Panel 的期望目标等价于 Hard Panel,并在含人口统计信息的公开偏好数据上展示:代表性约束能让模型行为更接近“代表性公众”所表达的价值。
-
SocialVeil:在“语义含糊、文化错配、情绪干扰”下测语言代理的社交智能
SocialVeil 构造 720 个情境,模拟现实交流中的沟通障碍,并用“未解困惑”“互相理解”等指标评估交互质量。实验显示障碍会显著拉低互相理解、抬高困惑程度,且常见的修复指令或交互学习只能带来有限改善。结论指向:代理要真正进入人际密集场景,需要更强的沟通修复与对齐能力。
-
HugRAG:把因果建模引入图结构 RAG,抑制“表面匹配”导致的伪因果回答
论文认为现有图 RAG 过度依赖节点表面匹配,缺少显式因果建模,易产生不忠实或偶然相关的答案;并指出模块化图结构会造成信息孤岛。HugRAG 通过分层模块与“因果门控”跨模块推理,旨在压制伪相关、提升可扩展性与跨域因果推断能力,在多数据集上报告优于若干基线。
-
RaBiT:残差感知二值化训练,把 2-bit LLM 推向更高精度与更快推理
研究聚焦“残差二值化”在量化感知训练中出现的路径共适应问题:并行二值路径学到冗余特征,削弱误差补偿结构。RaBiT 通过从单一共享全精度权重按序派生各二值路径,强制形成残差层级,让后续路径专注修正前一路径误差,并辅以更稳健初始化。作者报告在 RTX 4090 上相较全精度推理可达约 4.49 倍加速。
-
Position:通用时间序列基础模型是“范畴错误”,应转向因果控制式代理
该立场论文认为时间序列只是结构容器而非统一模态,金融、流体等生成机制不兼容,单一大模型容易退化为昂贵的“通用滤波器”,在分布漂移下失灵。作者提出“自回归失明界”强调仅靠历史难以预测干预引发的范式切换,并主张用结合外部上下文的因果控制代理,协调专用求解器与快速适配器。
-
Understanding LLM Evaluator Behavior:多评审框架揭示“LLM 当裁判”的偏差与稳定性
论文在支付风控的商户风险评估任务中,提出包含五项准则与蒙特卡洛打分的多评审框架,并用“共识偏离”度量避免评审循环论证。结果显示不同模型自评偏差方向差异明显,匿名化可部分缓解;与行业专家对比也发现 LLM 评分整体偏高。结论提示:将 LLM 用作评审/打分时需引入偏差感知协议与人类校准。
趋势点评
产业侧的关键词仍是“算力与分发”:资本继续围绕专用芯片和算力合同下注,CMS 与消费硬件把 AI 功能嵌入日常工作流。研究侧则集中在“代理可控性与可信性”——工作流可解释、证据获取、长程规划、不确定性与对齐代表性,正从论文走向工程必需品。

发表回复