AI早报 · 2026年3月27日

AI早报 · 2026年3月27日

昨日 20 条 AI 热点

  1. Google 发布 Gemini 3.1 Flash Live,瞄准实时多模态语音代理

    Google 推出 Gemini 3.1 Flash Live,强调低时延语音、多模态输入与工具调用的一体化能力,目标直指实时 AI 助手与智能代理场景。它把语音、视频理解和执行动作放到同一条链路上,意味着实时交互产品会进一步从问答走向可操作的任务执行。

    来源链接

  2. Apple 获得更完整的 Gemini 能力,并用蒸馏推进端侧 AI

    The Decoder 报道称,Apple 正在获得更完整的 Gemini 接入能力,同时利用模型蒸馏构建更轻量的端侧 AI。核心信号不是简单接第三方模型,而是把云端大模型能力拆解后迁移到本地设备,在隐私、时延和能耗之间寻找新平衡。

    来源链接

  3. OpenAI Codex 上线插件市场,开始打通企业工作流

    OpenAI 的 Codex 被曝新增插件市场,可连接 Slack、Notion、Figma 等常见工作工具。这一步意味着代码代理正从“能写代码”升级为“能接入组织上下文并执行协作任务”,商业价值也从个人开发效率扩展到团队级自动化。

    来源链接

  4. Mistral 发布开源语音模型 Voxtral,三秒音频即可克隆音色

    Mistral 首个开源权重 TTS 模型 Voxtral 支持跨九种语言,并声称可用约三秒音频完成声音克隆。它把高质量语音合成与低门槛个性化结合在一起,既会推动本地部署和开源语音生态,也会再次抬高声音仿冒与授权合规的讨论热度。

    来源链接

  5. Meta 发布 TRIBE v2,用统一编码预测视频、音频与文本刺激下的大脑反应

    Meta 推出 TRIBE v2 脑编码模型,试图在视频、音频和文本刺激之间统一预测 fMRI 响应。它延续了多模态表示学习向神经科学外溢的趋势:一方面帮助理解人脑如何处理复杂输入,另一方面也为更贴近认知机制的多模态 AI 提供研究参照。

    来源链接

  6. Meta 监督机构警告:Community Notes 难以对抗 AI 生成虚假信息

    Meta 自身监督机构警告,依赖 Community Notes 这类社区纠错机制,并不足以应对 AI 规模化生成与扩散的虚假信息。这个判断很关键,因为它说明平台若继续把治理外包给用户协作,面对低成本、高产量的生成式内容冲击时,反应速度和覆盖度都可能失守。

    来源链接

  7. Anthropic 在美国国防部争议中赢得禁令,政府限制被要求撤回

    据 TechCrunch 报道,联邦法官要求特朗普政府撤回近期针对 Anthropic 的限制措施,案件背景牵涉国防部相关争议。事件反映出头部 AI 公司与政府采购、国家安全和监管边界之间的拉扯正在公开化,政策不确定性本身也开始影响商业合作与市场预期。

    来源链接

  8. Google 推出聊天迁移工具,直接把别家机器人对话导入 Gemini

    Google 开始提供“切换工具”,允许用户把其他聊天机器人的对话记录与个人资料迁入 Gemini。表面上是导入功能,实质上是围绕上下文和历史关系展开的用户争夺战;谁先接管长期记忆与工作流,谁就更有机会在助手竞争中形成更强黏性。

    来源链接

  9. Wikipedia 收紧 AI 写作使用规则,百科社区进入更强审查期

    Wikipedia 正收紧对 AI 生成写作的使用规范,说明开放协作平台已将生成式内容视为新的质量与可信度风险源。对行业而言,这不只是编辑规则调整,更是一个信号:在知识平台、教育和媒体场景里,AI 内容将越来越需要可核验来源与明确的人类责任链。

    来源链接

  10. 美国参议员要求细查数据中心电费,AI 用电进入政治审视区

    美国参议员要求能源信息署更详细统计数据中心用电,并评估其对电网和电价的影响。AI 基础设施扩张曾主要被视为资本与算力竞赛,如今已正式进入能源政策层面;未来大型模型部署的约束,可能不只来自芯片供给,也来自电力成本与公共监管。

    来源链接

  11. David Sacks 卸任“AI 沙皇”,华盛顿权力重心再调整

    TechCrunch 称 David Sacks 已结束其“AI 沙皇”阶段性角色,接下来将远离华盛顿权力中心。这个变化提醒市场,AI 政策并不只取决于技术路线,还高度依赖具体政治人物和利益协商结构;政策窗口一旦变动,企业游说、合规节奏和投资判断都可能随之重排。

    来源链接

  12. OpenAI 再砍边缘项目,ChatGPT“情色模式”计划被放弃

    OpenAI 被曝放弃 ChatGPT 的“情色模式”等边缘探索项目,再次展示其产品路线正向更保守、更聚焦的商业优先级收缩。相比争议性功能,当前资源明显更集中在代理、企业接入和核心模型能力上,这也反映头部公司开始主动降低非必要舆情与合规风险。

    来源链接

  13. Composer 2 技术报告发布,代理式软件工程模型继续冲高

    Composer 2 技术报告显示,该模型专门面向代理式软件工程,重点提升长程规划、端到端执行和真实代码库问题求解能力。它说明“写代码”赛道的竞争焦点正在转向工具链协同、长任务稳定性与真实工程闭环,而非单次补全分数本身。

    来源链接

  14. 新论文警示:固定结果导向目标在高能力 AI 中更容易通向灾难

    论文《Consequentialist Objectives and Catastrophe》提出,当 AI 能力足够强时,持续优化固定结果导向目标更可能引发灾难性后果,而不是常见的轻微“奖励黑客”。这类工作为 AI 安全争论补上更形式化的支撑,也强调能力提升与目标约束必须同步设计。

    来源链接

  15. 机器人何时该“多想一步”?RARRL 用强化学习做推理预算调度

    RARRL 提出一种分层策略,让具身机器人根据任务状态、历史和剩余资源,动态决定何时调用大模型推理、调用哪种推理角色以及投入多少计算预算。它抓住了具身智能当前的关键瓶颈:不是推理能力不够,而是推理太贵、太慢,必须学会按需分配。

    来源链接

  16. ADE-CoT 让图像编辑型模型按难度分配推理预算,速度可翻倍

    ADE-CoT 面向图像编辑而非纯生成任务,提出按编辑难度动态分配测试时算力,并在早期筛掉低质量候选。论文显示在相近采样预算下可获得两倍以上速度提升,同时保持甚至提升效果,表明“测试时扩展”开始从堆算力走向更精细的预算管理。

    来源链接

  17. 研究者从扩散噪声中读取“物理感”,提升视频生成可信度

    《Seeking Physics in Diffusion Noise》发现,扩散模型中间层特征已隐含可区分物理合理与不合理视频的信号,并据此提出中途筛选推理轨迹的方法。它很值得关注,因为视频模型下一阶段竞争不只是更清晰,而是更符合现实物理,能否减少违和感会直接影响可用性。

    来源链接

  18. JANUS 展示文生图模型越狱新路径,黑盒攻击成功率明显提高

    JANUS 论文把文生图越狱表述为对提示分布的优化问题,在黑盒条件下也能显著提高攻击成功率,并在多个模型上超过现有方法。它再次说明,图像模型安全不能只靠静态过滤器;对抗者正在把攻击对象从单条提示词,升级为整套分布式搜索策略。

    来源链接

  19. 样本压缩猜想获解决,机器学习理论一项长期开放问题被突破

    论文《Labeled Compression Schemes for Concept Classes of Finite Functions》声称解决长期存在的样本压缩猜想:任意 VC 维度为 d 的概念类都存在大小为 d 的压缩方案。虽然属于理论结果,但它触及学习可泛化性的根部问题,后续很可能影响统计学习理论教材与研究路线。

    来源链接

  20. Google 把“耳机实时翻译”带到 iOS,AI 翻译进入更自然的可穿戴入口

    Google 宣布将耳机实时翻译功能扩展到 iOS,并同步覆盖更多国家和地区。相比单纯在手机里做翻译,这代表 AI 翻译正进一步贴近真实交流场景:更低的操作摩擦、更自然的设备形态,以及更强的跨语言陪伴式交互体验。

    来源链接

趋势点评

从昨天的信号看,AI 竞争正同时向三条线加速:一是实时多模态代理和企业工作流接入,二是端侧轻量化与可穿戴入口,三是围绕安全、能耗与信息治理的外部约束。产品能力继续上冲,但监管和社会系统也开始更快补位。


评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注