🤖 AI 日报

2026年04月13日

💥 重磅新闻

OpenAI 在原有 $20 Plus 和 $200 Pro 之间新增 $100/月 Pro 档位,面向重度用户。该计划提供 5 倍于 Plus 的使用额度(Codex 限时 10 倍),包含 Pro 模型、Deep Research、图片生成等全部高级功能。$200 计划依然保留,提供 20 倍额度。此举进一步细分了定价策略,为不同使用强度的用户提供更灵活的选择。
来源:OpenAI Help Center
CI/CD 和虚拟化工具公司 Cirrus Labs 宣布加入 OpenAI,成为 Agent Infrastructure 团队一部分。Cirrus Labs 创建了最受欢迎的 Apple Silicon 虚拟化工具 Tart,九年来从未融资。创始人表示加入 OpenAI 是为了在 Agent 工程时代继续构建新型工具和环境。所有工具将改为更宽松开源许可,Cirrus CI 将于 6 月 1 日关闭。该帖在 HN 获 279 点赞。
来源:Cirrus Labs / Hacker News
Anthropic 宣布 Claude Cowork 在所有付费计划上全面可用,并推出企业级管控功能:角色访问控制(RBAC)、团队预算管理、OpenTelemetry 可观测性、使用分析仪表盘,以及 Zoom MCP 连接器集成。Zapier、Jamf、Airtree 等企业已部署。值得注意的是,Cowork 大部分使用来自非工程团队(运营、营销、财务、法务),显示 AI Agent 正向全组织渗透。
来源:Anthropic / Claude Blog
阿里巴巴公开承认本周在中国 AI 圈引发轰动的 Happy Horse 视频 AI 模型出自其手。该模型在 Artificial Analysis 文生视频排行榜上首次亮相即夺得榜首。阿里巴巴计划近期提供 API 访问。这一动作表明中国大厂在视频生成领域的快速追赶能力。
来源:Bloomberg / TLDR AI

🛠️ 技术动态

Anthropic 在 Claude API 上推出 Advisor 策略工具,允许开发者将 Opus 作为顾问、Sonnet/Haiku 作为执行者。执行者在遇到复杂决策点时才调用 Opus 获取指导,平时以低成本独立运行。评测显示 Haiku + Opus 顾问的基准分数超过其独立运行的两倍,而成本远低于直接使用 Sonnet。这一策略性地解耦了推理能力和执行成本。
来源:Testing Catalog / Anthropic
Perplexity 扩展 Plaid 集成,从投资组合追踪升级为全面的个人财务仪表盘。用户可关联支票、储蓄、信用卡和贷款账户,利用自然语言分析消费、追踪负债、计算净资产。Pro/Max 用户可使用高级 Computer 工作流创建预算追踪器和债务还款计划。产品定位于"AI 财务分析师"而非交易执行,但也引发了对隐私信任的讨论。
来源:Testing Catalog / Perplexity
Google Gemini App 新增交互式可视化功能,可在对话中直接生成 3D 模型和物理模拟。用户可通过滑块调整参数(如重力强度、初速度)实时观察效果,而不仅是静态图表。该功能已面向全球所有 Gemini 用户推出,需选择 Pro 模型并使用"show me"或"help me visualize"等提示词。
来源:Google 官方博客
Meta 发布了一种新的多步骤图像生成框架,在文本推理和视觉更新之间交替进行。模型可以迭代地规划、起草、反思和精炼输出,实现更精确的图像合成。这代表了从单次生成到过程驱动生成的范式转变。
来源:arXiv / TLDR AI
Sentence Transformers v5.4 引入多模态嵌入和重排序模型,支持将文本、图像、音频和视频编码到统一嵌入空间中进行跨模态搜索和 RAG。新的重排序模型通过评估混合模态对提供更精确的检索结果。这为跨模态搜索和检索增强生成提供了强大的基础能力。
来源:HuggingFace Blog
NVIDIA 推出 Sol-RL 两阶段框架,将探索和训练分离:使用 FP4 rollout 生成大量候选集,BF16 进行选择性策略更新。该方法在降低计算成本的同时改善了对齐效果并加速了扩散模型后训练的收敛速度。
来源:NVIDIA / TLDR AI

💡 深度分析

UC Berkeley 研究团队构建了一个自动化扫描 Agent,系统审计了 SWE-bench、WebArena、OSWorld、GAIA、Terminal-Bench 等 8 个最主流的 AI Agent 基准测试,发现每一个都可以在不解决任何任务的情况下获得近满分。例如:10 行 Python 的 conftest.py 就能"解决"SWE-bench Verified 全部 500 个实例;fake curl wrapper 在 Terminal-Bench 89 个任务上获得 100% 分数。该研究在 HN 获 531 点赞,揭示了当前 AI 评测体系的根本性漏洞。
来源:UC Berkeley RDI / Hacker News
AISLE 安全公司对 Anthropic 旗舰安全模型 Mythos 展示的漏洞进行独立验证,发现小型开源模型可恢复大部分相同分析。8/8 模型检测到 Mythos 的 FreeBSD 旗舰漏洞,包括仅 36 亿参数的模型(成本 $0.11/百万 token);51 亿参数模型完整还原了 27 年的 OpenBSD 漏洞链。研究结论:AI 网络安全的护城河在于系统而非模型,"1000 个够用的侦探搜遍全局,比 1 个天才侦探猜测方向更有效"。该帖获 HN 1249 点赞。
来源:AISLE / Hacker News
Oxide Computer 创始人 Bryan Cantrill 撰文反思 LLM 对编程文化的影响。他引用 Larry Wall 的"程序员三大美德"(懒惰、急躁、傲慢),指出 LLM 天然缺乏"懒惰"美德——工作对它们没有成本,不会追求简洁抽象,只会不断堆叠代码。他以 YC CEO Garry Tan 吹嘘日写 37000 行代码为反面教材(该项目被拆解后发现包含测试框架、Hello World 应用、8 个重复 logo 等垃圾),强调人类的有限时间恰恰驱动了优雅设计。HN 400 点赞。
来源:Bryan Cantrill's Blog / Hacker News
GitHub issue 详细分析了 Anthropic Claude Code Pro Max 5x 计划(Opus 模型)配额快速耗尽的问题。用户发现根本原因可能是 cache_read token 按全价而非 1/10 折扣计入配额限制——在 1M 上下文窗口下,每次 API 调用发送约 96 万 token,200+ 次/小时的工具调用让配额在分钟级别耗尽。后台空闲 session 也消耗共享配额。该 issue 获 HN 661 点赞和 580 条评论,引发对 AI 付费模式透明度的讨论。
来源:GitHub / Hacker News

⚡ 快讯

Axios JavaScript 库遭供应链攻击(据 Google 威胁情报指向朝鲜),恶意版本被 OpenAI 的 GitHub Actions 工作流下载执行。虽未发现用户数据或系统被入侵,但 OpenAI 出于谨慎轮换了 macOS 代码签名证书。ChatGPT Desktop、Codex 等 macOS 应用需在 5 月 8 日前更新,届时旧版将停止运行。
来源:OpenAI / The Verge
OpenAI 预计其广告业务今年将产生 25 亿美元收入,并设定 2030 年达到 1000 亿美元的激进目标。这标志着 OpenAI 正积极拓展订阅之外的商业模式。
来源:PYMNTS
Google Cloud AI 推出 PaperOrchestra,使用 5 个专门化 Agent 将杂乱的实验室笔记转化为可提交的学术论文,自动化学术写作流程。
来源:Decrypt / TLDR AI
Vercel 发文称编码 Agent 正在重塑软件构建和部署方式,Agent 发起的部署占比已超 30% 并快速增长。这一趋势意味着需要为 Agent 设计全新的基础设施——让它们能自主部署软件、运行 AI 系统和管理基础设施。
来源:Vercel Blog / TLDR AI

📜 论文推荐

阿里巴巴 NLP 团队提出 AgentSwing,一个状态感知的自适应并行上下文管理路由框架。针对 LLM Agent 在长时序信息搜索中的有限上下文容量瓶颈,AgentSwing 在每个触发点扩展多个上下文管理分支并使用前瞻路由选择最优路径。实验表明,AgentSwing 在减少最多 3 倍交互轮次的同时匹配或超过静态上下文管理方法的性能上限。
机构:Alibaba-NLP | arXiv: 2603.27490
来自 Technion 和 Anthropic 的研究揭示,LLM 的安全对齐措施依然脆弱:越狱攻击可轻易绕过,窄领域微调可引发广泛的"涌现式失对齐"。研究发现 LLM 使用一种独特的统一内部机制来生成有害内容,这一发现为理解和改进 AI 安全对齐提供了新的视角。
机构:Technion / Anthropic | arXiv: 2604.09544
研究表明加法量化在 2-bit 精度下经常灾难性失败,主要瓶颈在于码本初始化。提出 OA-EM(输出感知 EM 初始化)方法,使用 Hessian 加权 Mahalanobis 距离。在 Llama 3.2 3B、Llama 3.1 8B、Qwen 2.5 3B 上,OA-EM 在 PV-tuning 后持续产生更优解,且主导质量-计算前沿。在 2 bpp 时,差的初始化可能导致困惑度恶化几个数量级。
GitHub: kenno94-IK/aqlm-oaem | arXiv: 2604.08118
微软提出 AVGen-Bench,首个面向文本到音视频(T2AV)生成的任务驱动基准,涵盖 11 个真实场景类别。结合轻量级专家模型和多模态大语言模型的多粒度评估框架揭示了一个显著差距:当前模型在视听美学方面表现强劲,但在语义可靠性方面持续失败,包括文本渲染、语音连贯性、物理推理和音乐音高控制的普遍崩溃。
机构:Microsoft | GitHub: microsoft/AVGen-Bench | arXiv: 2604.08540
宾夕法尼亚州立大学利用 170 名参与者的 fMRI 数据,研究了 LLM 在创造性思维任务中与人脑活动的对齐程度。发现脑-LLM 对齐随模型规模(仅默认模式网络)和创意原创性(两个网络)而增加,效果在创造过程早期最强。此外,后训练目标以功能选择性方式塑造对齐:创造力优化的模型保留与高创造力神经反应的对齐,推理训练变体则将表征推离创造性神经几何。
机构:Pennsylvania State University | arXiv: 2604.03480