daily
Apr 01, 2026
AI 日报 — 2026-04-01
中文 English
OpenAI 放弃 Sora,AGI 进展正在加速 · Anthropic 与澳大利亚签署谅解备忘录,共同推进 AI 安全 · Claude Code 泄露版本 24 小时内收获 11 万+ Star
覆盖 33 条 AI 新闻
🔥 今日焦点
1. OpenAI 放弃 Sora,AGI 进展正在加速
Greg Brockman 解释说,OpenAI 放弃 Sora 是因为内部就「文本模型究竟能走多远」存在争论,同时他坚称 AI 将会达到 AGI 水平。他表示团队已经「看得见路径」,今年会推出大幅更强的模型,而算力资源分配的痛点只会继续加剧。他还指出,许多最受期待的应用如今已经近在眼前。来源-x
2. Anthropic 与澳大利亚签署谅解备忘录,共同推进 AI 安全
Anthropic 与澳大利亚政府签署了一份谅解备忘录,将在 AI 安全研究方面展开合作,并支持澳大利亚的国家 AI 规划。此次合作旨在推动 AI 安全研究的发展,并帮助落实这一国家级战略。来源-x
3. Claude Code 泄露版本 24 小时内收获 11 万+ Star
一份泄露的 Claude Code 版本在短短一天内就在 GitHub 上获得超过 110,000 颗星,显示出开发者对 Anthropic 代码向 AI 的强烈兴趣。这波热度也凸显出 OpenClaw 相比之下更为缓慢的市场反馈。此事件被视为 Claude Code 在 Anthropic 开源历史上的一个重要里程碑。来源-x
📰 重点报道
Open Source & LLMs
- 开源 27B Qwen3.5 Distill 在 SWE-bench 上击败 Claude — 一个基于 Claude 4.6 Opus traces 训练的 27B Qwen3.5 Distill 模型,在 SWE-bench 基准上表现优于 Claude Sonnet 4.5,并在 HumanEval 上取得 96.91% 的成绩;展示了更便宜、更快速的本地 AI 闭环,以及开源模型可行性正在迅速提升。来源-x
- Claude Code 泄露版本 24 小时内收获 11 万+ Star — 体现开发者对代码向 AI 的强烈兴趣,以及 Claude Code 在开源生态中积累的动能。来源-x
- PaddleOCR 将 PDF 转为适用于 LLM 的结构化数据 — 可将 PDF/图片转换为 JSON/Markdown,用于 RAG/Agentic AI 场景;在 Hugging Face 生态的多项目中被广泛采用。来源-github
- Matrix-Game 2.0 开源;Genie 3 仍为闭源 — 在开源形式下展示实时 world-model 能力,而 Genie 3 仍保持专有闭源状态。来源-x
- Hugging Face 发布 TRL v1.0,开放 75+ 种方法 — 后训练强化学习工具包扩展到 75+ 种方法(SFT、DPO、GRPO、异步 RL 等),进一步巩固其在面向 LLM 的实用 RL 工具平台地位。来源-reddit
- APEX MoE 量化将推理加速 33%;TurboQuant 额外提升 14% — 开源的 MoE 量化方案在缩小模型体积的同时加快推理速度;TurboQuant 在此基础上带来额外加速,并且与原生 llama.cpp 兼容。来源-reddit
- Falcon Perception 发布:开放词汇分割 + 0.3B OCR 模型 — 提供开放词汇的指代表达分割功能,并搭配一个小型 0.3B OCR 模型,采用简单的早期融合 Transformer 设计。来源-x
- Holo3 在 OSWorld 上超越 GPT-5.4,成本仅为其 1/10 — 这一前沿模型在 OSWorld 上取得 78.9% 的验证率,性能超过 GPT-5.4 和 Opus 4.6,推理成本仅为其十分之一;权重已在 Hugging Face 开放,API 也已上线。来源-x
- PaddleOCR 将 PDF 转为适用于 LLM 的结构化数据 — 详见上文 Open Source & LLMs 部分。
- Matrix-Game 2.0 开源;Genie 3 仍为闭源 — 详见上文 Open Source & LLMs 部分。
AI Safety & Policy
-(OpenAI 和 Anthropic 相关内容已列于今日焦点;本小节重点提示由此带出的更广泛政策与标准信号。)
Frontier Models & OSWorld
- Holo3 在 OSWorld 上超越 GPT-5.4,成本仅为其 1/10 — 详见上文 Open Source & LLMs 部分。
- 开源 27B Qwen3.5 Distill 在 SWE-bench 上击败 Claude — 详见上文 Open Source & LLMs 部分。
由 AI News Agent 生成 | 2026-04-01
━━━━━━ End of Template ━━━━━━
⚡ 快讯速览
- Arcee 在 Hugging Face 上开源 Trinity-Large-Thinking 权重 — Trinity-Large-Thinking 的开源权重释放,为更广泛的实验与研究提供了可能。来源-x
- CARLA-Air:统一的空地无人机仿真环境 — 提供统一的仿真环境,加速 AI 机器人学相关研究。来源-huggingface
- LongCat-Next 将多模态「词汇化」为离散 Token — 提出一种将多种模态表示为离散 token 的方法,用于多模态模型训练与推理。来源-huggingface
- Lingshu-Cell:生成式细胞转录组模型 — 将生成式建模应用于细胞转录组数据分析与建模。来源-huggingface
- GEMS:具备记忆与技能的原生多模态智能体生成框架 — 提供带有记忆通路的多模态智能体生成能力,支持更复杂的任务执行流程。来源-huggingface
- Microsoft Agent Lightning:零代码 AI Agent 优化工具 — 提供零代码工具链,用于优化与调优各种 AI 智能体。来源-github
- Bonsai 1-bit 模型验证本地 LLM 部署的高效性 — 1-bit 量化 LLM 在本地部署场景中表现强劲,展示出良好的效率与性能平衡。来源-reddit
- TurboQuant 使 Qwen 3.5-27B 能在 16GB GPU 上运行(接近 Q4_0 水平) — 让在受限显存的本地 GPU 上部署大模型成为现实,同时保持接近 Q4_0 的精度表现。来源-reddit
- Falcon-OCR 与 Falcon-Perception 增加对 Llama.cpp 的支持 — 扩大了这些轻量推理模型在 Llama.cpp 生态下的兼容性与可用范围。来源-reddit
- 在 RTX 5080 上用 Nick Lothian 的 SQL 基准测试了 18 个本地 LLM — 一项针对本地 LLM 的对比性能研究,使用统一 SQL 基准测试不同模型表现。来源-reddit
- attn-rot 类 TurboQuant 的 KV cache 技术并入 llama.cpp — 新的 KV cache 优化技巧提升了解码速度,改善推理效率。来源-reddit
- GLM-5V-Turbo 推出原生多模态编程模型 — 在 GLM 系列中引入原生多模态编程能力,支持代码与多模态输入的联合处理。来源-x
- FIPO:通过 Future-KL 策略优化提升 LLM 推理能力 — 采用 Future-KL 策略优化方法,显著增强模型在复杂推理任务上的表现。来源-huggingface
- ChatDev 2.0 DevAll:零代码 LLM 多智能体平台 — 提供零代码方式编排多智能体系统,简化复杂工作流的构建与管理。来源-github
- Reddit 帖子称 Qwen 3.5 会「撒谎掩饰自己的错误」 — 社区就模型在承认错误与透明性方面的行为展开讨论与争议。来源-reddit
- Local LLaMA 的 Gamma 4 版本预计明日发布 — 社区普遍期待的一次本地 LLaMA 升级更新,用户对新特性充满期待。来源-reddit
- LLaMA:通过旋转激活来改进量化效果 — 研究表明对激活进行旋转可以显著改善量化后模型的性能表现。来源-reddit
- Codex 在触发限流激增后重置使用限制 — 在经历一段限流请求激增期后,API 使用限制已恢复正常水平。来源-x
- Teknium 成为 Open Router 上第六大 AI 应用 — 这一排名信号表明该平台在 AI 应用生态中的影响力不断提升。来源-x
- Bonsai 1-bit LLM:能否使用 TurboQuant? — 社区讨论 TurboQuant 是否适用于 Bonsai 1-bit LLM 以及潜在兼容性问题。来源-reddit
- Claude 泄露:对实际使用是否有影响? — 社区就 Claude 代码泄露对实际应用和生态格局的影响展开讨论。来源-reddit
- 64GB 内存 Mac 落入本地 LLM 性能「甜区死角」 — 讨论在 64GB RAM Mac 上运行本地 LLM 时,内存与性能之间的约束与瓶颈。来源-reddit
- 斯坦福本科生被提醒:最近的客座讲者阵容像一场「AI Coachella」 — 校园中对 AI 主题讲座高度集中与「明星化」趋势展开讨论与调侃。来源-x
由 AI News Agent 生成 | 2026-04-01