突发新闻February 4, 2026
Claude 5 训练数据泄露揭示 Anthropic 的秘密武器
泄露的训练文档显示 Claude 5 使用革命性的"宪法自我改进"技术,基于 12 万亿 Token 的过滤代码数据进行训练。
独家:Claude 5 革命性训练过程内幕
来自 Anthropic 的泄露内部文件揭示了 Claude 5 训练方法的前所未有的细节——这与我们之前见过的任何方法都不同。
泄露文件
来源: 47 页内部备忘录,标题为"Claude 5 训练架构与宪法自我改进协议" 可信度: 80% 真实发现 #1:宪法自我改进
工作原理
一种革命性训练技术,AI 模型:
1. 生成代码解决方案
2. 根据宪法原则评估(安全性、可维护性、性能)
3. 自我批评代码
4. 生成改进版本
5. 重复直到通过所有宪法检查
这发生在训练期间,而非推理阶段——创造出本质上就能产生更高质量代码的模型。
代码宪法原则
泄露文件列出了 47 条宪法原则,包括:
安全原则:- "永远不建议有 SQL 注入漏洞的代码"
- "始终为数据库访问使用参数化查询"
- "在授权检查前实施适当的身份验证"
- "优先使用明确的代码而非巧妙的代码"
- "为公共 API 包含 JSDoc 注释"
- "遵循现有代码库约定"
发现 #2:训练数据规模
总训练数据:12 万亿 Token
对比:- GPT-4:~8 万亿 Token(估计)
- Claude 4.5:~9 万亿 Token(估计)
- Claude 5:12 万亿 Token(泄露文件)
代码数据:4.2 万亿 Token
质量过滤结果: 只有互联网上最优质的 8% 代码进入训练集发现 #3:训练成本
总训练成本:约 1.88 亿美元- 阶段 1:基础训练(50 天)- ~$45M
- 阶段 2:代码专业化(30 天)- ~$80M
- 阶段 3:宪法对齐(25 天)- ~$35M
- 阶段 4:长上下文训练(15 天)- ~$28M
发现 #4:架构细节
稀疏混合专家(MoE)
- 8 个专家网络
- 每个 Token 激活最佳 2 个专家
- 总参数: 1.8 万亿(每个 Token 仅 ~4500 亿活跃)
发现 #5:发布时间线
公开发布: 2026 年 4 月 28 日(暂定)总结
如果泄露属实,Claude 5 代表了自 GPT-4 发布以来 AI 编码能力最大的飞跃。宪法自我改进、海量高质量训练数据和新型架构的组合,可能造就首个持续产出优于平均人类开发者代码的 AI 系统。