突发新闻February 4, 2026

Claude 5 训练数据泄露揭示 Anthropic 的秘密武器

泄露的训练文档显示 Claude 5 使用革命性的"宪法自我改进"技术,基于 12 万亿 Token 的过滤代码数据进行训练。

独家:Claude 5 革命性训练过程内幕

来自 Anthropic 的泄露内部文件揭示了 Claude 5 训练方法的前所未有的细节——这与我们之前见过的任何方法都不同。

泄露文件

来源: 47 页内部备忘录,标题为"Claude 5 训练架构与宪法自我改进协议" 可信度: 80% 真实

发现 #1:宪法自我改进

工作原理

一种革命性训练技术,AI 模型:

1. 生成代码解决方案

2. 根据宪法原则评估(安全性、可维护性、性能)

3. 自我批评代码

4. 生成改进版本

5. 重复直到通过所有宪法检查

这发生在训练期间,而非推理阶段——创造出本质上就能产生更高质量代码的模型。

代码宪法原则

泄露文件列出了 47 条宪法原则,包括:

安全原则:
  • "永远不建议有 SQL 注入漏洞的代码"
  • "始终为数据库访问使用参数化查询"
  • "在授权检查前实施适当的身份验证"
可维护性原则:
  • "优先使用明确的代码而非巧妙的代码"
  • "为公共 API 包含 JSDoc 注释"
  • "遵循现有代码库约定"

发现 #2:训练数据规模

总训练数据:12 万亿 Token

对比:
  • GPT-4:~8 万亿 Token(估计)
  • Claude 4.5:~9 万亿 Token(估计)
  • Claude 5:12 万亿 Token(泄露文件)

代码数据:4.2 万亿 Token

质量过滤结果: 只有互联网上最优质的 8% 代码进入训练集

发现 #3:训练成本

总训练成本:约 1.88 亿美元
  • 阶段 1:基础训练(50 天)- ~$45M
  • 阶段 2:代码专业化(30 天)- ~$80M
  • 阶段 3:宪法对齐(25 天)- ~$35M
  • 阶段 4:长上下文训练(15 天)- ~$28M

发现 #4:架构细节

稀疏混合专家(MoE)

  • 8 个专家网络
  • 每个 Token 激活最佳 2 个专家
  • 总参数: 1.8 万亿(每个 Token 仅 ~4500 亿活跃)

发现 #5:发布时间线

公开发布: 2026 年 4 月 28 日(暂定)

总结

如果泄露属实,Claude 5 代表了自 GPT-4 发布以来 AI 编码能力最大的飞跃。宪法自我改进、海量高质量训练数据和新型架构的组合,可能造就首个持续产出优于平均人类开发者代码的 AI 系统。

Ready to Experience Claude 5?

Try Now