속보February 4, 2026

Claude 5 훈련 데이터 유출, Anthropic의 비밀 공개

유출된 훈련 문서에 따르면 Claude 5는 혁명적인 '헌법적 자기 개선' 기법을 사용하며 12조 개의 필터링된 코드 토큰으로 훈련됩니다.

독점: Claude 5의 혁명적 훈련 프로세스

Anthropic 내부 문서 유출이 Claude 5의 훈련 방법론에 대한 전례 없는 세부 사항을 공개합니다.

핵심 공개 #1: 헌법적 자기 개선

AI 모델이 학습 중에:

1. 코드 솔루션 생성

2. 헌법적 원칙 (보안, 유지보수성, 성능)에 대해 평가

3. 자체 코드 비평

4. 개선된 버전 생성

5. 모든 헌법적 검사를 통과할 때까지 반복

47개의 헌법적 원칙이 포함되며, 보안, 유지보수성, 성능을 다룹니다.

핵심 공개 #2: 훈련 데이터 규모

총 훈련 데이터: 12조 토큰 코드 전용 데이터: 4.2조 토큰

코드 데이터 구성:

  • 고품질 오픈소스 (2.1T): 별 500+ 리포
  • 기업 코드 (라이선스) (1.4T): 익명 Fortune 500 코드베이스
  • 합성 코드 (자체 생성) (0.7T): 헌법적 검사를 통과한 AI 생성 코드
인터넷 코드의 상위 8%만 훈련 세트에 포함됩니다.

핵심 공개 #3: 아키텍처

Sparse Mixture of Experts (MoE):
  • 총 파라미터: 1.8조 (토큰당 ~450B만 활성)
  • 8개 전문가 네트워크 (프론트엔드, 백엔드, DB, 알고리즘, 보안, DevOps, 테스트, 문서화)
총 훈련 비용: ~$188M

핵심 공개 #4: 출시 일정

공개 출시: 2026년 4월 28일 (잠정)
  • 1일차: API (기업 고객)
  • 30일차: 일반 API + AWS Bedrock
  • 60일차: 소비자 접근 (claude.ai)

결론

유출이 사실이라면, Claude 5는 GPT-4 출시 이후 AI 코딩 능력의 가장 큰 도약을 나타냅니다.

Ready to Experience Claude 5?

Try Now