AI 에이전트의 설계도가 까발려지다: Claude Code 유출과 Claw Code의 탄생
페이지 정보

조회 211회 작성일 26-04-22 15:39
본문
✨ 클로드 코드가 까발려졌다 — 무슨 영문일까?
여러분들도 잘 아시다시피 클로드는 앤트로픽 (Anthropic)에서 내놓은 AI서비스이며 기업용 시장에서는 이미 오픈AI를 뛰어넘는 매출을 기록하고 있습니다. 미국의 기업지출 관리 플랫폼 램프의 데이터에 따르면, 올해 3월 한 달 간 기업 AI시장에서 앤트로픽의 점유율은 24.4%에서 30.6%로 높아졌고 같은 기간, 시장을 지배하던 오픈AI의 점유율은 약 46%에서 35.2%로 하락하고 있는 상황입니다.
이미 앤트로픽은 소프트웨어, 금융·보험, 전문서비스 등 AI 침투율이 높은 3개 산업에서 이미 점유율 1위를 기록하고 있으며 특히나 매출의 80%가 기업 고객으로부터 발생하고 있는 것으로 알려졌습니다. 즉 시장을 개척한 챗GPT가 AI 시장의 첨병으로서 시장을 열어젖히자, 앤트로픽은 주요 타겟을 개발자 수요와 함께 기업용 시장을 목표로하여 시장 집중화된 노선을 밟아 왔습니다. (구독자님 께서는 앤트로픽이 창립된 이유도 오픈AI의 샘알트만의 노선에 이의를 제기한 핵심개발자들이 퇴사해서 만든 회사라는 것은 잘 아시겠지요)
아직까지는 시장의 개척자라는 이유로 챗GPT가 여전히 절대적 사용자 수를 보유하고 있지만 범용성면에서는 구글 제미나이, 추론 능력에서는 앤트로픽의 클로드가 높은 평가를 받고 있으며 특히 클로드는 전체 점유율이 낮음에도 유료결제 사용자와 전문가 그룹에서 선호도가 높다는 점은 클로드가 개발자와 기업용 시장을 장악하고 있음을 반증하고 있습니다.
그런데 2026년 3월 31일 앤트로픽이 개발자용 패키지 저장소에 AI 에이전트 기반의 코딩 도구인 ‘클로드 코드’를 배포하는 과정에서, 원래는 내부 디버깅용이어야 할 소스맵 파일이 함께 포함되어 배포되어 버렸습니다. 소스맵은 압축되거나 변환된 코드를 다시 원본에 가깝게 복원할 수 있게 해주는 파일이라서, 이게 밖으로 나가면 사실상 “설계도”가 같이 공개되는 셈입니다.
이 사건은 한마디로, “클로드 코드의 구성도와 각 모듈의 역할 등을 기술한 전체 아키텍쳐가 실수로 공개된 사건”입니다. 다만 그 레시피는 요리 비법 정도가 아니라, AI가 어떻게 생각하고, 어떻게 멈추고, 어떻게 검증받는지까지 담긴 모든 아키텍쳐와 로드맵까지를 포괄한 문서였기 때문에 충격이 컸습니다. 특히 이번 유출로 인해 Cursor와 같은 클로드코드의 경쟁사에 시장 리더의 기술적 청사진이 노출되게 되었기에 전 세계 AI 서비스를 연구하던 모든 사람들은 깜짝 놀라서 그 구조를 찬찬히 뜯어보게 됩니다.

일어난 사건을 드라이하게 팩트만 전달하면, 이렇게 됩니다.
1. 3월 31일 중국계 블록체인회사인 솔레이어 랩(Solayer Labs)의 인턴 연구원 차오판 쇼(Chaofan Shou)가 우연히 npm 버전
2.1.88의 59.8MB 소스맵 파일(cli.js.map)을 발견하며 X(트위터)에 올렸고, 몇 시간 만에 GitHub에 아카이빙되어 퍼지게됨2. 발등에 불이 떨어진 엔스로픽은 기하급수적으로 퍼진 관련 소스의 8천여 건 삭제를 공개적으로 요청하였으나 오히려 (어둠의 경로를 좋아하는 개발자들의 특징상) 현재도 코드 1,900개 파일·51만 2천 줄 규모로 지속 확산되고 있음
3. 사건 당시 커뮤니티 반응은 폭발적이었음. 불과 몇 시간 만에 독립 분석 문서 사이트가 등장했고, GitHub에 아카이브 저장소가 생겼으며, Hacker News에는 뜨겁게 분석과 코멘트가 달리고 있음
4. 공개적으로 앤트로픽은 이 사건이 클로드 직원들이 Bun 빌드 도구의 .npmignore 설정을 누락한 인적 오류에서 비롯되었다고 밝힘
이번 유출이 단순한 코드 몇 줄 공개가 아니라 크게 번진 이유는, 모델 자체가 아니라 “모델을 다루는 운영 로직 전체”가 보였기 때문입니다. 즉, 클로드가 어떤 방식으로 요청을 처리하고, 안전장치를 걸고, 작업을 나누고, 결과를 검증하는지 같은 내부 운영 방식이 드러난 겁니다. 이 사건을 AI 에이전트 업계의 “교과서가 의도치 않게 공개된 사례”로 봅니다.
쉽게 비유하면, 겉으로 보이는 제품만 본 게 아니라 그 제품의 제작 매뉴얼, 작업 지침, 품질검사 방식까지 한꺼번에 공개된 것에 가깝습니다. 그래서 개발자들은 “아, 이런 식으로 에이전트가 설계되어 있었구나” 하고 놀랐고, 또한 한 측면에서는 내부 통제의 허점이 노출되었다는 점도 알 수 있습니다.

✨ 공개 직후 벌어진 일들
공개가 확인되자마자 여러 곳에서 해당 소스가 복제되기 시작했습니다. 일부 보도에 따르면 깃허브 등에서 수천 개의 저장소가 생겼고, 앤트로픽은 저작권 침해 신고를 통해 삭제 요청에 나섰습니다. 그러나 짐작되듯 사실상 “퍼진 걸 다시 거두기”는 매우 어려운 상황이었습니다.
이 시기 커뮤니티에서는 코드 구조 분석이 빠르게 진행됐고, 아직 출시되지 않은 기능이나 내부용 기능까지 언급되기 시작했습니다. 이런 부분이 특히 사람들의 흥미를 끌었는데, 단순한 유출이 아니라 제품의 향후 방향성까지 엿볼 수 있는 단서처럼 보였기 때문입니다.
사건 이후의 흐름은 크게 세 가지로 볼 수 있습니다.
첫째, 앤트로픽이 유출된 자료를 차단하고 삭제 요청을 넣는 수습 단계가 있었고,
둘째, 업계는 이번 일을 통해 소스맵·배포 자동화·공급망 보안의 중요성을 다시 점검하게 됐습니다.
셋째, 개발자들은 “클로드 코드가 단순한 래퍼가 아니라 정교한 에이전트 운영체제에 가깝다”는 점을 더 분명히 이해하게 됐습니다.
즉 클로드 코드 유출 사건이 단순한 실수가 아니라 AI 에이전트 시대의 보안·개발 방식·산업 경쟁력까지 드러낸 사건이라는 점입니다. 즉, “소스 코드가 새어 나갔다”는 사실 자체보다, 그 안에 담긴 아키텍처와 내부 보안 설계, 미출시 기능, 제품 운영 철학이 외부에 노출됐다는 점이 더 큰 의미로 다뤄집니다.
유출된 클로드 코드 소스에서 피처 플래그로 숨겨진 44개 미공개 기능이 드러났으며, 이들은 아직 공식 출시되지 않은 고급 에이전트 기능들입니다. 주요 기능들은 자율성 강화, 사용자 상호작용 혁신, 보안·방어 메커니즘으로 분류되며, Cursor 와 같은 클로드코드의 경쟁사 대비 앤트로픽의 기술 우위를 보여줍니다.

✨ 클로드 코드의 하네스(Harness)는 어떻게 구성되어 있을까?
Claude Code의 하네스 체계는 AI 모델(LLM)을 단순한 텍스트 생성기에서 실제 코딩 작업을 수행하는 자율 에이전트로 변환하는 핵심 실행 구조입니다. 유출된 51만 줄 소스코드에서 드러난 이 하네스 아키텍처는 업계 최초로 프로덕션급 에이전트의 내부 설계를 공개하며, AI 개발 패러다임을 바꾼 결정적 요소였습니다. 하네스(Harness)는 LLM 주변을 감싸는 오케스트레이션 레이어입니다. 비유하자면 LLM이 '두뇌'라면, 하네스는 '신체' 역할을 합니다. 원래 하네스란 말에게 채우는 마구(고삐, 굴레)를 이야기하는 것을 상기하면 더 이해가 빠르시겠지요.
아시다시피 저는 엔지니어가 아닌 관계로 상세한 내용은 별도로 찾아보시길 바라며, 다른 전문가들이 분석한 내용을 요약한 것만 간단히 소개만 해보면 다음과 같습니다.
1. 자율·백그라운드 기능
• KAIROS: 상시 가동 자율 백그라운드 에이전트 모드, 세션 간 지속 실행
• Coordinator Mode (Boss AI): 하나의 Claude가 여러 워커 에이전트 관리, 복잡 작업 분배
• ULTRAPLAN: 원격 Opus 4.6 세션에 30분 장기 플래닝 위임
• PROACTIVE: 사전 행동 모드, 사용자 입력 없이 예측 작업 실행2. 사용자 경험 기능
• Buddy System: 타마고치 스타일 ASCII 아트 AI 펫, 동반자 역할
• autoDream (Dream 시스템): 세션 간 "꿈" 기능, 백그라운드 메모리 정리·통합
• VOICE_MODE: 음성 입력 지원3. 보안·방어 기능
• Undercover Mode: 오픈소스 기여 시 내부 정보 자동 제거, 유출 방지
• Fake Tools (Decoy Tool Definitions): API 트래픽 오염으로 경쟁 모델 증류(distillation) 방해
• PasteGuard 관련: 프록시 기반 비밀키 마스킹(외부 도구 연계)4. 기타 주목 기능
• IDE 브릿지: VS Code, JetBrains 양방향 통신
• 영속 메모리 (memdir): 대화 간 기억 유지 시스템
• 미출시 모델 코드네임: Capybara (Claude 4.6), Opus 4.7, Sonnet 4.8
또한 주요하게 참조할 점은 클로드 코드 유출 코드에서 확인된 “Constrain Inform Verify Correct(제한 알리기 검증 교정)” 4원칙입니다. 이 원칙은 AI 에이전트가 사용자의 시스템에서 안전하게 코드를 고치도록 설계된 “운영 철학 + 구조”를 말해 줍니다. 간단히 말하면, “AI가 막 1번 실험을 돌려볼 수 있게 놔두는 게 아니라, 실행 범위를 제한하고, 결과를 명확히 보고받고, 스스로 검증시켜 둔 뒤, 틀린 부분은 즉시 고치는 루프를 도구 단위로 강제하는 규칙”입니다.
1. Constrain(제한)
AI 에이전트가 할 수 있는 동작의 “범위·권한·파일·명령”을 미리 정해 둔다는 의미입니다.이걸 통해 “AI가 1번에 전체 파일을 지우는 명령을 날릴 수 있다” 같은 식의 전체 시스템 파괴 위험을 줄이고, 실행 영역을 좁히는 것 자체가 첫 번째 보안 장치가 되는 구조입니다.
2. Inform(알리기 / 정보 제공)
AI나 에이전트가 작업을 할 때, ** “무슨 작업을 왜 했는지”를 구조화된 형태로 항상 남겨둔다**는 원칙입니다. 이 정보는 사람이 검토할 때뿐 아니라, 다음 단계 도구가 “이전에 뭔가 잘못 했나”를 추적하고, 내부 감시·보안 검증 레이어가 스파이처럼 행동을 이해할 수 있게 해 줍니다.
3. Verify(검증)
“AI가 ‘다 했다’고 주장한 작업이 실제로 제대로 됐는지, 자동으로 다시 검증한다”는 부분입니다. 클로드 코드는 테스트 통과 여부, 빌드 성공 여부, CI 결과 등을 스스로 혹은 외부 서비스에게 요청해 결과를 받아옵니다. 이때 “성공”이라는 단순 메시지가 아니라, 테스트 리포트, 코드 커버리지, 오류 로그 같은 검증 가능한 증거를 보관합니다. 잘못된 실행이 있었으면, 결과에서 드러난 빨간 줄(오류·테스트 실패)을 기반으로 “이번 수정은 믿을 수 없다, 되돌리고 다시 시도”라는 식으로 에이전트 스스로 교정 루프를 돌게 만듭니다. 이 원칙은 “믿고(Trust) 내보내는 것”이 아니라, “증명 가능한 증거를 내고, 그 증거가 통과해야만 다음 단계로 넘어간다”(Proof of Work·보안 관점에서 많이 쓰는 개념이 이와 비슷합니다)는 철학입니다.
4. Correct(교정)
유출된 코드에서 가장 눈에 띄는 부분은, 잘못된 행동·유추·툴 호출을 스스로 잡아내고, 즉시 수정까지 이어가는 자동 교정 구조입니다. 잘못된 툴을 고른 경우, 혹은 권한을 넘어서는 명령을 쓰려 할 경우, 에이전트가 스스로 이런 시도를 “권한 초과·의도 어긋남”으로 판단하고, 실행을 막고, 요청 내용을 사람에게 보고하거나 다른 툴·패턴으로 대체합니다. 또한 클로드 코드에는 ANTI_DISTILLATION_CC 같은 플래그가 있어, 특정 상황에서는 API 응답에 가짜 툴(fake tools)을 슬쩍 끼워 넣어 타사가 트래픽을 수집해 자사 모델을 학습하려고 해도, 학습 데이터에 오염된 패턴이 섞여서 성능이 떨어지게 만드는 “방어·교정” 로직도 있습니다. 그리고 수정 내역이나 테스트 결과를 보고, “이 부분이 정말 사용자가 원하는 것인지”를 다시 평가해, “다른 목적이 있을 수 있다”는 신호를 인지하면, 추가 질문으로 다시 확인하거나 자동으로 더 안전한 다른 경로를 제안합니다.
이렇게 에이전트가 스스로 잘못을 잡고, 또 잡은 뒤에야 비로소 사용자 화면이나 터미널에 결과를 보여주는 구조를 “교정” 단계라고 이해하면 좋습니다.
이 4단계 루프가 코드 레벨에서 구현되어 있다는 점이, 클로드 코드가 단순 코딩 도구가 아니라 “AI 에이전트 운영 체제에 가까운 구조”라고 평가되는 핵심입니다.

✨ 오픈소스의 역습 Claw Code ; 의도치 않은 실수가 이끈 AI 시대의 발전
여러분, 지난 2월의 뉴스레터에서 제가 소개해드린 집게발 로고의 Open Claw 기억나시나요? 그 Open Claw와 비슷하게 Claw Code라고 새롭게 이름지어진 프로젝트는 바로 한국인 개발자인 Sigrid Jin 이라는 사람이 클로드코드의 유출된 소스를 가지고 Python과 Rust를 이용해서 재작성한 오픈소스 프로젝트 이름입니다.
한국인 개발자인 Sigrid Jin(@instructkr)은 법적 리스크를 피하기 위해 원본 소스를 보관하는 대신, 날이 밝기 전 핵심 기능을 Python으로 처음부터 재작성해 공개했고 이 프로젝트 이름을 클로 코드 (Claw Code)로 명명했습니다.
이 저장소는 단순한 유출본 미러가 아니라 Claude Code의 에이전트 하네스(harness) 구조 (툴 와이어링, 태스크 오케스트레이션, 런타임 컨텍스트 관리) 를 Python으로 클린룸 재구현한 결과물이기에 좀 아리송하기는 하지만 (도덕적으로 문제가 있기는 하지만), 클로드 측에서 법적인 이슈를 제기하기에도 어려운 측면은 있습니다. 전해 듣기로는 모든 재구성 작업은 oh-my-codex(OmX)를 이용해 AI 오케스트레이션으로 진행되었다고 합니다. 역시 AI의 조력을 얻어서 진행한 코드 재구성이라고 봐야 할 것입니다.
게다가 이 Claw Code 는 클로드 코드 원본의 강점인 자율 에이전트 오케스트레이션, 컨텍스트 압축, 도구 호출 로직 등의 하네스 전체를 재현하면서도 LLM 호환성을 확대(Rust의 가벼운 실행 환경 덕분에 로컬 모델까지 지원)해 GitHub에서 50K 스타를 돌파했습니다. 당연하게 원본 클로드 코드의 강점(자율 에이전트 오케스트레이션, 컨텍스트 압축, 도구 호출, 보안 로직)을 그대로 가져오면서 누구나 무료로 써볼 수 있게 만들었고 게다가 LLM을 바꿔 끼우기 쉽고(Rust라 가볍고 빠름), OpenAI나 로컬 모델 호환까지도 가능하도록 했으니까요.
원래 클로드 코드는 돈 내고 써야 하는 상용 툴이었는데, Claw Code는 "야, 너도 AI 코딩 에이전트 만들어!" 하면서 문 열어준 셈이 되어버렸습니다. 당연히 커뮤니티에서 포크·개선 폭발 중이고, 이제 "OpenClaw vs Claude Code" 비교 리뷰가 Reddit에 넘쳐납니다.
평을 살펴보니, 물론 상용 제품만큼의 세련미 부족과 초기 버그(컨텍스트 창 관리 미흡)가 지적되기도 하고 Reddit 리뷰에서 "원본 80% 수준이지만 법적 리스크 없이 실험 가능"이라는 B+ 평가를 받았으며, 과도한 기능 확장으로 초보자가 접근하기 어려운 점도 있다고는 합니다만 전반적으로 접근성과 학습 가치를 고려할 때 높은 평가를 받는 프로젝트로 자리 잡았습니다.
유비스톰 마케팅팀은 이번 사건을 '의도치 않은 유출 실수가 급작스런 AI 구조의 발전을 촉발'해버린 엄청난 해프닝으로 보고 있습니다. 비슷하게는 작년 오픈AI를 증류해서 만들었다고 의심받는 중국의 딥시크를 통해 새롭게 AI의 오픈소스 생태계가 열린 이후, 오픈클로라는 Agentic AI의 새로운 세계가 열리자마자 몇 달 가지 않아서 다시 AI 코딩세계를 이끌던 앤트로픽의 하네스 구조와 체계가 세상에 완전히 까발려진 일련의 사건들은 모두 오픈소스AI에 지대한 발전을 가져온 프로젝트라는 점에서 큰 의의를 가집니다. 예전에 안드로이드가 iOS 구조를 참고해 탄생한 것처럼, Claw Code는 '합법 vs 정당성' 논쟁을 촉발하며 "유출 코드는 공공재인가?"라는 연구 윤리적인 논란을 야기하기도 합니다.
유비스톰의 마케팅팀은 이번 앤트로픽의 실수가 종국에는 오픈소스 AI 발전의 노정에서 역사적 사건이 될 것을 예상합니다. 오픈AI, 메타, 구글, 아마존 등 AI경쟁에서 우위를 차지하기 위해 더 큰 모델 경쟁과 하드웨어 투자에만 몰입하던 거대 IT 기업들에게 “바보야, 실제로 중요한 것은 '더 큰 모델'이 아니라 '더 나은 시스템(하네스)'이라는 것을 세상에 일깨워준 사건으로 말입니다. 우연히 밝혀지게 된 Claude Code의 내부 로직(권한 시스템, 샌드박스, 보안 프롬프트)은 머지않아 전 세계 모든 AI 연구자들에게 de facto 표준으로 자리 잡을 것이고, 보안 강화와 에이전트 표준화를 촉진하면서 커뮤니티 주도 혁신을 통해 AI가 거대기업과 소수의 IT 엘리트 전유물에서 대중적인 도구로 전환되는 상징으로 자리잡게 될 것입니다.

✨ 미래 전망: Claw Code가 열 문
저는 Claw Code는 2026년 하반기 Cursor나 GitHub Copilot의 대항마로 성장할 것으로 전망합니다. 그 이유는 이 유출된 Claw Code 자체가 아니라 Claw Code가 촉발한 이 구조의 선진화라는 모델을 참고하게 함으로, 모든 연구자들의 AI 모델에 녹아 에이전트 표준화의 기반과 유사 하네스의 개발 및 소싱, 그리고 일정한 구조의 생태계 통합을 가속화시킬 것으로 예상되기 때문입니다.
결국 이 해프닝은 AI의 '오픈 이노베이션 시대'를 앞당겼습니다. 어쩌면 기술 발전은 완벽한 계획이 아닌, 실수와 커뮤니티 집단지성의 창의적 대응에서 비롯된다는 교훈을 남기지 않았나 싶습니다.
| 해외 커뮤니티를 살피다보니, 재미있는 음모론이 있어서 덧붙입니다. 일부 커뮤니티에서는 이 사건이 Anthropic의 만우절(April Fool) 마케팅이라는 주장도 있네요. 3월31일 유출된 실제로 소스 코드에는 BUDDY 기능의 "April 1-7, 2026 teaser window"가 명시되어 있답니다. 그러나 소스맵 유출 자체는 2025년에도 있었던 실수의 반복이며, Anthropic이 신속히 패키지를 수정한 것으로 보아 의도된 공개가 아닌 것으로 판단되지만 누가 알겠습니까? 서두에서 말씀드렸다시피 오픈AI 샘알트만의 Closed AI (오픈AI 이름과는 상반되는)정책에 반발해서 뛰쳐나와 회사를 만든 Anthropic의 개발자라면 충분히 그럴 만하다고 생각되지 않나요? 트럼프의 이란 침공에 Claude를 사용하지 못하도록 계약을 해지하면서 엄청난 레퍼런스와 매출을 포기할 정도의 올곧은 뚝심을 가진 Anthropic 개발자라면 말입니다. |
- 다음글2026년 2월, 순식간에 열려버린 AI 에이전트 생태계, 오픈클로(OpenClaw) 26.02.25