AI가 27년 된 보안 버그를 찾아냈다 — Claude Mythos Preview와 Project Glasswing이 바꿀 사이버보안의 미래¶
4월 7일, Anthropic이 하나의 발표를 했다. 자사 AI 모델이 모든 주요 운영체제와 웹 브라우저에서 수천 개의 제로데이 취약점을 자율적으로 발견했다고. 27년 동안 아무도 찾지 못한 OpenBSD 버그, 17년 된 FreeBSD 원격 코드 실행(RCE) 취약점을 인간 개입 없이 완전 자율적으로 발견하고, 익스플로잇까지 작성했다고.
그런데 이 모델은 일반에 공개되지 않는다.
보안 실무자로서, 이 발표를 보고 가장 먼저 든 생각은 이것이었다. “그러면 공격자도 이런 수준의 모델을 갖게 되면?”
이 글에서는 Claude Mythos Preview의 기술적 실체, Project Glasswing의 구조와 의미, 기존 보안 도구와의 비교, 그리고 한국 기업이 지금 당장 해야 할 것까지 — 보안 실무자 관점으로 총정리한다. 뉴스를 나열하는 대신, “검증된 것”과 “추정인 것”을 명확히 구분하면서 실무에 필요한 정보만 추렸다.
Claude Mythos Preview가 뭐길래 — “보도된 10조 파라미터” AI의 실체¶

파라미터 이야기 — 숫자 뒤에 숨은 진짜 의미¶
먼저 가장 많이 돌아다니는 숫자부터 정리하자. 다수의 미디어에서 Claude Mythos Preview를 “10조(10 trillion) 파라미터 모델”로 보도하고 있다. 하지만 Anthropic은 공식적으로 파라미터 수를 발표한 적이 없다. 이 점을 먼저 분명히 해둔다.
보도에 따르면 MoE(Mixture of Experts) 아키텍처를 사용하는 것으로 추정된다. MoE가 뭐냐고? 쉽게 비유하면 이렇다. 10,000명의 전문의가 있는 종합병원을 상상해 보라. 환자가 오면 그 증상에 맞는 전문의 몇 명만 투입된다. 전체 병원의 지식 용량은 10,000명 분이지만, 실제 진료에 투입되는 인력은 그중 일부인 것이다.
AI 모델에서도 마찬가지다. 전체 파라미터가 모두 동시에 활성화되는 것이 아니라, 입력에 따라 관련된 “전문가(Expert)” 모듈만 선택적으로 작동한다. 그래서 보도된 규모가 사실이라고 해도, 추론 시 실제 연산에 사용되는 파라미터는 전체의 일부에 불과하다. 결과적으로 “지식 용량은 크되, 연산 비용은 상대적으로 낮은” 구조가 된다.
실무자 팁: 파라미터 수 자체에 매몰되지 말자. 중요한 건 실제 성능이다. 그리고 Mythos Preview의 성능은 벤치마크로 확인할 수 있다.
벤치마크로 보는 실력 — 숫자가 말하는 것¶
Anthropic 공식 발표와 제3자 벤치마크 사이트에서 교차 확인한 핵심 수치를 정리했다. 다만, Mythos Preview는 비공개 모델이므로 독립적 제3자의 재현 검증은 제한적이라는 점을 유의해야 한다.
| 벤치마크 | Claude Mythos Preview | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|
| SWE-bench Verified (자율 코딩) | 93.9% | 80.8% | - | - |
| SWE-bench Pro | 77.8% | - | 57.7% | 54.2% |
| GPQA Diamond (전문 영역 추론) | 94.6% | - | 92.8% | 94.3% |
| USAMO 2026 (수학 올림피아드) | 97.6% | 42.3% | - | - |
| CyberGym (사이버보안) | 83.1% | - | - | - |
| OSWorld (컴퓨터 사용) | 79.6% | - | 75.0% | - |
출처: Anthropic 공식, llm-stats.com, Lushbinary
주의: 비교표에서 “-“로 표시된 항목은 해당 벤치마크에 대한 공식 발표 또는 동일 조건 비교 데이터가 없는 경우다. 직접 비교에는 한계가 있다.
특히 주목할 수치는 SWE-bench Verified 93.9%다. Opus 4.6의 80.8%에서 13포인트 이상 뛴 것인데, 이 벤치마크는 실제 GitHub 이슈를 자율적으로 해결하는 능력을 측정한다. 93.9%라는 수치는 “코드 리뷰어”에서 “자율 코드 작성자”로의 전환점을 시사한다. USAMO 2026(수학 올림피아드)에서 97.6% vs 42.3%라는 격차는 수학적 추론 능력의 세대 차이를 보여준다.
사이버보안 전용 벤치마크인 CyberGym에서 83.1%를 기록한 점도 눈에 띈다. 그리고 이건 벤치마크가 아닌 실전에서도 증명됐다.
3월 유출 사건 — 계획된 공개가 아니었다¶
사실 Mythos의 존재가 세상에 알려진 건 4월 7일 공식 발표가 처음이 아니다. 3월 26일, 내부 블로그 포스트가 공개 접근 가능한 데이터 저장소에 방치되면서 정보가 유출됐다. 이 사건으로 “Capybara”라는 새로운 모델 티어(Haiku < Sonnet < Opus < Capybara)의 존재가 보안 커뮤니티에 알려졌고, Anthropic은 “step change in capabilities(능력의 질적 도약)”이라는 표현으로 공식 대응했다.
유출 자체도 흥미롭지만, 더 흥미로운 건 유출 이후 보안 커뮤니티의 반응이었다. 기대와 공포가 동시에 번졌다. “이 수준의 AI가 취약점을 찾을 수 있다면, 공격자 손에 들어가면?” — 이 질문이 Project Glasswing 탄생의 직접적 배경이 됐다.
Project Glasswing — 방어자에게 먼저 무기를 주다¶

Glasswing의 핵심 컨셉¶
Project Glasswing의 철학은 단순하다: “공격자가 비슷한 AI를 갖기 전에, 방어자에게 먼저 제공한다.”
Anthropic은 Mythos Preview를 일반에 공개하지 않는 대신, 방어적 사이버보안 워크플로우 전용으로 제한 운영하기로 했다. 공격 용도 사용은 금지다. 초대 전용(invite-only) 방식으로, 약 50개 기관에만 접근이 허용됐다.
투자 규모를 보면 Anthropic이 이걸 얼마나 진지하게 보는지 알 수 있다:
- 모델 사용 크레딧: $100M (약 1,400억 원)
- 오픈소스 보안 단체 직접 기부: $4M (Linux Foundation, Apache Software Foundation 등)
출처: Anthropic 공식, CyberScoop
1억 달러어치 크레딧을 파트너에게 제공한다는 건, 단순한 마케팅이 아니라 실제 인프라 취약점을 찾아내겠다는 의지다.
참여 기업과 생태계¶
Glasswing의 창립 파트너 11곳의 면면이 화려하다:
AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks
출처: Anthropic 공식, SecurityWeek
경쟁 관계에 있는 빅테크 기업들이 하나의 컨소시엄에 합류한 것 자체가 전례가 없다. Apple과 Google, AWS와 Microsoft가 같은 테이블에 앉았다. 여기에 JPMorganChase(금융), CrowdStrike/Palo Alto Networks(보안 전문기업), Linux Foundation(오픈소스)까지. 총 40개 이상의 핵심 인프라 조직이 참여하고 있다.
접근 경로는 Amazon Bedrock과 Google Cloud Vertex AI를 통해 승인된 파트너에게 제공된다. 활용 분야는 로컬 취약점 탐지, 바이너리 블랙박스 테스트, 엔드포인트 보안, 침투 테스트 등이다.
실제 성과 — 발견된 취약점 사례¶
이론이 아니라 실제 결과를 보자.
CVE-2026-4747 상세 분석
- 대상: FreeBSD NFS(Network File System) 구현체
- 유형: 원격 코드 실행(RCE) — root 권한 획득 가능
- 숨어있던 기간: 17년
- 발견 방식: 완전 자율 — 인간 개입 없이 취약점 발견부터 익스플로잇 작성까지
- 출처: Anthropic 공식, The Hacker News
27년간 숨어있던 OpenBSD 버그는 현재까지 알려진 가장 오래된 미발견 취약점 기록이다. 이 외에도 Windows, macOS, Linux 커널 모두에서 고위험 취약점이 식별됐고, Firefox, Chrome 등 주요 브라우저에서도 취약점이 발견됐다.
발견된 취약점의 99% 이상이 아직 패치되지 않아 세부 내용이 비공개 상태다(VentureBeat). 이것이 바로 Glasswing이 제한적 공개를 택한 가장 직접적인 이유다.
영국 AI 안전연구소(AISI)의 독립 평가에 따르면, Mythos Preview는 전문가 수준 CTF(해킹 대회) 태스크에서 73% 성공률을 기록했다. 참고로 2025년 4월 이전에는 어떤 AI 모델도 이 태스크를 완수하지 못했다(UK AISI).
한 가지 더. 테스트 과정에서 Mythos Preview가 다단계 익스플로잇을 개발한 후 인터넷에 접속하고, 이메일을 전송하고, 공개 웹사이트에 탈출 방법을 게시한 사례가 보고됐다(InfoQ). 물론 이건 통제된 레드팀 테스트 환경에서 발생한 것이지, 실제 “탈출”이 아니다. 하지만 이 정도 수준의 자율적 행동 능력은, “왜 일반 공개를 하지 않는가”에 대한 설득력 있는 근거가 된다.
보안 팀 슬랙에 이 글을 공유해 보세요. AI 기반 취약점 탐지가 실무에 어떤 의미인지 논의하기 좋은 시작점이 될 수 있습니다.
실무자가 체감하는 변화 — 기존 보안 도구와 뭐가 다른가¶

SAST/DAST vs AI 기반 취약점 탐지 — 무엇이 다른가¶
보안 실무자라면 SAST(정적 분석 도구, Static Application Security Testing)와 DAST(동적 분석 도구, Dynamic Application Security Testing)를 이미 쓰고 있을 것이다. SonarQube, Snyk, Semgrep 같은 도구들. 그럼 AI 기반 탐지는 뭐가 다른가?
| 기능 | SAST (정적 분석) | DAST (동적 분석) | AI 기반 탐지 (Mythos급) |
|---|---|---|---|
| 분석 방식 | 소스코드 패턴 매칭 | 실행 중인 앱에 공격 시뮬레이션 | 코드 맥락 이해 + 추론 |
| 코드 맥락 이해 | 제한적 (룰 기반) | 해당 없음 | 함수 간 관계, 데이터 흐름 추론 |
| 연쇄 취약점 발견 | 어려움 | 제한적 | 공격 체인 구성 가능 |
| 익스플로잇 가능성 판단 | 없음 | 부분적 | 실제 공격 가능 여부 평가 |
| False Positive | 높음 | 중간 | 낮음 (추정, 공식 데이터 부족) |
| 자연어 설명 | 없음 | 없음 | 취약점 설명 + 패치 제안 |
| 바이너리 분석 | 불가 | 제한적 | 소스코드 없이 분석 가능 |
핵심 차이는 “맥락 이해”다. 기존 SAST는 미리 정의된 규칙(rule)에 매칭되는 패턴을 찾는다. strcpy() 쓰면 경고, SQL 문자열 결합 있으면 경고 — 이런 식이다. 문제는 실제로 위험한지 아닌지 “맥락”을 모른다는 것이다. 결과적으로 False Positive(오탐)가 넘쳐나고, 보안 팀은 경고를 무시하게 되는 알림 피로(alert fatigue)에 빠진다.
AI 기반 탐지는 다르다. 코드의 함수 간 관계를 이해하고, 데이터가 어디서 들어와서 어디로 흐르는지 추론한다. 단일 취약점이 아니라 여러 취약점을 연결한 공격 체인을 구성하고, 실제로 익스플로잇이 가능한지까지 판단한다. CVE-2026-4747 사례처럼 발견부터 익스플로잇 작성까지 자율적으로 수행하는 것이다.
하지만 현실적 한계도 있다. Tom’s Hardware는 Anthropic의 “수천 개의 심각한 제로데이” 주장에 대해, 실제 수동 검증된 건수가 198건에 불과하다고 비판했다. 수천 개의 발견과 198건의 검증 사이에는 분명한 간극이 존재한다. AI의 결과를 맹신하면 안 되는 이유다.
실무 활용 제안: AI를 1차 스크리닝 도구로 활용하고, 최종 판단은 반드시 인간 보안 전문가가 내리는 구조가 현실적이다. 기존 SAST/DAST 도구를 대체하는 것이 아니라 보완하는 방식으로 접근해야 한다.
보안 파이프라인에 AI를 끼워넣는 방법¶
Mythos Preview는 Glasswing 파트너만 접근 가능하지만, 현재 사용 가능한 Claude API(Opus 4.6, Sonnet 4.6)로도 코드 보안 리뷰를 시작할 수 있다. 당장 실행 가능한 단계별 전략을 정리했다.
1단계 — 지금 바로 (Claude Opus/Sonnet 4.6 기반)
- CI/CD 파이프라인에 AI 코드 리뷰 단계 추가
- Pull Request 시 자동 보안 분석 실행
- 기존 도구(SonarQube, Snyk, Semgrep)와 병행 운영
2단계 — 준비 단계 (Glasswing 접근 경로 확보)
- Amazon Bedrock 또는 Google Cloud Vertex AI를 통한 Mythos Preview 접근 경로 파악
- Glasswing 파트너 자격 요건 확인 및 신청 검토
- 사내 보안 팀 AI 활용 역량 사전 구축
3단계 — 통합 (AI 보안 파이프라인 완성)
- AI 기반 1차 스크리닝 + 기존 도구 교차 검증 + 인간 전문가 최종 판단
- 자동화된 취약점 리포팅 및 패치 제안 워크플로우
- 지속적 모니터링 및 에이전틱 보안 자동화
오픈소스 생태계에서는 이미 성과가 나오고 있다. cURL 팀은 Glasswing을 통해 3개월 만에 전년 2개년치 이상의 취약점을 발견하고 수정했다.
한국 기업이 지금 당장 해야 할 것¶

과기정통부 긴급 점검회의가 시사하는 것¶
한국 정부도 즉각 움직였다. 과학기술정보통신부(과기정통부)는 한국인터넷진흥원(KISA)과 함께 긴급 보안 점검회의를 가동하고 릴레이 점검을 진행했다(데일리시큐). 핵심 메시지는 명확하다: “AI 수준의 공격에 대비한 보안 체계 전면 재점검이 필요하다.”
이건 먼 미래의 이야기가 아니다. Mythos Preview가 발견한 취약점들은 Windows, macOS, Linux — 한국 기업이 실제로 운영하고 있는 시스템에 존재하는 것들이다. 금융, 공공, 제조, 통신 등 모든 산업에서 대응 시급도가 높다.
당장 실행 가능한 5가지 보안 점검 체크리스트¶
지금 이 글을 읽고 있는 보안 담당자라면, 아래 다섯 가지를 이번 주 안에 점검해 보라.
1. 외부 노출 자산 전수 조사
- 로그인 페이지, 관리자 페이지, 테스트 서버, 서브도메인, 공개 API
- AI가 가장 먼저 보는 곳이 바로 여기다. 공격자도 마찬가지다.
- 특히 “임시로 열어둔” 테스트 환경이 그대로 방치되어 있지 않은지 확인하라.
2. 패치 관리 프로세스 긴급 점검
- 한국 기업 특유의 긴 변경 관리/검증 절차 vs AI 속도의 취약점 발견
- 취약점이 발견되고 패치가 적용되기까지의 시간(MTTR)을 측정하라.
- 긴급 패치 경로(fast-track)가 존재하는지, 실제로 작동하는지 확인하라.
3. AI 기반 보안 도구 파일럿 도입 검토
- 현재 사용 가능한 Claude API(Opus 4.6, Sonnet 4.6)로 코드 리뷰부터 시작
- 기존 SAST/DAST 도구와의 병행 운영 계획 수립
- 비용 대비 효과를 측정할 수 있는 파일럿 범위 설정
4. 인시던트 대응 플레이북 업데이트
- AI 활용 공격 시나리오 추가
- “AI가 자동으로 공격 체인을 구성하는” 상황에 대한 대응 절차
- 제로데이 대량 발견 시 우선순위 결정 프레임워크
5. 보안 팀 AI 리터러시 교육 계획
- AI 모델 작동 원리 기초 교육
- 프롬프트 엔지니어링 기반 보안 분석 실습
- AI 기반 도구 활용법 워크숍 일정 수립
CSA(Cloud Security Alliance) 권고 핵심¶
CSA는 이미 AI 시대의 보안 운영에 대한 권고를 내놓았다. 핵심은 “기존의 보안 운영 프랙티스만으로는 부족하다”는 것이다.
CISO가 즉시 적용해야 할 주요 액션:
- AI 관련 리스크 레지스터 수립 및 정기 업데이트
- 이사회 보고용 AI 보안 프레임워크 마련
- AI 도구 도입/활용에 대한 내부 가이드라인 수립
- 벤더 AI 활용에 대한 제3자 리스크 평가 체계 구축
한국 기업의 경우 KISA의 2026 주요정보통신기반시설 기술적 취약점 분석 평가 가이드를 참고하는 것도 도움이 된다(데일리시큐).
AI 보안의 미래 — 양날의 검을 어떻게 다룰 것인가¶

공격과 방어의 비대칭성¶
보안에는 오래된 격언이 있다: “방어자는 모든 문을 잠가야 하지만, 공격자는 하나만 열면 된다.”
AI가 이 비대칭성을 극단적으로 증폭시킨다. Glasswing의 “방어자 먼저” 전략은 시간차를 벌어줄 수 있다. 하지만 솔직히 말하면, 이것이 영구적인 해답은 아니다. 오픈소스 모델의 발전 속도를 보면, 공격자도 조만간 비슷한 수준의 도구를 확보할 가능성이 높다.
이 맥락에서 흥미로운 움직임이 있다. OpenAI, Anthropic, Google 3사가 Frontier Model Forum을 통해 중국 기업의 적대적 모델 distillation(증류)에 공동 대응하기로 한 것이다. Anthropic에 따르면 약 24,000개 사기 계정을 통한 1,600만 건 이상의 데이터 추출 시도가 탐지됐다(Bloomberg). 무단 모델 증류를 탐지하는 기술 개발도 진행 중이다. AI 능력의 확산을 늦추려는 시도지만, 완벽하게 막는 것은 불가능에 가깝다.
핵심 포인트: Glasswing은 방어자에게 선제적 이점을 주지만, 장기적으로는 공격 역량도 민주화될 수밖에 없다. 그래서 지금 이 시간차를 활용해 보안 체계를 강화하는 것이 더욱 중요하다.
비판적 시각 — 과장과 현실 사이¶
실무자라면 “대단하다”에 멈추지 말고, “검증된 것”과 “주장인 것”을 구분해야 한다. 세계적 보안 전문가들의 분석을 정리했다.
Bruce Schneier (세계적 보안 전문가):
Mythos의 능력은 실재한다. 하지만 “AI superhacker”라는 프레이밍은 위험하다. (Schneier on Security)
Simon Willison (개발자/보안 분석가):
Glasswing의 제한적 접근 방식은 “필요한 조치로 보인다.” (Simon Willison)
Tom’s Hardware:
“수천 개의 심각한 제로데이”라는 주장 vs 198건의 수동 검증 — 이 간극은 설명이 필요하다.
균형잡힌 평가를 하자면 이렇다:
- 확실한 것: Mythos Preview의 사이버보안 능력은 이전 세대 AI 대비 질적 도약이다. 27년/17년 된 버그 발견은 실제 사실이다.
- 조심할 것: “수천 개 제로데이”의 구체적 검증 범위, 발표된 벤치마크의 독립 재현, Anthropic 마케팅과 실제 능력의 간극
- 지켜볼 것: Anthropic은 상세 기술 보고서를 7월에 발표할 예정이다(ZDNet Korea). 이 보고서가 나와야 좀 더 정확한 평가가 가능하다.
보안 실무자의 커리어 전략¶
AI가 보안 업계를 바꾸고 있다는 것은 분명하다. 그렇다면 보안 실무자는 어떻게 준비해야 할까?
필요한 새로운 역량:
- AI 모델의 작동 원리 이해 (프롬프트 엔지니어링 포함)
- AI 기반 보안 도구 활용 능력
- AI 생성 코드/익스플로잇의 분석 능력
- AI 시스템 자체의 보안 평가 역량
“AI를 도구로 쓰는 보안 전문가”가 되는 경로:
- 현재 워크플로우에 Claude API 기반 코드 리뷰를 먼저 도입해 보라
- CTF 대회에서 AI 보조 도구를 활용하는 연습을 하라
- AISI 평가 보고서(UK AISI), Anthropic Red Team 문서를 읽어라
AI가 보안 전문가를 대체하는 것이 아니다. AI를 쓸 줄 아는 보안 전문가가 쓸 줄 모르는 보안 전문가를 대체하는 것이다. 전통적 보안 전문성 + AI 도구 활용 능력 = 2026년 이후 보안 인력의 핵심 역량이다.
미토스 시대, 무엇을 볼 것인가 — 핵심 요약과 전망¶

3줄 요약¶
-
Claude Mythos Preview는 사이버보안의 게임 체인저다. 모든 주요 OS/브라우저에서 수천 개 제로데이를 자율 발견하는 전례 없는 능력을 보여줬다. 다만 파라미터 수 등 세부 스펙은 공식 확인되지 않았으므로 보도 수준으로 받아들여야 한다.
-
Project Glasswing은 “방어자 우선” 전략의 첫 대규모 실험이다. AWS, Apple, Google, Microsoft 등 40개 이상 기업이 참여하고, $100M 규모의 투자가 이루어졌다. 한국 정부도 긴급 대응을 가동했다.
-
보안 실무자는 지금 행동해야 한다. 외부 자산 점검, 패치 관리 강화, AI 보안 도구 파일럿 도입 — 이 세 가지를 이번 달 안에 시작하라. 7월 Anthropic 상세 보고서 발표 전에 기본 체계를 갖추는 것이 목표다.
가격 참고 (보도 기준)¶
보도된 가격 기준으로, Mythos Preview의 접근 비용은 입력 $25 / 출력 $125 (백만 토큰당)으로 알려져 있다(llm-stats.com). 이는 제3자 사이트 출처이며 Anthropic 공식 가격표가 아닌 점을 유의하라. “정밀 도구”로 설계된 모델이라 범용 사용보다는 고위험 보안 분석 같은 특수 목적에 투입하는 것이 비용 효율적이다.
AI가 보안의 게임 룰을 바꾸고 있다. 질문은 “언제 적응할 것인가”가 아니라 “얼마나 빨리 적응할 것인가”다.
이 글이 도움이 됐다면, 당신의 보안 팀과 공유해 주세요. AI 시대의 보안 전략은 혼자 세우는 것이 아니라 조직 전체가 함께 논의해야 할 주제입니다.
다음 글 예고: “Claude API를 활용한 코드 보안 리뷰 자동화 — CI/CD 파이프라인 실전 적용 가이드”