Anthropic Claude 최신 기능 총정리 (2026) - Message Batches API부터 Claude Cowork까지¶
지난 두 달간 Anthropic이 쏟아낸 업데이트를 따라가느라 정신이 없었다. Opus 4.6이 나왔다 싶더니 바로 뒤이어 Sonnet 4.6, Cowork 플러그인 확장, Agent Teams까지. 하나하나 실무에 적용해보면서 “이건 진짜 쓸만하다” 싶은 것과 “아직은 좀 이르다” 싶은 것을 정리해봤다.
이 글에서 다루는 내용은 다음과 같다.
- Message Batches API - 대량 처리 비용을 반으로 줄이는 비동기 API
- Claude 4.6 모델 패밀리 - Opus 4.6, Sonnet 4.6, 그리고 Adaptive Thinking
- Claude Code 최신 기능 - Agent Teams, Context Compaction, 보안 강화
- Claude Cowork - 비개발자를 위한 AI 에이전트와 업무 자동화
- API 가격 완전 비교 - 내 프로젝트에 맞는 모델과 비용 최적화 전략
API를 직접 호출하는 백엔드 개발자부터, Claude Code로 코딩하는 풀스택 개발자, 그리고 Cowork로 업무 자동화를 고민하는 기획자/PM까지 - 각자의 상황에 맞는 섹션을 골라 읽어도 좋다.
1. Message Batches API - 대량 처리의 비용을 반으로 줄이는 법¶
“API 호출 1만 건을 돌려야 하는데 비용이 부담된다.” 이런 고민을 해본 적 있다면, Message Batches API가 답이 될 수 있다. 핵심은 간단하다. 즉시 응답이 필요 없는 작업을 모아서 보내면, Anthropic이 50% 할인된 가격에 처리해준다.
Message Batches API란? - 기존 API와 뭐가 다른가¶
일반 Messages API는 요청을 보내면 즉시 응답을 받는 동기 방식이다. 반면 Batches API는 요청을 한꺼번에 묶어서 보내고, 처리가 끝나면 결과를 가져오는 비동기 방식이다.
한 문장으로 정의하면: “지금 당장 답이 필요 없는 작업을, 모아서 보내고, 절반 가격에 처리받는 API”다.
현재 정식(GA) 상태로, 한 번에 최대 100,000건 또는 256MB까지 묶어서 보낼 수 있다. 대부분 1시간 이내에 처리가 끝나고, 최대 24시간까지 보장된다. 결과는 생성 후 29일간 다운로드할 수 있으니 여유가 있다.
실전 활용 시나리오 3가지¶
시나리오 1: 대규모 데이터 분류/라벨링
월 10만 건의 고객 리뷰를 감성/주제별로 분류해야 한다면? Haiku 4.5 + Batch API 조합이면 된다. 입력 토큰당 $0.50/MTok으로, 월 $50~100 수준이면 수동 분류 대비 비용을 90% 이상 줄일 수 있다.
시나리오 2: 콘텐츠 일괄 번역/요약
이커머스에서 신규 상품 5,000개의 SEO 최적화된 설명을 생성해야 한다면? Sonnet 4.6 + Batch API + 프롬프트 캐싱을 조합하면 표준 API 대비 약 60% 비용 절감이 가능하다.
시나리오 3: 코드 리뷰 자동화
수백 개의 PR을 일괄 분석해야 하는 상황이라면? Opus 4.6의 깊은 추론 능력과 Batch API의 할인을 조합하면 고품질 분석을 합리적인 비용에 수행할 수 있다.
Python 코드로 바로 시작하기¶
Batch API 사용법은 생각보다 간단하다. Python SDK로 배치를 생성하고, 상태를 확인하고, 결과를 가져오는 3단계면 된다.
1단계: 배치 생성
import anthropic
from anthropic.types.message_create_params import MessageCreateParamsNonStreaming
from anthropic.types.messages.batch_create_params import Request
client = anthropic.Anthropic()
message_batch = client.messages.batches.create(
requests=[
Request(
custom_id="review-001",
params=MessageCreateParamsNonStreaming(
model="claude-sonnet-4-6",
max_tokens=1024,
messages=[
{"role": "user", "content": "이 고객 리뷰의 감성을 분석해주세요: ..."}
],
),
),
Request(
custom_id="review-002",
params=MessageCreateParamsNonStreaming(
model="claude-sonnet-4-6",
max_tokens=1024,
messages=[
{"role": "user", "content": "이 고객 리뷰의 감성을 분석해주세요: ..."}
],
),
),
# 최대 100,000건까지 추가 가능
]
)
print(f"배치 ID: {message_batch.id}")
2단계: 상태 폴링
import time
while True:
message_batch = client.messages.batches.retrieve(message_batch.id)
if message_batch.processing_status == "ended":
break
print(f"처리 중... {message_batch.processing_status}")
time.sleep(60)
3단계: 결과 스트리밍 조회
for result in client.messages.batches.results(message_batch.id):
match result.result.type:
case "succeeded":
print(f"[성공] {result.custom_id}")
case "errored":
if result.result.error.type == "invalid_request":
print(f"[요청 오류] {result.custom_id} - 요청 수정 필요")
else:
print(f"[서버 오류] {result.custom_id} - 재시도 가능")
case "expired":
print(f"[만료] {result.custom_id} - 24시간 내 미처리")
비용 절감 효과 - 실제 숫자로 보기¶
Batch API의 50% 할인이 실제로 얼마나 차이나는지 표로 정리했다.
| 모델 | 표준 입력/출력 (MTok) | Batch 입력/출력 (MTok) | 절감율 |
|---|---|---|---|
| Opus 4.6 | $5 / $25 | $2.50 / $12.50 | 50% |
| Sonnet 4.6 | $3 / $15 | $1.50 / $7.50 | 50% |
| Haiku 4.5 | $1 / $5 | $0.50 / $2.50 | 50% |
여기에 프롬프트 캐싱까지 조합하면 절감 효과는 더 커진다. 예를 들어 동일한 시스템 프롬프트를 공유하는 배치 요청의 경우, 캐시 히트율에 따라 Batch 할인 + 캐싱 할인이 누적 적용되어 최대 75% 이상 절감도 가능하다.
# 프롬프트 캐싱 + Batch API 조합 예시
message_batch = client.messages.batches.create(
requests=[
Request(
custom_id="analysis-1",
params=MessageCreateParamsNonStreaming(
model="claude-opus-4-6",
max_tokens=1024,
system=[
{"type": "text", "text": "당신은 코드 리뷰 전문가입니다."},
{
"type": "text",
"text": "<프로젝트 코딩 컨벤션 전문>",
"cache_control": {"type": "ephemeral"},
},
],
messages=[
{"role": "user", "content": "이 PR을 리뷰해주세요: ..."}
],
),
),
# 같은 시스템 프롬프트를 공유하는 추가 요청들...
]
)
사용 시 주의사항¶
실무에서 Batch API를 쓸 때 알아둬야 할 점들이 있다.
- 응답 순서가 보장되지 않는다. 각 요청에
custom_id를 부여해서 결과를 매핑해야 한다. - 한 요청의 실패가 다른 요청에 영향을 주지 않는다. 100건 중 3건이 실패해도 나머지 97건은 정상 처리된다.
- 결과는
.jsonl스트리밍으로 받는 게 좋다. 대량 결과를 한 번에 메모리에 올리면 문제가 될 수 있다. - 24시간 내 미처리 건은
expired로 표시된다. 다만 실제로는 대부분 1시간 내로 끝난다.
한 줄 요약: 즉시 응답이 필요 없는 대량 작업이라면, Batch API로 바꾸는 것만으로 API 비용을 절반으로 줄일 수 있다.
2. Claude 4.6 모델 패밀리 - Opus, Sonnet, 그리고 새로운 사고 방식¶
2026년 2월, Anthropic은 두 개의 4.6 모델을 연달아 출시했다. 2월 5일에 Opus 4.6, 2월 17일에 Sonnet 4.6. 단순한 성능 향상을 넘어서, 모델이 “생각하는 방식” 자체가 달라졌다.
Opus 4.6 vs Sonnet 4.6 - 어떤 모델을 선택해야 할까¶
결론부터 말하면, 대부분의 실무 작업에서는 Sonnet 4.6이면 충분하다. 직접 써보니 Sonnet 4.6은 이전 세대 플래그십인 Opus 4.5를 넘어서는 수준이었다.
| 비교 항목 | Opus 4.6 | Sonnet 4.6 |
|---|---|---|
| 출시일 | 2026년 2월 5일 | 2026년 2월 17일 |
| 모델 ID | claude-opus-4-6 |
claude-sonnet-4-6 |
| 입력 / 출력 가격 (MTok) | $5 / $25 | $3 / $15 |
| 컨텍스트 윈도우 | 1M (베타) | 1M (베타) |
| 최대 출력 | 128K 토큰 | 64K 토큰 |
| SWE-bench Verified | 80.8% | 79.6% |
| GDPval-AA (실무 작업) | 1606 Elo | 1633 Elo |
| 가격 대비 성능 | 최고 추론 품질 | 최적 가성비 |
주목할 점은 GDPval-AA 벤치마크에서 Sonnet 4.6(1633 Elo)이 Opus 4.6(1606 Elo)보다 높게 나온 것이다. 실무 작업 수행 능력에서 더 저렴한 모델이 오히려 앞서는 셈이다. Sonnet 4.6은 Sonnet 4.5 대비 사용자 선호도에서 70%, 심지어 Opus 4.5 대비로도 59% 선호를 기록했다.
Opus 4.6을 써야 할 때:
- 대규모 코드베이스 리팩토링처럼 깊은 추론이 필요한 작업
- 다중 에이전트를 조율하는 복잡한 워크플로우
- ARC-AGI-2 같은 추론 벤치마크에서 68.8%를 기록한 것처럼 정말 어려운 문제를 풀어야 할 때
Sonnet 4.6이면 충분할 때:
- 일반적인 코딩, 문서 작성, 데이터 분석
- 비용 효율이 중요한 프로덕션 환경
- 수학 성능이 중요한 경우 (Sonnet 4.5의 62%에서 89%로 대폭 향상)
Adaptive Thinking - 모델이 스스로 사고 깊이를 조절한다¶
Claude 4.6에서 가장 눈에 띄는 변화는 Adaptive Thinking이다. 이전에는 Extended Thinking을 쓸 때 budget_tokens로 “이만큼 생각해”라고 고정 예산을 줬다. Adaptive Thinking은 모델이 문제의 난이도를 보고 스스로 얼마나 깊이 생각할지 결정한다.
# 기존 방식 (deprecated)
response = client.messages.create(
model="claude-opus-4-6",
thinking={"type": "enabled", "budget_tokens": 10000},
...
)
# 새로운 방식 (권장)
response = client.messages.create(
model="claude-opus-4-6",
thinking={"type": "adaptive"}, # 모델이 알아서 판단
...
)
effort 파라미터로 대략적인 가이드를 줄 수도 있다.
low: 간단한 분류, 형식 변환 등 빠른 응답이 필요할 때high(기본값): 일반적인 코딩, 분석 작업max: 복잡한 수학 문제, 대규모 코드 리팩토링처럼 최대한 깊이 생각해야 할 때
실무에서 체감되는 차이는 에이전트 워크플로우에서 두드러진다. 에이전트가 여러 단계를 거치며 작업할 때, 각 단계의 난이도에 따라 사고 깊이가 자동으로 조절되기 때문에, 간단한 파일 읽기에는 빠르게, 복잡한 로직 설계에는 깊게 생각하게 된다.
Fast Mode - 속도가 생명인 작업을 위한 선택¶
Opus 4.6에는 Fast Mode도 추가됐다. 같은 모델을 최대 2.5배 빠른 속도로 쓸 수 있는 대신, 가격이 입력 $30, 출력 $150/MTok으로 표준 대비 6배 비싸다.
코드 자동완성이나 실시간 대화처럼 지연시간이 사용자 경험에 직접 영향을 주는 경우에 적합하다. 다만 아직 Research Preview 단계라 가격 정책이 바뀔 수 있다는 점은 감안해야 한다.
1M 컨텍스트 윈도우 (베타) - 대용량 문서 처리¶
Opus 4.6과 Sonnet 4.6 모두 컨텍스트 윈도우가 기본 200K에서 최대 1M 토큰까지 확장됐다(베타). Usage Tier 4 이상에서 사용 가능하며, 200K를 초과하는 입력에는 토큰 가격이 2배, 출력은 1.5배로 적용된다.
1M 토큰이면 대략 한국어 기준으로 50만 자 이상의 텍스트를 한 번에 넣을 수 있다. 대규모 코드베이스 전체를 컨텍스트에 넣고 리팩토링 계획을 세우거나, 수백 페이지 분량의 법률 문서를 한 번에 분석하는 것이 가능해진다.
한 줄 요약: 대부분의 실무에는 Sonnet 4.6의 가성비가 최고이며, Adaptive Thinking으로 사고 효율도 크게 올랐다.
3. Claude Code 최신 기능 - 터미널에서 만나는 AI 팀원¶
Claude Code는 터미널 기반의 AI 코딩 도구다. 2026년 초 업데이트에서 가장 큰 변화는 Agent Teams - 하나의 AI가 아닌, 여러 AI가 팀으로 협업하는 기능이다.
Agent Teams - AI 개발 팀을 운영하는 경험¶
Agent Teams의 구조는 단순하다. 하나의 세션이 Team Lead가 되고, 필요에 따라 Teammate를 생성해서 병렬로 작업을 분배한다. 각 Teammate는 독립된 컨텍스트에서 작업하면서, SendMessage 도구로 서로 소통하고, 공유 태스크 목록으로 진행 상황을 관리한다.
Anthropic 엔지니어링 블로그에 소개된 인상적인 사례가 있다. Opus 4.6 에이전트 16개가 팀으로 협업해서 C 컴파일러를 작성한 것이다. 비용은 약 $20,000이 들었다고 하는데, 이건 극단적인 예시고 실무에서는 3~5명 규모가 최적이라고 공식 문서에서 권장한다.
실무에서 Agent Teams가 효과적인 경우는 이렇다.
- 리서치/리뷰: 여러 Teammate가 서로 다른 측면을 동시에 조사
- 풀스택 기능 개발: Backend, Frontend, Test Agent가 각각 담당 영역을 병렬로 개발
- 디버깅: 서로 다른 가설을 병렬로 검증
- 크로스 레이어 작업: 프론트엔드/백엔드/DB에 걸친 변경을 동시에 진행
다만 아직 실험적 기능(Experimental)이라는 점은 알아둬야 한다. CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS 설정을 별도로 활성화해야 쓸 수 있고, API나 동작 방식이 변경될 수 있다.
Context Compaction - 긴 대화에서도 맥락을 잃지 않는다¶
Claude Code로 대규모 리팩토링 같은 긴 작업을 하다 보면, 대화가 길어지면서 이전 맥락이 사라지는 문제가 있었다. Context Compaction은 이 문제를 해결한다. 대화가 설정된 임계값에 도달하면 자동으로 이전 컨텍스트를 요약해서, 핵심 정보는 유지하면서 토큰을 절약한다.
서버 사이드에서 처리되기 때문에 사용자가 별도로 관리할 필요가 없다. 사실상 무한 대화가 가능해진 셈이다.
보안 - 샌드박스와 권한 관리¶
Claude Code의 보안 아키텍처는 꽤 탄탄하다.
OS 수준 격리: macOS에서는 Seatbelt, Linux에서는 bubblewrap을 사용해서 파일 시스템과 네트워크를 격리한다. AI가 아무 파일이나 읽거나 임의의 네트워크 요청을 보내는 것을 OS 레벨에서 차단하는 것이다.
권한 제어 시스템: 모든 도구(Bash, Read, Edit, WebFetch, MCP 등)에 권한 시스템이 적용된다. 기본 모드는 “Ask”로, 규칙에 매칭되지 않는 작업은 반드시 사용자에게 확인을 받는다.
Hooks: 도구 실행 전후에 사용자 정의 명령을 실행할 수 있다. 예를 들어 특정 파일에 대한 수정을 자동으로 차단하거나, 모든 Git 커밋에 자동 서명을 추가하는 등의 정책을 적용할 수 있다.
한 가지 주목할 점은 Opus 4.6의 보안 역량이다. Anthropic 레드팀에 따르면, Opus 4.6은 오픈소스 코드에서 500개 이상의 제로데이 취약점을 발견했다. GhostScript, OpenSC 등의 프로젝트에서 크래시, 메모리 손상 버그를 특별한 프롬프트 없이 기본 역량만으로 찾아냈다는 것이다. 이 능력은 보안 감사 자동화에 실질적으로 활용 가능하다.
MCP(Model Context Protocol) 통합¶
Claude Code는 MCP를 통해 300개 이상의 외부 서비스와 연동할 수 있다. GitHub, Jira, Slack, 데이터베이스 등을 Claude Code 세션 안에서 직접 사용할 수 있어서, 별도 도구를 오가지 않아도 된다.
한 줄 요약: Agent Teams로 병렬 개발이 가능해졌지만, 아직 실험적 기능이다. 보안과 Context Compaction은 실무에서 바로 체감되는 개선점이다.
4. Claude Cowork - 비개발자를 위한 AI 에이전트¶
Claude Code가 개발자를 위한 CLI 도구라면, Cowork는 비개발 직군을 위한 GUI 기반 AI 에이전트다. 2026년 1월에 Research Preview로 출시됐고, 같은 에이전트 아키텍처를 기반으로 하되 인터페이스가 다르다.
Cowork이 Claude Code와 다른 점¶
핵심 차이는 접근성이다. Claude Code는 터미널에서 명령어를 입력하지만, Cowork는 데스크톱 앱에서 자연어로 대화하며 작업을 지시한다. 코드를 모르는 기획자나 마케터도 AI 에이전트를 활용할 수 있게 된 것이다.
공통점도 있다. 둘 다 로컬 파일 시스템에 접근할 수 있고, MCP를 통해 외부 서비스와 연동하며, 실제로 파일을 수정하고 문서를 만드는 “실행형” 에이전트라는 점이다.
스케줄 작업 - 진정한 업무 자동화¶
Cowork에서 가장 눈에 띄는 기능은 스케줄 작업이다. 한 번 설정해두면 매일, 매주 자동으로 실행된다. 단순 알림이 아니라 실제로 파일을 읽고, 분석하고, 문서를 만드는 자동화다.
예를 들면 이런 것들이 가능하다.
- 매일 아침 뉴스와 지표를 종합한 모닝 브리프 자동 생성
- 매주 금요일 프로젝트 진행 상황을 정리한 주간 리포트 작성
- 정기적으로 경쟁사 웹사이트를 분석해서 변화 요약 보고서 생성
엔터프라이즈 플러그인¶
2026년 2월 24일, Anthropic은 Cowork에 대규모 업데이트를 진행했다. 13개의 새로운 MCP 커넥터가 추가됐다.
| 카테고리 | 연동 서비스 |
|---|---|
| 업무 도구 | Google Workspace (Drive, Calendar, Gmail), DocuSign |
| 영업/마케팅 | Apollo, Clay, Outreach, SimilarWeb |
| 금융/법률 | MSCI, LegalZoom, FactSet |
| 콘텐츠 | WordPress, Harvey |
여기에 부서별 특화 플러그인(HR, 디자인, 엔지니어링, 재무 분석 등)도 제공된다. 특히 Excel과 PowerPoint 연동이 실무에서 유용하다. Excel에서 데이터를 분석하고, 그 결과를 바탕으로 PowerPoint 차트를 자동으로 생성하는 크로스 앱 워크플로우가 가능하다.
조직 단위로 사용한다면 Private Plugin Marketplace를 통해 Private GitHub 저장소와 연동한 맞춤형 플러그인도 배포할 수 있다.
누구에게 적합한가¶
- 기획자: 경쟁사 분석, 시장 조사 보고서 자동 생성
- 마케터: 콘텐츠 성과 분석 및 주간 리포트
- PM: 스프린트 리뷰 정리, 이슈 트래킹 요약
- 재무 담당자: 주식/재무 데이터 분석, 투자 보고서 초안
다만 Research Preview 상태라는 점을 기억하자. 핵심 기능은 잘 작동하지만, 아직 엣지 케이스에서 예상치 못한 동작이 있을 수 있다.
한 줄 요약: Cowork는 비개발자도 AI 에이전트 자동화를 활용할 수 있게 한 도구다. 스케줄 작업과 플러그인 생태계가 핵심이다.
5. API 가격 완전 비교 - 내 프로젝트에 맞는 선택은?¶
가격은 항상 도입 결정의 핵심 요소다. 2026년 3월 기준 Claude API 전체 모델의 가격을 정리했다.
2026년 3월 기준 Claude API 가격표¶
| 모델 | 입력 (MTok) | 출력 (MTok) | Batch 입력 | Batch 출력 | 캐시 읽기 |
|---|---|---|---|---|---|
| Opus 4.6 | $5 | $25 | $2.50 | $12.50 | $0.50 |
| Sonnet 4.6 | $3 | $15 | $1.50 | $7.50 | $0.30 |
| Haiku 4.5 | $1 | $5 | $0.50 | $2.50 | $0.10 |
특수 가격 적용 사항:
| 기능 | 가격 | 비고 |
|---|---|---|
| Long Context (200K 초과) | 입력 2x, 출력 1.5x | Opus 4.6, Sonnet 4.6 |
| Fast Mode (Opus 4.6) | $30 / $150 MTok | 6x 프리미엄, Research Preview |
| 웹 검색 | $10 / 1,000 검색 | + 표준 토큰 비용 |
실전 비용 시뮬레이션¶
시나리오 1: 챗봇 서비스 (일 1,000건)
Sonnet 4.6 기준, 요청당 평균 입력 1K 토큰 + 출력 500 토큰이라면:
- 일간: 입력 1M 토큰($3) + 출력 0.5M 토큰($7.50) = 약 $10.50/일
- 월간: 약 $315/월
시나리오 2: 문서 분석 파이프라인 (주 10,000건 배치)
Sonnet 4.6 + Batch API 기준, 요청당 입력 2K + 출력 1K 토큰이라면:
- 주간: 입력 20M($1.50 x 20 = $30) + 출력 10M($7.50 x 10 = $75) = $105
- Batch 할인 적용: 약 $52.50/주 (표준 대비 50% 절감)
시나리오 3: 코드 리뷰 자동화 (월 500건)
Opus 4.6 + Batch API, 요청당 입력 5K + 출력 2K 토큰:
- 월간: 입력 2.5M($2.50 x 2.5 = $6.25) + 출력 1M($12.50) = $18.75/월
비용 최적화 전략 5가지¶
1. Batch API 활용 (50% 절감)
즉시 응답이 필요 없다면 무조건 Batch API를 쓰자. 이것만으로 비용이 절반이 된다.
2. 프롬프트 캐싱 활용 (최대 90% 절감)
동일한 시스템 프롬프트나 문서를 반복 사용하는 경우, cache_control을 설정해서 캐시 히트율을 높이자. 캐시 읽기 비용은 표준 입력의 10% 수준이다.
3. 용도별 모델 분리
모든 작업에 Opus를 쓸 필요는 없다. 간단한 분류는 Haiku, 일반 분석은 Sonnet, 복잡한 추론만 Opus로 단계적으로 적용하면 비용을 크게 줄일 수 있다.
4. Effort 파라미터 최적화
Adaptive Thinking의 effort 파라미터를 작업 난이도에 맞게 설정하자. 간단한 작업에 max를 쓰면 불필요한 사고 토큰이 소모된다.
5. 200K 컨텍스트 이내로 프롬프트 설계
200K를 넘으면 입력 가격이 2배로 뛴다. 가능하면 필요한 정보만 정제해서 200K 이내로 유지하자.
한 줄 요약: Batch API(50% 할인) + 프롬프트 캐싱 + 모델 분리가 비용 최적화의 세 기둥이다.
마무리 - 실무자 관점의 정리¶
한 눈에 보는 추천 매트릭스¶
| 기능 | 추천 대상 | 성숙도 | 비용 영향 |
|---|---|---|---|
| Message Batches API | API 대량 처리가 필요한 백엔드 개발자 | GA (정식) | 50% 절감 |
| Claude Opus 4.6 | 복잡한 추론/대규모 리팩토링이 필요한 경우 | 정식 | $5/$25 MTok |
| Claude Sonnet 4.6 | 대부분의 실무 작업 (코딩, 분석, 문서) | 정식 | $3/$15 MTok |
| Adaptive Thinking | API를 통해 Claude를 쓰는 모든 개발자 | 정식 | 사고 효율 향상 |
| Agent Teams | 대규모 병렬 개발이 필요한 팀 | 실험적 | 에이전트 수 비례 |
| Context Compaction | Claude Code 장시간 사용자 | 베타 | 토큰 절약 |
| Claude Cowork | 비개발 직군 업무 자동화 | Research Preview | Pro/Max/Team 플랜 |
앞으로 주목할 업데이트¶
현재 베타/Research Preview인 기능들이 정식 출시되면 실무 활용 폭이 더 넓어질 것으로 보인다.
- Agent Teams 정식화 - 현재 실험적 상태에서 안정화되면 팀 개발 워크플로우가 크게 바뀔 수 있다
- 1M 컨텍스트 윈도우 정식화 - Tier 제한 없이 사용 가능해지면 대용량 문서 처리의 진입 장벽이 낮아진다
- Cowork 플러그인 생태계 확장 - 현재 16개 이상의 커넥터에서 더 늘어날 전망이다
- Fast Mode 가격 정책 확정 - 현재 6x 프리미엄이 조정될 가능성이 있다
이 글에서 다룬 모든 정보는 2026년 3월 기준이며, Anthropic 공식 문서와 복수의 독립 출처를 교차 검증해서 정리했다. API 가격이나 기능 사양은 수시로 업데이트될 수 있으니, 실제 도입 시에는 공식 문서를 한 번 더 확인하길 권한다.
각 기능의 공식 문서 링크를 정리해둔다.