검색

Anthropic + Amazon 5 GW $5B, GitHub Copilot 계획 재구성, Kimi K2.6 SOTA 오픈소스, Qwen3.6-Max-Preview, Codex Chronicle

Anthropic + Amazon 5 GW $5B, GitHub Copilot 계획 재구성, Kimi K2.6 SOTA 오픈소스, Qwen3.6-Max-Preview, Codex Chronicle

2026년 4월 20일은 여러 핵심 발표가 집중된 날입니다. Anthropic과 Amazon은 5 GW의 컴퓨팅 용량과 $5B 투자를 둘러싼 파트너십을 확대했고, GitHub은 개인용 Copilot 요금제의 신규 가입을 중단하는 동시에 사용 한도를 강화했으며, 두 개의 새로운 모델이 코딩 벤치마크를 끌어올렸습니다. 오픈소스인 Kimi K2.6과 프로프라이어터리인 Qwen3.6-Max-Preview입니다. 한편 OpenAI는 스크린샷 기반의 문맥 메모리 기능인 Codex Chronicle을 출시했습니다.


Anthropic과 Amazon — 5 GW의 compute, $5B 투자

4월 20일 — Anthropic과 Amazon은 Claude의 학습과 배포를 위해 최대 5 gigawatts (GW) 규모의 컴퓨팅 용량을 확보하는 새로운 인프라 계약을 체결했습니다. Trainium2의 상당한 용량이 2026년 2분기부터 공급되며, 2026년 말까지 총 약 1 GW의 Trainium2와 Trainium3가 예상됩니다.

이 계약은 세 가지 축으로 구성됩니다.

세부 내용
인프라AWS를 향한 10년간 1,000억 USD 이상의 투자 약정으로, Graviton과 Trainium2부터 Trainium4까지 포함
AWS의 Claude Platform전체 Claude Platform이 AWS에 직접 통합됨 — 같은 계정, 같은 청구, 별도 계약 없음
투자Amazon은 오늘 Anthropic에 $5 billion USD를 투자하며, 향후 최대 $20 billion USD를 추가로 투자할 수 있음

Anthropic은 자사의 연간 환산 매출이 이제 300억 USD를 넘어섰다고 밝혔는데, 이는 2025년 말의 약 90억 USD와 비교되는 수치입니다. 이 빠른 성장은 기존 인프라에 압박을 주었고, 피크 시간대에 무료, Pro, Max, Team 사용자의 안정성에 영향을 미쳤습니다.

이미 10만 개 이상의 고객이 Amazon Bedrock에서 Claude를 운영 중이며, Anthropic은 100만 개 이상의 Trainium2 칩을 사용하고 있습니다. 이제 전체 Claude Platform은 별도 계약 없이 AWS 계정에서 바로 접근할 수 있게 되었으며, 이는 이미 AWS를 사용하는 개발자와 기업에게 실질적인 변화입니다.

또한 Claude는 AWS (Bedrock), Google Cloud (Vertex AI), Microsoft Azure (Foundry)라는 세계 3대 주요 클라우드 플랫폼 모두에서 이용 가능한 유일한 최첨단 AI 모델로 남아 있습니다.

“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”

🇰🇷 “사용자들은 Claude가 자신들의 업무 방식에 점점 더 필수적인 도구가 되고 있다고 말합니다. 우리는 빠르게 증가하는 수요를 따라갈 수 있도록 인프라를 구축해야 합니다.”Dario Amodei, X의 @AnthropicAI를 통해

🔗 Anthropic 공식 발표


GitHub Copilot — Pro/Pro+ 가입 중단 및 제한 강화

4월 20일 — GitHub이 Copilot 개인 요금제에 중요한 변경 사항을 발표했습니다. Pro, Pro+ 및 Student의 신규 가입은 즉시 중단됩니다. 반면 Copilot Free는 계속 열려 있습니다.

변경 사항 세부 내용은 다음과 같습니다.

변경 사항세부 내용
가입 중단Pro, Pro+, Student — 신규 사용자 가입 불가. Copilot Free는 계속 열려 있음
사용 한도Pro+는 Pro의 5배 한도를 제공. 한도에 가까워지면 VS Code와 Copilot CLI에서 경고 표시
Opus 모델Opus는 Copilot Pro에서 제거됨. Opus 4.7은 Pro+에서만 계속 사용 가능. Opus 4.5와 4.6도 이후 Pro+에서 제거될 예정
환불2026년 4월 20일부터 5월 20일 사이에 지원팀에 연락하면 4월분 취소 및 환불 가능

이미 구독 중인 사용자에게는 기존 플랜이 그대로 유지됩니다. 실질적인 영향은 Opus 모델에 접근하던 Pro 사용자는 그 접근 권한을 잃게 되고, Pro+가 사실상 5배 더 큰 할당량을 제공하는 중간 티어가 된다는 점입니다. 5월 20일까지의 환불 기간은 결정을 내릴 수 있는 한 달의 여유를 제공합니다.

🔗 GitHub Changelog — 개인용 플랜 변경 사항


Kimi K2.6 — 코딩과 에이전트 분야의 SOTA 오픈소스

4월 20일 — Moonshot AI가 새로운 오픈소스 모델 Kimi K2.6을 출시했습니다. 이 모델은 코딩 및 에이전트 벤치마크에서 여러 기록(state of the art)을 세웠습니다. 발표는 몇 시간 만에 150만 회 이상의 조회수를 기록했습니다.

오픈소스 벤치마크:

BenchmarkK2.6 점수
SWE-Bench Pro58.6
SWE-bench Multilingual76.7
HLE with tools54.0
BrowseComp83.2
Toolathlon50.0
Charxiv w/ python86.7
Math Vision w/ python93.2

K2.5와 비교한 개선은 상당합니다. 장기 코딩(long-horizon coding)에서는 한 세션에 최대 4,000회의 도구 호출을 연속으로 수행할 수 있고, 12시간 이상 연속 실행이 가능하며, Rust, Go, Python 같은 다중 언어와 프론트엔드, DevOps, 성능 최적화 같은 다중 작업으로 일반화됩니다.

멀티 에이전트 아키텍처도 향상되었습니다. 300개의 병렬 서브에이전트 × 실행당 4,000단계로, K2.5의 100개 서브에이전트 × 1,500단계보다 크게 늘었습니다. K2.6은 고급 프론트엔드 인터페이스도 기본 지원합니다. hero 섹션의 비디오, WebGL 셰이더, GSAP + Framer Motion 애니메이션, Three.js 3D 렌더링 등이 포함됩니다.

가중치는 HuggingFace에서 오픈소스로 공개되어 있습니다. API는 platform.moonshot.ai에서 사용할 수 있으며, 모델은 kimi.com에서 chat 모드와 agent 모드로 동작합니다.

🔗 X의 Kimi K2.6 발표 — 🔗 Kimi K2.6 블로그 — 🔗 HuggingFace의 가중치


Qwen3.6-Max-Preview — 차기 플래그십 모델의 프리뷰

4월 20일 — Alibaba Qwen이 차기 프로프라이어터리 플래그십 모델의 프리뷰인 Qwen3.6-Max-Preview를 공개했습니다. 이는 Qwen3.6-Plus의 후속작입니다.

Qwen3.6-Plus 대비 벤치마크 향상:

Benchmark향상폭
SkillsBench+9.9
SciCode+6.3
NL2Repo+5.0
Terminal-Bench 2.0+3.8
QwenChineseBench+5.3
SuperGPQA+2.3
ToolcallFormatIFBench+2.8

이 모델은 주요 코딩 벤치마크 6개에서 선두를 차지합니다. SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench, SciCode입니다. 오늘부터 chat.qwen.ai를 통한 조기 액세스와 Alibaba Cloud Model Studio API의 qwen3.6-max-preview 식별자를 통해 사용할 수 있습니다. OpenAI 및 Anthropic 사양과 호환되며, 에이전트 작업을 위한 preserve_thinking 모드도 지원합니다.

이는 아직 적극적으로 개발 중인 버전으로, 최종 출시 전 추가 반복 개선이 예정되어 있습니다.

🔗 X의 Qwen 발표 — 🔗 Qwen3.6-Max-Preview 블로그


Codex Chronicle (Research Preview) — 스크린샷 기반 문맥 메모리

4월 20일 — OpenAI가 Research Preview로 Codex Chronicle을 출시했습니다. 이는 Codex를 위한 새로운 문맥 메모리 기능입니다. Chronicle은 백그라운드에서 에이전트를 실행해 최근 스크린샷으로부터 메모리를 생성하며, 사용자가 수동으로 문맥을 갱신하지 않아도 Codex가 작업 세션을 이어서 재개할 수 있게 합니다.

동작 방식은 다음과 같습니다. 에이전트가 주기적으로 화면을 캡처하고, 작업 문맥을 추출한 뒤, 메모리를 기기 로컬에 저장합니다. 사용자는 이 메모리를 검토하고 수정할 수 있습니다. OpenAI는 다른 앱이 캡처 파일에 잠재적으로 접근할 수 있다고 경고합니다.

출시 시점의 접근 범위는 제한적입니다. macOS의 Pro 사용자에게만 제공되며, 학습 단계 동안 EU, 영국, 스위스 국가는 제외됩니다.

🔗 X의 Codex Chronicle 발표


Grok — 일관된 비디오 확장

4월 20일 — Grok Imagine이 개선된 비디오 확장 기능(Smarter Video Extensions)을 발표했습니다. 이제 Grok은 원본 프롬프트와 소스 클립을 모두 보고 내용과 오디오가 일관된 확장을 생성합니다. 오디오 연속성은 확장 전체에 걸쳐 유지됩니다. Grok 앱과 웹에서 사용할 수 있습니다.

🔗 X의 Grok 발표


NotebookLM — 노트북용 맞춤 표지

4월 16일 — NotebookLM은 이제 모든 노트북에 맞춤형 표지 이미지와 설명을 추가할 수 있습니다. 이 기능은 노트북을 공유하기 전에 그리드 표시를 개인화하는 데 목적이 있습니다. 권장 형식은 16:9 이미지입니다.

🔗 X의 NotebookLM 발표


간단히

TeenAegis AI Danger Index (4월 18일) — 첫 번째 AI 위험 지수(AI Danger Index)에서 TeenAegis는 평가받은 공급업체 중 OpenAI에 가장 낮은 위험 점수를 부여했습니다. 이 지수는 연령에 맞는 통제, 모니터링, 신고, 보호 조치 등 젊은 사용자 보호 수준을 평가합니다. 🔗 OpenAI Newsroom 트윗

OpenAI Academy — 사용자 300만+ (4월 19일) — OpenAI의 AI 교육 플랫폼은 300만 명의 사용자를 넘어섰으며, 이번 주에는 바르샤바에서 텍사스 Abilene에 이르기까지 Cal State Bakersfield를 포함한 현장 이벤트가 열리고 있습니다. 🔗 OpenAI Newsroom 트윗


의미하는 바

Anthropic-Amazon 계약은 여러 측면에서 구조적입니다. 상호 의존성을 공식화합니다. Anthropic은 compute가 필요하고, Amazon은 Bedrock을 경쟁력 있게 만들기 위해 Claude가 필요합니다. 또한 AWS의 통합 청구는 이미 Amazon 생태계에 있는 팀의 실제 마찰을 제거합니다. 몇 달 만에 3배 이상 증가한 $30B 연환산 매출은 왜 인프라에 압력이 걸렸는지, 또 왜 이 계약이 시급했는지를 설명합니다.

모델 측면에서 4월 20일은 격차가 빠르게 좁혀지는 흐름을 보여줍니다. 오픈소스인 Kimi K2.6은 불과 몇 주 전에 나온 프로프라이어터리 모델과 비슷한 점수를 기록했고, Qwen3.6-Max-Preview는 최종 버전이 나오기도 전에 Alibaba를 코딩 벤치마크 선두에 올려놓았습니다. GitHub의 Copilot 플랜 재구성은 광범위한 채택(Free)과 지속 가능한 수익화(Pro+) 사이의 긴장을 보여주며, 사용자 경험이 티어별로 분화되고 있음을 시사합니다.


출처

이 문서는 fr 버전에서 ko 언어로 gpt-5.4-mini 모델을 사용하여 번역되었습니다. 번역 과정에 대한 자세한 정보는 https://gitlab.com/jls42/ai-powered-markdown-translator 를 참조하세요.