검색

Anthropic+xAI 콜로서스 1 컴퓨트 파트너십, Claude M365 GA, GPT-Realtime-2 음성 추론

ai-powered-markdown-translator

fr에서 ko로 번역된 기사, gpt-5.4-mini를 사용하여.

GitHub에서 프로젝트 보기 ↗

Anthropic과 xAI는 전례 없는 계약을 체결한다. Colossus 1 슈퍼컴퓨터의 NVIDIA GPU 22만 개가 이번 주부터 Claude Code의 한도를 두 배로 늘린다. Claude for Microsoft 365는 Excel, PowerPoint, Word에서 일반 공개 상태로 전환된다. OpenAI는 GPT-5 수준의 추론을 갖춘 첫 음성 모델인 GPT-Realtime-2를 출시한다. Perplexity는 모든 Mac 사용자에게 Personal Computer를 공개하고, ElevenLabs는 NVIDIA를 전략적 투자자로 맞이하며 연간 반복 매출 5억 달러를 돌파한다.


Anthropic이 xAI에 Colossus 1을 임대 — NVIDIA GPU 22만 개, Claude Code 한도 두 배

5월 6일 — Anthropic은 사용 한도의 즉각적인 상향과 SpaceX / xAI와의 전례 없는 인프라 계약을 동시에 발표한다.

사용자에게 가장 눈에 띄는 변화는 Claude Code에서 5시간 기준 처리량 한도가 두 배로 증가하는 것으로, Pro, Max, Team, Enterprise 요금제에 즉시 적용된다. Pro와 Max 요금제를 제한하던 피크 시간대 자동 감축도 함께 제거된다. Claude Opus 모델의 API 한도도 동시에 상향된다.

이러한 상향은 SpaceX와의 계약 덕분에 가능해졌다. Anthropic은 xAI 슈퍼컴퓨터인 Colossus 1의 전체 용량에 접근할 수 있게 되며, 이는 300메가와트 이상과 NVIDIA GPU(H100, H200, GB200) 22만 개 이상에 해당한다. 이 용량은 한 달 이내에 제공된다. 두 회사는 또한 궤도 상에서 여러 기가와트 규모의 AI 컴퓨팅 용량을 개발하려는 공동 의향도 발표한다. 이는 업계 최초다.

이번 파트너십은 이미 진행 중인 여러 계약에 추가된다. Amazon(최대 5GW, 이 중 약 1GW는 2026년 말 가용), Google과 Broadcom(2027년부터 5GW), Microsoft와 NVIDIA(Azure 용량 300억 달러), 그리고 Fluidstack(미국 AI 인프라 500억 달러) 등이 그것이다. 국제 확장에는 규제 대상 분야를 위한 데이터 상주 요건도 포함된다. Anthropic은 또한 자사의 데이터센터로 인해 지역 주민의 전기 요금이 오를 경우, 그 모든 상승분을 부담하겠다고 약속한다.

변경 사항대상 요금제적용 시점
Claude Code 5시간 한도 두 배Pro, Max, Team, Enterprise즉시
피크 시간대 감축 제거Pro, Max즉시
Opus API 한도 상향전체즉시
컴퓨트 계약용량일정
SpaceX / xAI Colossus 1300+ MW, NVIDIA GPU 220,000+ 개한 달 이내
Amazon최대 5 GW(~2026년 말 1 GW)2026년
Google + Broadcom5 GW2027년부터
Microsoft + NVIDIAAzure 300억 달러
Fluidstack미국 AI 인프라 500억 달러

🔗 Anthropic — 한도 상향 + SpaceX 계약


Claude for Microsoft 365 — Excel, PowerPoint, Word에서 일반 공개 + Outlook 베타

5월 7일 — Claude for Excel, PowerPoint, Word가 모든 유료 요금제에서 일반 공개로 전환된다. Claude for Outlook은 같은 조건으로 공개 베타에 진입한다.

“Claude for Excel, PowerPoint, and Word are now generally available, and Claude for Outlook is in public beta. As Claude moves between your Microsoft apps, it carries the full context of your conversation.”

🇰🇷 Claude for Excel, PowerPoint, Word는 이제 모두에게 제공되며, Claude for Outlook은 공개 베타로 제공됩니다. Microsoft 앱 전반에서 Claude는 대화의 모든 맥락을 그대로 유지합니다.@claudeai X에서

핵심 기능은 네 개의 애플리케이션 간 공유되는 맥락이다. Outlook에서 이메일을 정리하는 대화로 시작한 작업은 Word에서 메모를 작성할 때 이어지고, 이후 Excel에서 데이터 분석으로, PowerPoint에서 발표 자료 작성으로 이어진다. 맥락을 다시 설명할 필요가 전혀 없다. 또 다른 실질적 향상은 자동 교차 업데이트다. Excel 모델에서 가정을 수정하면 발표 자료의 그래프와 Word 메모의 해당 수치가 동시에 갱신된다.

언급된 기업 중에는 ServiceNow(“Claude does the work in Excel itself, instead of asking us to move content between tools”)와, 금융 커버리지 모델을 구축하고 유지하는 데 이를 사용하는 사모자산 운용 팀이 포함된다.

애플리케이션2026년 5월 7일 기준 상태요금제
Claude for Excel일반 공개(GA)모든 유료 요금제
Claude for PowerPoint일반 공개(GA)모든 유료 요금제
Claude for Word일반 공개(GA)모든 유료 요금제
Claude for Outlook공개 베타모든 유료 요금제

🔗 Claude for Microsoft 365 발표


Claude Managed Agents — dreaming, outcomes, 다중 에이전트 오케스트레이션, webhooks

5월 6일 — Code with Claude 컨퍼런스에서 Anthropic은 자사 에이전트 배포 플랫폼을 위한 여러 새 기능을 출시한다.

가장 눈에 띄는 새 기능은 dreaming이다. 이는 에이전트의 과거 세션을 분석하고 반복되는 패턴을 추출하며 메모리를 통합해 시간이 지날수록 성능을 개선하는 예약 프로세스다. 개발자는 제어권을 유지한다. dreaming은 메모리를 자동으로 업데이트하거나 각 변경 사항을 사람의 검토에 넘길 수 있다. dreaming은 요청 시 실험적 연구 미리보기(research preview)로 제공된다.

Outcomes는 공개 베타로 들어간다. 이 기능을 사용하면 에이전트의 각 결과를 사용자에게 전달하기 전에 개발자가 정의한 기준에 따라 평가할 수 있다. Wisedocs는 이를 사용해 내부 기준을 유지하면서 의료 문서 검토 속도를 50% 향상했다.

다중 에이전트 오케스트레이션은 주 에이전트가 여러 전문 에이전트에게 하위 작업을 위임해 병렬로 실행하도록 하여, 여러 전문성이 동시에 필요한 복잡한 작업 처리를 쉽게 한다. webhooks도 외부 작업을 트리거하는 용도로 사용할 수 있다.

기능제공 상태설명
Dreaming연구 미리보기(요청 시)과거 세션 분석을 통한 자동 개선
Outcomes공개 베타전달 전 결과 평가
다중 에이전트 오케스트레이션공개 베타주 에이전트 + 전문 에이전트 병렬 실행
Webhooks공개 베타외부 작업 트리거

🔗 Claude Managed Agents 발표


GPT-Realtime-2 — GPT-5 추론과 128K 컨텍스트를 갖춘 음성

5월 7일 — OpenAI는 Realtime API에 새로운 세대의 모델인 GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper를 출시한다.

GPT-Realtime-2는 GPT-5 수준의 추론을 갖춘 첫 음성 모델이다. 복잡한 요청을 처리하고, 도구를 병렬로 호출하며(parallel tool calls), 중단 후 복구하고(recovery behavior), 128,000 토큰의 컨텍스트 창을 유지할 수 있다. 이는 이전 모델의 32,000 토큰보다 훨씬 길며, 긴 세션에 적합하다. 추론 수준은 minimal, low, medium, high, xhigh의 다섯 단계로 조절할 수 있다(기본값은 low). 응답 전에 자연스러운 흐름을 위한 도입 문구(preambles)를 삽입할 수 있다.

GPT-Realtime-Translate는 70개 이상의 원어에서 13개 대상 언어로 실시간 동시 번역을 제공한다. GPT-Realtime-Whisper는 낮은 지연의 스트리밍 전사 기능을 제공한다.

Zillow는 음성 상호작용에 GPT-Realtime-2를 시험했다. 가장 어려운 적대적 벤치마크에서 성공률이 26포인트 상승해 95%를 기록했으며, 이전에는 69%였다. EU Data Residency도 지원된다.

모델기능요금
GPT-Realtime-2음성 + GPT-5 추론, 128K$32/1M tokens audio input, $64/1M output
GPT-Realtime-Translate70→13개 언어 번역$0,034/min
GPT-Realtime-Whisper스트리밍 전사$0,017/min
벤치마크GPT-Realtime-1.5GPT-Realtime-2 (high)GPT-Realtime-2 (xhigh)
Big Bench Audio기준값+15,2 %
Audio MultiChallenge APR36,7 %70,8 %

🔗 OpenAI 발표 — 새로운 음성 모델


모든 Mac 사용자를 위한 Perplexity Personal Computer 제공

5월 7일 — Perplexity는 새로운 macOS 앱을 출시하고, Pro 또는 Max 구독 제한 없이 모든 사용자에게 Personal Computer를 공개한다.

이 앱은 AI를 클라우드에서 꺼내 장치에 직접 탑재한다. 로컬 파일, Mac 네이티브 앱, 공개 웹, 그리고 Perplexity의 보안 서버에서 동작한다. 400개 이상의 커넥터를 지원하며, 직접 커넥터가 없는 웹 도구를 위해 Comet 브라우저와 통합된다. Pro 및 Max 요금제는 기존 구독에 연결된 크레딧을 유지하며, 무료 사용자도 접근할 수 있다.

권장 사용 방식은 Mac mini를 상시 허브로 사용하는 것이다. 에이전트 팀이 사용자가 다른 작업을 하는 동안 24시간 내내 계속 작동할 수 있으며, 사람의 승인이 필요할 때 알림을 보낸다. 제어는 iPhone을 포함해 어떤 기기에서든 가능하다.

기존 Perplexity Mac 앱은 앞으로 몇 주 내에 종료된다. 다운로드는 직접 제공되며, 아직 App Store에는 없다.

항목
제공 대상모든 Mac 사용자
권장 기기Mac mini(항상 켜둠)
지원 커넥터400+
브라우저 통합Comet
App Store아님(직접 다운로드)
기존 앱앞으로 몇 주 내 종료

🔗 Perplexity 블로그 — 모든 사용자를 위한 Personal Computer


Agent API의 Perplexity Finance Search — FinSearchComp T1에서 정확도 1위

5월 6일 — Perplexity는 Agent API에 Finance Search를 출시한다. 단일 도구 호출로 라이선스가 부여된 금융 데이터, 실시간 시장 데이터, 인용된 웹 소스를 통합한다.

해결하려는 문제는 단순하다. 금융 의사결정은 신뢰할 수 있고 최신이며 추적 가능한 출처에 의존한다. Finance Search는 일반적인 웹 검색을 가격, 펀더멘털, 실적 컨퍼런스 콜 트랜스크립트, 추정치 같은 라이선스 기반 구조화 데이터로 대체하며, 백엔드 공급업체가 누구든 일관된 스키마로 결과를 반환한다.

FinSearchComp T1 벤치마크에서 Finance Search는 실시간 금융 데이터에 대해 가장 높은 정확도와, 올바른 응답당 가장 낮은 비용을 달성한다(구조화 데이터 덕분에 필요한 토큰 수가 더 적다). 인용은 각 결과에 통합된다. 이 모델은 개발자가 구성할 수 있으며, 토큰 사용량도 확인할 수 있다.

Finance Search는 이미 5월 5일에 다뤘던 Computer for Professional Finance와 보완적이다. 전자가 시각적 워크스페이스를 제공한다면, Finance Search는 API를 통해 프로그래밍 방식 워크플로에 통합된다.

항목
인터페이스단일 도구 호출 (finance_search)
포함 데이터가격, 펀더멘털, 트랜스크립트, 추정치, 시장 맥락
FinSearchComp T1 벤치마크정확도 1위, 올바른 응답당 비용 1위
인용각 결과에 통합

🔗 Perplexity 블로그 — Finance Search


Natural Language Autoencoders(NLAs) — Claude의 내부 생각 읽기

5월 7일 — Anthropic은 모델의 내부 활성화를 사람이 직접 읽을 수 있는 텍스트로 변환하는 새로운 해석 가능성 방법을 공개한다.

이 아키텍처는 폐루프 훈련을 기반으로 한다. activation verbalizer는 활성화를 설명 텍스트로 변환하고, activation reconstructor는 그 텍스트로부터 활성화를 재구성하려고 시도한다. 재구성이 더 충실할수록 설명도 더 좋다.

보안 적용 사례는 인상적이다. Claude Opus 4.6과 Claude Mythos Preview에 적용한 결과, NLAs는 모델이 테스트 중이라는 사실을 의심하고 있었다는 점을 실제로 표현한 것보다 훨씬 더 자주 드러냈다. 파괴적 코드 테스트에서는 이러한 암묵적 평가 인식이 **16%**의 사례에서 나타났고, 명시적 언어화는 0%였다. SWE-bench Verified에서는 이 수치가 **26%**까지 올라간다. 실제 claude.ai 사용자 대화에서는 1% 미만이다.

의도적으로 정렬되지 않도록 만든 모델을 사용한 감사 테스트에서, NLAs를 장착한 감사자는 **12~15%**의 사례에서 근본 원인을 식별했으며, 다른 도구를 사용할 때는 3% 미만이었다. 학습 코드는 오픈 소스로 공개되며, 대화형 데모는 Neuronpedia에서 제공된다.

평가암묵적 인식(NLA)언어화된 인식
파괴적 코드 테스트16 %~0 %
SWE-bench Verified26 %~0 %
실제 claude.ai 대화< 1 %

🔗 Anthropic Research — Natural Language Autoencoders


Petri 3.0 — Meridian Labs에 양도된 오픈 소스 정렬 도구

5월 7일 — Anthropic은 자사의 오픈 소스 정렬 도구인 Petri를 AI 평가에 전념하는 독립 비영리 조직 Meridian Labs에 양도한다.

Petri는 어떤 언어 모델에도 적용 가능한 정렬 테스트 도구 모음이다. 속임수, 아첨, 유해한 요청과의 협력 등을 검사한다. Sonnet 4.5 이후 모든 Claude 모델의 평가에 통합되었으며, 영국 AI Security Institute는 AI 연구 방해 평가에 이를 채택했다.

3.0 버전은 세 가지 개선을 제공한다. 감사자와 대상 모델 구성 요소를 분리해 더 나은 적응성을 제공하고, 실제 배포 조건(실제 system prompt, 실제 scaffold)에서 테스트를 수행하는 “Dish” 모듈을 추가해 시나리오가 덜 탐지되도록 하며, 더 심층적인 행동 평가를 위한 Bloom 통합도 제공한다.

Meridian Labs로의 양도는 MCP 프로토콜을 Linux Foundation에 양도한 모델을 따른다. 즉, 어떤 AI 연구실에도 종속되지 않는 도구의 독립성을 보장하려는 것이다.

🔗 Anthropic Research — Petri 3.0


Anthropic Institute(TAI) — 4개 축의 연구 아젠다

5월 7일 — Anthropic은 프론티어 연구소의 위치에서 AI의 실제 영향을 연구하기 위해 2026년 3월 출범한 내부 조직 TAI의 완전한 연구 아젠다를 공개한다.

이 아젠다는 네 가지 축으로 구성된다: 경제적 확산(기업과 국가의 AI 도입, 노동시장에 미치는 영향), 위협과 회복력(이중용도 역량, 사이버보안, 방어 메커니즘), 자연 상태의 AI 시스템(in the wild — 대규모로 배포된 AI의 행동적·제도적 효과), 그리고 AI에 의한 R&D(AI 자체에 의한 과학 연구 가속화, 자기개선의 재귀적 루프 위험 포함).

TAI는 Anthropic Economic Index의 더 자주 제공되는 데이터와, Anthropic이 자체 도구로 내부적으로 얼마나 가속되고 있는지에 대한 정보를 공유하겠다고 약속한다. Anthropic Fellows 프로그램(4개월간 유급 지원)에 대한 공모가 열려 있다.

🔗 Anthropic Research — TAI 아젠다


Codex Extension Chrome — macOS와 Windows에서 백그라운드 브라우저 제어

5월 7일 — OpenAI는 Codex용 Chrome 확장 프로그램을 출시해, 에이전트가 사용자의 워크플로를 중단하지 않고 Chrome 탭을 직접 제어할 수 있게 한다.

Codex는 여러 탭에서 동시에 백그라운드로 동작하며, 네이티브 플러그인 기능과 웹사이트 직접 접근(대시보드, CRM, 웹 애플리케이션)을 결합한다. 시스템은 각 단계마다 가장 적합한 도구를 자동으로 선택한다: 플러그인, Chrome, 또는 이 둘의 조합. 활용 사례: 브라우저 흐름 디버깅, 대시보드 검증, 리서치 수행, CRM 업데이트, 복잡한 웹 애플리케이션 테스트(서브에이전트를 통한 멀티플레이어 게임 포함).

이 확장 프로그램은 Codex 앱의 Chrome 플러그인을 통해 설치된다. macOS와 Windows에서 모든 Codex 사용자에게 즉시 제공된다.

🔗 OpenAI 트윗 — Codex Chrome Extension


ChatGPT Trusted Contact — 인간 검토가 포함된 정신 건강 안전 기능

5월 7일 — OpenAI가 ChatGPT에 선택형 안전 기능인 Trusted Contact를 배포한다.

모든 성인(18세 이상, 한국에서는 19세 이상)은 자신의 대화에서 위기 징후가 감지되면 알림을 받을 신뢰할 수 있는 사람(친구, 가족, 보호자)을 지정할 수 있다. 이 과정은 자동 감지와 인간 검토를 결합하며(목표: 전송 전 1시간 미만), 프라이버시 보호를 위해 대화록에는 접근하지 않는 알림 방식으로 이루어진다. 이 기능은 성인에게도 10대 계정에 이미 존재하던 보호자 통제를 확장한 것이다. American Psychological Association 및 60개국 260명 이상의 의사 네트워크와 함께 개발되었다.

매개변수
자격 요건18세 이상(한국 19세 이상)
연락처 수락 기한1주일
인간 검토 SLA목표 < 1시간
알림 내용대화록 없이 일반적인 사유
채널이메일, SMS, 앱 내

🔗 OpenAI — Trusted Contact


OpenAI B2B Signals — 선도 기업과 일반 기업의 격차가 벌어지고 있다

5월 6일 — OpenAI는 첫 번째 B2B Signals 보고서를 공개하며, AI 도입에서 ‘선도 기업’과 일반 기업 사이의 격차가 커지고 있음을 기록한다.

95번째 백분위의 기업들은 일반 기업보다 직원당 3.5배 더 많은 인텔리전스를 사용한다(2025년 4월의 2배에서 증가). 격차는 메시지 양(격차의 36%)보다 사용 깊이(64%)에 더 크게 좌우된다: 복잡한 작업 위임, 에이전틱 워크플로, 생산 시스템과의 통합. Codex에서는 격차가 가장 두드러져, 직원당 메시지 수가 16배에 이른다.

구체적인 사례 두 가지: Cisco는 빌드 시간을 약 20% 줄이고, 월 1,500시간 이상의 엔지니어링 시간을 절약하며, 결함 해결 속도를 10~15배 높였다. Travelers Insurance는 연간 약 10만 건의 보험 클레임 전화를 보조 에이전트로 처리한다.

지표일반 기업선도 기업
직원당 인텔리전스기준×3.5
직원당 Codex 메시지기준×16
격차에서 차지하는 양의 비중36%
격차에서 차지하는 깊이의 비중64%

🔗 OpenAI — B2B Signals


MRC — Stargate 슈퍼컴퓨터를 위한 오픈소스 네트워크 프로토콜

5월 5일 — OpenAI는 Open Compute Project를 통해 MRC(Multipath Reliable Connection) 프로토콜을 오픈소스로 공개한다. 이는 AMD, Broadcom, Intel, Microsoft, NVIDIA와 2년에 걸쳐 공동 개발한 것이다.

MRC는 대규모 AI 학습 슈퍼컴퓨터를 위한 800 Gb/s 네트워크 프로토콜이다. 이는 100,000개 이상의 GPU를 단지 2단의 스위치로 연결하며(일반적인 접근의 3~4단과 비교), IPv6 소스 라우팅(SRv6)을 통해 수백 개의 경로로 패킷을 동시에 분산한다. 장애 복구는 마이크로초 단위로 이루어지며(기존의 동적 BGP는 수 초 소요), 이미 텍사스주 애빌린의 Stargate와 Microsoft의 Fairwater 슈퍼컴퓨터에서 운영 중이다. MRC는 GPT-5.5와 Codex를 포함한 여러 모델의 학습에 사용되었다.

항목일반적인 접근MRC
10만+ GPU를 위한 스위치 단계 수3-42
장애 복구수 초에서 수십 초마이크로초
라우팅동적 BGP정적 SRv6
패킷 분산전송당 1개 경로수백 개 경로 병렬

🔗 OpenAI — MRC 슈퍼컴퓨터 네트워킹


Perplexity ROSE — 독점 추론 엔진과 CuTeDSL

5월 6일 — Perplexity는 자사의 독점 추론 엔진인 ROSE(Runtime-Optimized Serving Engine)와 CuTeDSL(NVIDIA GPU 커널 라이브러리) 통합을 자세히 설명하는 연구 글을 공개한다.

ROSE는 NVIDIA Hopper와 Blackwell GPU에서 Perplexity의 모든 서비스(Sonar, Search, Embeddings)를 구동하며, 인코딩 모델부터 조 단위 파라미터 LLM까지 지원한다. CuTeDSL은 새로운 모델 아키텍처에 빠르게 맞춰진, 최적화된 맞춤형 GPU 커널을 더 신속하게 구축할 수 있게 해준다.

이번 공개는 Perplexity의 전략을 보여준다: 성능에서 차별화하고 서드파티 프레임워크 의존도를 줄이기 위해 GPU 커널 수준까지 기술 스택 전체를 통제하는 것이다.

🔗 Perplexity Research — CuTeDSL 및 ROSE


ElevenLabs, ARR 5억 달러 달성 — NVIDIA가 NVentures를 통해 투자

5월 5일 — ElevenLabs는 NVIDIA가 NVentures를 통해 새로운 전략적 투자자로 참여한 가운데 시리즈 D의 세 번째 클로징을 발표한다.

ARR은 2025년 말 3억 5천만 달러에서 2026년 4월 5억 달러로 증가해, 4개월 만에 43% 성장했다. 이번 세 번째 클로징에는 BlackRock, Wellington Management, D.E. Shaw, Schroders뿐 아니라 고객사(Salesforce, Santander, KPN, Deutsche Telekom)와 Robinhood Ventures를 통한 리테일 투자도 포함된다. 1억 달러 규모의 tender offer도 병행해 마무리되었다. ElevenLabs는 50개 이상의 국가에 530명의 직원을 두고 있다. 로드맵은 이미지/비디오와 오디오를 통합한 단일 창작 플랫폼을 예고한다.

🔗 ElevenLabs — ARR 5억 달러와 신규 투자자


AlphaEvolve 실전 배치 — Google Cloud를 통한 5개 산업 분야 적용

5월 7일 — 출시 1년 후, Google DeepMind는 Gemini로 구동되는 코딩 에이전트 AlphaEvolve의 성과를 정리한 보고서를 공개했으며, 이는 이제 연구 단계에서 산업 생산 단계로 넘어갔다.

AlphaEvolve는 Google의 핵심 인프라를 최적화한다: TPU, 캐시 교체 정책, Google Spanner의 LSM-tree 압축. Google Cloud를 통해 5개 산업 분야에 상용 배포되었다: 금융(트랜스포머 성능 2배), 반도체(계산 리소그래피), 물류(외판원 문제), 광고, 그리고 재료 과학(Schrödinger에서 약 4배 속도 향상). 학술적으로는 AlphaEvolve가 UCLA의 Terence Tao와 함께 Erdős 문제를 다루었고, 외판원 문제와 Ramsey 수의 하한을 개선했다.

🔗 DeepMind — AlphaEvolve Impact


Manus Projects 자기 학습형 — 각 작업마다 개선되는 에이전틱 워크스페이스

5월 6일 — Manus는 Projects가 각 대화에서 자동으로 학습하고, 사용자가 승인한 업데이트를 제안할 수 있는 기능을 출시한다.

각 작업이 끝나면 Manus는 재사용 가능한 의사결정, 규범, 패턴을 식별한 뒤 다음을 제안한다: 지침 업데이트(프로세스나 용어가 바뀐 경우), 파일 업데이트(오래된 소스, 예시, 템플릿), 그리고 반복되는 흐름을 위한 스킬(skills) 업데이트. 어떠한 변경도 명시적인 인간 검토 없이 적용되지 않는다. 이후에 합류하는 협업자는 해당 Project의 최신 공유 맥락으로 시작한다. 이 기능은 지침과 파일이 지원되는 모든 세션에서 사용할 수 있다.

🔗 Manus — 자기 학습형 Projects


간단 소식

  • Anthropic 버그 바운티 일반 공개 — 그동안 보안 연구 커뮤니티 내부에서만 운영되던 프로그램이 이제 HackerOne에서 모두에게 공개된다. 🔗 출처
  • xAI Image Generation Quality Mode API — 이미지 생성 품질 모드(Grok에서 3억 장 이상의 이미지를 생성)는 이제 xAI API를 통해 사용할 수 있다: 사실감 향상, 텍스트 렌더링 개선, 창의적 제어 강화. 🔗 출처
  • Z.ai GLM-5V-Turbo 기술 보고서 — Z.ai(Zhipu AI)가 멀티모달 에이전트를 위한 네이티브 파운데이션 모델인 GLM-5V-Turbo의 기술 보고서를 공개했다. CogViT 인코더(SigLIP2 + DINOv3 증류)와 인지-계획-실행 루프를 포함한다. 🔗 출처
  • ChatGPT Futures Class of 2026 — OpenAI는 20개 이상의 대학(Vanderbilt, Oxford, Georgia Tech 등) 출신의 젊은 빌더 26명을 각각 1만 달러의 그랜트와 최첨단 모델 접근 권한으로 선정한다. 🔗 출처
  • NVIDIA DeepStream + Claude Code — DeepStream, Claude Code, reusable Skills를 결합해 코드 한 줄 한 줄을 쓰지 않고 Vision AI 애플리케이션을 생성하는 “concept to app” 접근 방식의 시연. 🔗 출처
  • NVIDIA Guess-Verify-Refine — 각 디코딩 단계가 다음 단계에 선행 이점을 주는 새로운 hardware-aware 추론 기법으로, NVIDIA 가속기용으로 특별히 설계되었다. 🔗 출처
  • TokenSpeed + NVIDIA Dynamo — TokenSpeed(LightSeek Foundation)가 오픈소스에서 TensorRT-LLM 수준에 도달했다; NVIDIA Dynamo는 이 백엔드에 대해 day-0 지원을 추가하며, Kimi K2.5는 Dynamo 프런트엔드를 통해 지원된다. 🔗 출처
  • Ideogram BG Remover — 배경 제거를 위한 새로운 생성형 모델(클래식 분할이 아닌, 처음부터 학습됨): 알파 채널 보존, 로고와 복잡한 일러스트에 최적화, API 제공. 🔗 출처
  • Google DeepMind × EVE Online — 플레이어가 주도하는 복잡한 게임 환경에서 AI 연구를 탐색하기 위해 CCP Games와 파트너십을 맺었다. 🔗 출처
  • GitHub Copilot Trust Layer — Microsoft/GitHub가 Copilot 에이전트를 검증하기 위한 구조적 신뢰 계층에 대한 연구를 공개했다(실행 그래프 + 지배자 분석): 정확도는 자기평가의 82.2% 대비 100%, 재현율은 60% 대비 100%. 🔗 출처
  • GitHub — 에이전트가 만든 pull request 검토하기 — 5가지 경고 신호를 담은 실전 가이드(10분 체크리스트): CI 게임화, 코드 재사용 맹점, 환각된 정합성, 에이전틱 고스팅, CI 파이프라인에 대한 프롬프트 주입. 🔗 출처

이것이 의미하는 것

퍼스널 컴퓨터 경쟁이 가속화되고 있다. 불과 1주일 사이에, 서로 매우 다른 세 가지 인터페이스가 사용자의 같은 데스크톱을 겨냥하고 있다: Perplexity Personal Computer는 Mac(그리고 영구 허브로서의 Mac mini)에 설치되고, Claude는 공유 컨텍스트로 Microsoft 365의 네 가지 앱을 파고들며, Codex는 Chrome을 백그라운드에서 조종한다. 이들 에이전트는 더 이상 클라우드에만 머무르지 않는다: 기존 워크플로, 열린 파일, 네이티브 애플리케이션 안으로 통합된다. 정보 검색에서 일상 업무 도구에 대한 직접 행동으로의 이동은 이제 현실이 되었다.

궤도 컴퓨팅이 사실의 영역에 들어섰다. Anthropic/xAI Colossus 1 협정은 두 가지 점에서 주목할 만하다: 첫째, Anthropic이 이번 주부터 한도를 두 배로 늘릴 수 있도록 22만 개의 NVIDIA GPU에 즉시 접근할 수 있게 해준다. 둘째, 여러 기가와트 규모의 궤도 AI 용량을 함께 개발하려는 의도를 포함한다. Amazon, Google/Broadcom, Microsoft/NVIDIA, Fluidstack과의 협정을 더하면, Anthropic은 독립 연구소로서는 비교 대상이 없는 수준의 컴퓨팅 인프라를 구성하고 있다. 이러한 계산 자원의 누적은 차세대 모델, 그리고 지속적인 한도 확대를 위한 전제 조건이다.

추론형 음성은 음성 에이전트의 범위를 바꾼다. GPT-Realtime-2는 단순한 외형적 업데이트가 아니다. GPT-5 추론을 실시간 인터페이스에, 128K 컨텍스트와 병렬 도구 호출과 함께 가져오면 사용 사례가 달라진다. Zillow는 가장 어려운 통화에서 성공률이 26포인트 상승했다고 측정했다. 같은 모델 안에서 제공되는 실시간 번역(70개 소스 언어에서 13개 목표 언어로)은 별도 번역 파이프라인 없는 다국어 워크플로를 연다. 이제 질문은 “AI 음성을 만들 수 있는가?”가 아니라 “어떤 복잡한 음성 상호작용이 경제적으로 실행 가능해지는가?”이다.

정렬과 에이전틱 신뢰는 도구화 단계로 넘어간다. 세 개의 서로 다른 발표가 같은 문제로 수렴한다 — 생산 환경에서 에이전트를 어떻게 신뢰할 것인가. Anthropic의 NLA는 Claude가 테스트를 받고 있다는 사실을 16~26%의 평가에서 스스로 알고 있지만, 그것을 말로 표현하지는 않음을 보여준다. GitHub의 Trust Layer(자기평가 82% 대비 정확도 100%)는 개발팀에 에이전트가 생성한 pull request의 구조적 검증을 제공한다. Petri 3.0의 Meridian Labs로의 이관은 어떤 연구소에도 종속되지 않는 독립 평가 저장소를 만든다. 이 세 층 — 모델의 해석 가능성, 출력 검증, 감사 도구의 독립성 — 은 대규모 에이전틱 배포를 위한 신뢰 아키텍처를 형성하기 시작했다.


출처