2026년 4월 13일, GitHub는 Copilot CLI 세션을 위한 원격 제어(remote control) 기능을 출시하여, 간단한 QR 코드만으로 웹이나 휴대폰에서 터미널을 조작할 수 있게 했습니다. MiniMax는 첫날부터 작동하는 클라우드 생태계를 갖춘 에이전트 모델 M2.7을 ModelScope에 공개했습니다. Alibaba는 전 세계 개발자들에게 Qwen3.5-Omni API를 제공하고 있으며, Google DeepMind는 Gemini 3.1 Flash Live(Thinking)가 이제 음성 에이전트용 τ-Voice 순위에서 1위를 차지한다고 발표했습니다.
GitHub Copilot CLI — 웹 및 모바일에서 원격 제어
4월 13일 — GitHub가 copilot --remote를 공개 프리뷰로 출시했습니다. 이제 진행 중인 Copilot CLI 세션은 머신에 직접 접근하지 않아도 GitHub.com이나 GitHub Mobile 앱에서 모니터링하고 조작할 수 있습니다.
작동 방식은 간단합니다. 원격 세션을 시작하면 CLI가 링크와 QR 코드를 표시합니다. 브라우저나 휴대폰에서 이 링크로 이동하면 사용자는 현재 세션의 인터페이스에 접근할 수 있습니다. 동기화는 양방향으로 이루어지며, 웹이나 모바일에서 수행한 작업이 터미널에 반영되고 그 반대도 마찬가지입니다.
| 기능 | 상세 |
|---|---|
| 시작 | 기존 세션에서 copilot --remote 또는 /remote |
| 접근 | CLI가 표시하는 링크 + QR 코드 |
| 애플리케이션 | GitHub.com + GitHub Mobile(iOS TestFlight, Android Google Play beta) |
| 동기화 | 실시간 양방향 |
| 개인정보 보호 | 비공개 세션, 시작한 사용자만 볼 수 있음 |
| 세션 유지 | 장시간 작업 시 절전 모드를 방지하는 /keep-alive 명령어 |
기존 CLI 기능은 모두 원격에서도 사용할 수 있습니다. 세션 중 조작(steering), 계획 검토 및 수정, 모드 변경(계획 / 대화형 / autopilot), 권한 승인 또는 거부, ask_user 질문에 대한 응답이 가능합니다.
기업용 참고 사항: Copilot Business 또는 Enterprise 사용자는 사용 전에 관리자가 원격 제어 및 CLI 정책을 활성화해야 합니다.
MiniMax M2.7 — day-0 클라우드 생태계를 갖춘 오픈소스 에이전트 모델
4월 12일 — MiniMax는 ModelScope에서 사용할 수 있는 에이전트 아키텍처 기반 LLM인 M2.7을 공개했으며, 첫날부터 vLLM 통합이 가능합니다.
공개된 성능은 M2.7이 최고의 코딩 모델들과 견줄 만한 수준임을 보여줍니다.
| Benchmark | M2.7 점수 |
|---|---|
| SWE-Pro | 56,22% (GPT-5.3-Codex와 동등) |
| Terminal Bench 2 | 57,0% |
이 모델은 다중 에이전트 오케스트레이션(Agent Teams), 고급 코딩, 그리고 명령줄 작업 자동화를 위해 설계되었습니다. Together AI(serverless 및 전용)와 Fireworks AI를 통해 즉시 사용할 수 있습니다.
참고: MiniMax는 공개 이후 M2.7이 라이선스 의미에서 엄격한 오픈소스는 아니라고 밝히며, 모델이 수정된 사용 조건과 함께 재공개되었다고 설명했습니다.
🔗 ModelScope의 오픈소스 공지 🔗 day-0 vLLM 지원 🔗 Together AI 제공 여부
Qwen3.5-Omni API — 국제적 제공
4월 13일 — Tongyi Lab(Alibaba)이 Alibaba Cloud Model Studio를 통해 Qwen3.5-Omni API의 국제적 제공을 발표했습니다. 모델 qwen3.5-omni-plus는 API 키만 있으면 즉시 사용할 수 있습니다.
2026년 3월 29일 연구 논문에서 소개된 Qwen3.5-Omni는 네이티브 옴니모달 모델입니다. 텍스트, 이미지, 오디오, 비디오를 하나의 추론으로 처리하며, 다단계 파이프라인이 필요하지 않습니다. 이 모델은 하이브리드 아키텍처를 통해 두 가지 동작 모드, 즉 Thinker(추론)와 Talker(음성 대화)를 제공합니다.
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇰🇷 Qwen3.5-Omni API가 이제 공식적으로 제공되어, 비디오 콘텐츠를 처리하는 방식을 바꿀 준비가 되었습니다. — @Ali_TongyiLab on X
🔗 공지 스레드 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — τ-Voice 랭킹 1위
4월 13일 — Google DeepMind의 제품 매니저 Tulsee Doshi는 Thinking 모드를 활성화한 Gemini 3.1 Flash Live가 Sierra Platform의 τ-Voice Leaderboard에서 1위를 차지했다고 발표했습니다.
이 순위는 실시간 음성 에이전트 구축을 위한 모델의 성능을 측정합니다. 음성 이해, 다중 턴 추론, 그리고 실제 환경에 가까운 시나리오에서의 작업 실행이 평가 대상입니다. Gemini 3.1 Flash Live는 2026년 3월 26일에 출시되었으며, 이번 결과는 음성 애플리케이션을 구축하는 개발자들에게 그 역량을 입증합니다.
이 모델은 Google AI Studio의 Gemini Live API를 통해 제공됩니다.
🔗 X에서의 공지 🔗 τ-Voice Leaderboard
Claude용 TurboTax 및 Aiwyn Tax 커넥터
4월 12일 — Anthropic의 Henry Shi는 미국 세금 신고 마감일인 4월 15일을 며칠 앞두고 Claude용 새 커넥터 두 가지, TurboTax와 Aiwyn Tax(이전의 Column Tax)를 발표했습니다.
연결 후 Claude는 환급액 또는 납부액을 추정하고, 세금 양식을 설명하며, 신고 절차를 사용자에게 안내할 수 있습니다. 이 커넥터는 Claude 구독이 있는 미국 사용자들을 대상으로 합니다.
의미
GitHub의 copilot --remote 기능은 오늘의 가장 구조적인 변화입니다. 긴 CLI 작업을 위한 새로운 사용 방식을 열어 주기 때문입니다. 작업을 워크스테이션에서 시작한 뒤, 어떤 기기에서든 모니터링하거나 조작할 수 있습니다. 이는 수 시간 동안 실행되는 자율 에이전트의 사용 사례에 대한 직접적인 대응입니다.
모델 측면에서 MiniMax M2.7과 Qwen3.5-Omni는 서로 다른 두 가지 흐름을 보여줍니다. M2.7은 코딩 에이전트를 배포하는 개발자를 겨냥하며, vLLM 통합을 첫날부터 제공한다는 점에서 대부분의 모델이 이 생태계에 늦게 합류하는 것과 대비됩니다. Qwen3.5-Omni는 네이티브 멀티모달리티에 초점을 맞추며, 비디오를 핵심 강점으로 내세웁니다.
τ-Voice Leaderboard에서 Gemini 3.1 Flash Live의 결과는 Google이 아직 구조화가 덜 되었지만 성장 중인 생산용 음성 에이전트 분야에 진지하게 투자하고 있음을 보여줍니다.
출처
- GitHub Changelog — Copilot CLI remote control(4월 13일)
- MiniMax M2.7 — open-source ModelScope
- MiniMax M2.7 — vLLM 지원
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- Qwen3.5-Omni API 제공 가능 — 주요 트윗
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice #1
- τ-Voice Leaderboard — Sierra Platform
- Claude용 TurboTax/Aiwyn Tax 커넥터
이 문서는 gpt-5.4-mini 모델을 사용하여 fr 버전에서 ko 언어로 번역되었습니다. 번역 과정에 대한 자세한 정보는 https://gitlab.com/jls42/ai-powered-markdown-translator 를 참조하세요.