검색

Copilot CLI 원격 제어, MiniMax M2.7, Qwen3.5-Omni API

Copilot CLI 원격 제어, MiniMax M2.7, Qwen3.5-Omni API

2026년 4월 13일, GitHub는 Copilot CLI 세션을 위한 원격 제어(remote control) 기능을 출시하여, 간단한 QR 코드만으로 웹이나 휴대폰에서 터미널을 조작할 수 있게 했습니다. MiniMax는 첫날부터 작동하는 클라우드 생태계를 갖춘 에이전트 모델 M2.7을 ModelScope에 공개했습니다. Alibaba는 전 세계 개발자들에게 Qwen3.5-Omni API를 제공하고 있으며, Google DeepMind는 Gemini 3.1 Flash Live(Thinking)가 이제 음성 에이전트용 τ-Voice 순위에서 1위를 차지한다고 발표했습니다.


GitHub Copilot CLI — 웹 및 모바일에서 원격 제어

4월 13일 — GitHub가 copilot --remote를 공개 프리뷰로 출시했습니다. 이제 진행 중인 Copilot CLI 세션은 머신에 직접 접근하지 않아도 GitHub.com이나 GitHub Mobile 앱에서 모니터링하고 조작할 수 있습니다.

작동 방식은 간단합니다. 원격 세션을 시작하면 CLI가 링크와 QR 코드를 표시합니다. 브라우저나 휴대폰에서 이 링크로 이동하면 사용자는 현재 세션의 인터페이스에 접근할 수 있습니다. 동기화는 양방향으로 이루어지며, 웹이나 모바일에서 수행한 작업이 터미널에 반영되고 그 반대도 마찬가지입니다.

기능상세
시작기존 세션에서 copilot --remote 또는 /remote
접근CLI가 표시하는 링크 + QR 코드
애플리케이션GitHub.com + GitHub Mobile(iOS TestFlight, Android Google Play beta)
동기화실시간 양방향
개인정보 보호비공개 세션, 시작한 사용자만 볼 수 있음
세션 유지장시간 작업 시 절전 모드를 방지하는 /keep-alive 명령어

기존 CLI 기능은 모두 원격에서도 사용할 수 있습니다. 세션 중 조작(steering), 계획 검토 및 수정, 모드 변경(계획 / 대화형 / autopilot), 권한 승인 또는 거부, ask_user 질문에 대한 응답이 가능합니다.

기업용 참고 사항: Copilot Business 또는 Enterprise 사용자는 사용 전에 관리자가 원격 제어 및 CLI 정책을 활성화해야 합니다.

🔗 GitHub Changelog 공지


MiniMax M2.7 — day-0 클라우드 생태계를 갖춘 오픈소스 에이전트 모델

4월 12일 — MiniMax는 ModelScope에서 사용할 수 있는 에이전트 아키텍처 기반 LLM인 M2.7을 공개했으며, 첫날부터 vLLM 통합이 가능합니다.

공개된 성능은 M2.7이 최고의 코딩 모델들과 견줄 만한 수준임을 보여줍니다.

BenchmarkM2.7 점수
SWE-Pro56,22% (GPT-5.3-Codex와 동등)
Terminal Bench 257,0%

이 모델은 다중 에이전트 오케스트레이션(Agent Teams), 고급 코딩, 그리고 명령줄 작업 자동화를 위해 설계되었습니다. Together AI(serverless 및 전용)와 Fireworks AI를 통해 즉시 사용할 수 있습니다.

참고: MiniMax는 공개 이후 M2.7이 라이선스 의미에서 엄격한 오픈소스는 아니라고 밝히며, 모델이 수정된 사용 조건과 함께 재공개되었다고 설명했습니다.

🔗 ModelScope의 오픈소스 공지 🔗 day-0 vLLM 지원 🔗 Together AI 제공 여부


Qwen3.5-Omni API — 국제적 제공

4월 13일 — Tongyi Lab(Alibaba)이 Alibaba Cloud Model Studio를 통해 Qwen3.5-Omni API의 국제적 제공을 발표했습니다. 모델 qwen3.5-omni-plus는 API 키만 있으면 즉시 사용할 수 있습니다.

2026년 3월 29일 연구 논문에서 소개된 Qwen3.5-Omni는 네이티브 옴니모달 모델입니다. 텍스트, 이미지, 오디오, 비디오를 하나의 추론으로 처리하며, 다단계 파이프라인이 필요하지 않습니다. 이 모델은 하이브리드 아키텍처를 통해 두 가지 동작 모드, 즉 Thinker(추론)와 Talker(음성 대화)를 제공합니다.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇰🇷 Qwen3.5-Omni API가 이제 공식적으로 제공되어, 비디오 콘텐츠를 처리하는 방식을 바꿀 준비가 되었습니다.@Ali_TongyiLab on X

🔗 공지 스레드 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — τ-Voice 랭킹 1위

4월 13일 — Google DeepMind의 제품 매니저 Tulsee Doshi는 Thinking 모드를 활성화한 Gemini 3.1 Flash Live가 Sierra Platform의 τ-Voice Leaderboard에서 1위를 차지했다고 발표했습니다.

이 순위는 실시간 음성 에이전트 구축을 위한 모델의 성능을 측정합니다. 음성 이해, 다중 턴 추론, 그리고 실제 환경에 가까운 시나리오에서의 작업 실행이 평가 대상입니다. Gemini 3.1 Flash Live는 2026년 3월 26일에 출시되었으며, 이번 결과는 음성 애플리케이션을 구축하는 개발자들에게 그 역량을 입증합니다.

이 모델은 Google AI Studio의 Gemini Live API를 통해 제공됩니다.

🔗 X에서의 공지 🔗 τ-Voice Leaderboard


Claude용 TurboTax 및 Aiwyn Tax 커넥터

4월 12일 — Anthropic의 Henry Shi는 미국 세금 신고 마감일인 4월 15일을 며칠 앞두고 Claude용 새 커넥터 두 가지, TurboTaxAiwyn Tax(이전의 Column Tax)를 발표했습니다.

연결 후 Claude는 환급액 또는 납부액을 추정하고, 세금 양식을 설명하며, 신고 절차를 사용자에게 안내할 수 있습니다. 이 커넥터는 Claude 구독이 있는 미국 사용자들을 대상으로 합니다.

🔗 X에서 Henry Shi의 공지


의미

GitHub의 copilot --remote 기능은 오늘의 가장 구조적인 변화입니다. 긴 CLI 작업을 위한 새로운 사용 방식을 열어 주기 때문입니다. 작업을 워크스테이션에서 시작한 뒤, 어떤 기기에서든 모니터링하거나 조작할 수 있습니다. 이는 수 시간 동안 실행되는 자율 에이전트의 사용 사례에 대한 직접적인 대응입니다.

모델 측면에서 MiniMax M2.7과 Qwen3.5-Omni는 서로 다른 두 가지 흐름을 보여줍니다. M2.7은 코딩 에이전트를 배포하는 개발자를 겨냥하며, vLLM 통합을 첫날부터 제공한다는 점에서 대부분의 모델이 이 생태계에 늦게 합류하는 것과 대비됩니다. Qwen3.5-Omni는 네이티브 멀티모달리티에 초점을 맞추며, 비디오를 핵심 강점으로 내세웁니다.

τ-Voice Leaderboard에서 Gemini 3.1 Flash Live의 결과는 Google이 아직 구조화가 덜 되었지만 성장 중인 생산용 음성 에이전트 분야에 진지하게 투자하고 있음을 보여줍니다.


출처

이 문서는 gpt-5.4-mini 모델을 사용하여 fr 버전에서 ko 언어로 번역되었습니다. 번역 과정에 대한 자세한 정보는 https://gitlab.com/jls42/ai-powered-markdown-translator 를 참조하세요.