Luma AI가 Uni-1을 발표했습니다. 이 모델은 추론과 픽셀 생성을 단일 패스에서 결합하며, 발표 며칠 만에 610만 뷰를 기록했습니다. 한편 Perplexity는 Samsung Browsing Assist에 API를 배포해 10억 대가 넘는 삼성 기기에 탑재되었고, Claude Code v2.1.86은 15건가량의 주요 버그 수정을 포함한 업데이트를 내놨으며, GitHub Copilot CLI는 에이전트에 의한 단위 테스트 생성을 도입했습니다.
Luma Uni-1 — 추론과 픽셀 생성의 통합
3월 23일 — Luma AI는 Uni-1을 발표했습니다. 회사는 이를 « 픽셀을 동시에 사고하고 생성하는 새로운 유형의 모델 »이라고 설명합니다. 기존의 확산 모델들이 먼저 잠재 표현을 생성한 뒤 디코딩하는 방식과 달리, Uni-1은 추론과 생성 과정을 하나의 프로세스에서 통합합니다.
이 발표는 몇일 만에 610만 뷰, 4,000개 좋아요와 수천 건의 리트윗을 기록하며 주목을 받았습니다 — 이미지 생성 분야 기술 발표로는 이례적인 지표입니다.
아키텍처와 포지셔닝 :
| Capacité | Description |
|---|---|
| Raisonnement spatial | 원근감과 폐색(occlusion) 일관성을 유지하며 장면을 이해하고 보완 |
| Raisonnement de bon sens | 장면의 의도를 추론해 생성을 안내 |
| Transformation guidée | 단순 픽셀 매칭이 아닌 물리적 타당성에 의해 구동되는 수정 |
| Intelligence unifiée | 이해, 지시, 생성을 단일 패스(unified pass)로 수행 |
Luma는 Uni-1을 « Less artificial. More intelligent. »라는 문구로 포지셔닝하며, 시각적 패턴의 통계적 일치 기반 생성기들과의 단절을 시사합니다. 이 모델은 Luma의 향후 « Creative Agents »의 기반이자 차세대 Dream Machine의 엔진이 될 가능성이 제시됩니다.
Uni-1은 지금 바로 lumalabs.ai/app에서 이용 가능합니다.
“A new kind of model that thinks and generates pixels at the same time.”
🇰🇷 픽셀을 동시에 사고하고 생성하는 새로운 유형의 모델입니다. — @LumaLabsAI X에서
Perplexity가 삼성 Browsing Assist에 탑재 — 10억 대 기기 지원
3월 26일 — Samsung은 Galaxy Android 기기와 Windows PC의 Samsung Browser에 네이티브로 통합된 대화형 AI 어시스턴트 Browsing Assist를 출시했습니다. 이 기능의 백엔드에는 Perplexity의 API들이 있으며, 전 세계적으로 10억 대가 넘는 삼성 기기에 배포되었습니다.
이 출시는 이미 존재하던 파트너십을 공고히 합니다: Perplexity는 Galaxy S26에 통합된 세 개의 어시스턴트 중 두 개 — 네이티브 Perplexity 어시스턴트와, 웹 검색 및 추론에 Perplexity API를 사용하는 Bixby — 를 지원합니다. Browsing Assist를 통해 Perplexity는 대화형 어시스턴트에서 브라우저 자체의 AI 계층으로 역할을 확장했습니다.
Browsing Assist의 기능 :
| Fonctionnalité | Description |
|---|---|
| Réponses sourcées | 탐색 중 실시간으로 원출처가 있는 응답 제공 |
| Résumé de pages | 로그인 필요 페이지 등 인증된 콘텐츠 포함 요약 |
| Recherche dans l’historique | 자연어로 히스토리 검색 |
| Gestion conversationnelle | 음성 또는 텍스트로 탭 열기/닫기/탭 간 이동 제어 |
| Actions multi-onglets | 여러 열린 탭에 대해 동시 작업 수행 |
| Synchronisation téléphone → PC | 모바일에서 시작한 대화를 PC에서 이어가기 |
인프라: Browsing Assist는 단일 테넌트(single-tenant) 전용 Perplexity 클러스터에서 동작하며, 모든 API 입력에 대해 데이터 보존을 하지 않습니다. 엔드포인트는 삼성의 요구하는 속도와 규모에 맞춰 맞춤 설계되었습니다.
Perplexity는 삼성에 배포된 기능들 — 검색, 추론, 다중 탭 오케스트레이션 — 이 자사 브라우저 Comet의 기반이 되는 동일한 기능이라고 밝혔습니다. 이 배포는 Perplexity의 기술 스택이 대규모로 검증되었다는 의미입니다.
가용성: 출시 시 미국과 대한민국에서 이용 가능 ; 기타 지역은 추후 제공 예정. 동일한 기능은 개발자들이 Perplexity의 Search API, Embeddings API 및 Agent API를 통해서도 접근할 수 있습니다.
Claude Code v2.1.86 — 주요 버그 수정 및 Jujutsu/Sapling VCS 지원
3월 27일 — Anthropic은 Claude Code v2.1.86을 공개했습니다. 이번 버전은 버그 수정이 특히 많은 업데이트로, 약 15건의 버그 수정과 여러 성능 개선을 포함합니다.
주요 개선사항 :
| Catégorie | Changement |
|---|---|
| API | 세션별 요청을 프록시 쪽에서 집계하기 위한 Header X-Claude-Code-Session-Id |
| VCS | Grep 및 자동완성에서 .jj(Jujutsu)와 .sl(Sapling) 제외 |
| Cache MCP | macOS 키체인 캐시의 시작 지연을 5s에서 30s로 단축 |
| Performances | Bedrock, Vertex 및 Foundry에서 캐시 적중률 향상 |
| Tokens | @fichier 언급 시 오버헤드 감소(원본 콘텐츠의 JSON-escape 제거) |
| UX mémoire | 알림 « 저장된 N개의 메모리 »에서 클릭 가능한 메모리 파일 이름 |
| Skills | 설명을 250자로 제한 ; 메뉴 /skills 알파벳 순 정렬 |
| Read tool | 줄 번호 형식 간결화, 동일한 재조회 읽기의 중복 제거 |
주요 버그 수정: --resume는 v2.1.85 이전에 생성된 세션에서 실패하던 문제 ; Write/Edit/Read는 프로젝트 루트 밖 파일에서 조건부 스킬과 함께 실패하던 점 ; 장기 세션에서 /feedback로 인한 잠재적 메모리 크래시 ; --bare 모드에서 MCP 도구를 잃어버리던 문제 ; OAuth URL 복사 단축키가 전체 URL 대신 약 20자만 복사하던 문제 ; 공식 마켓플레이스 플러그인 스크립트가 v2.1.83 이후 macOS/Linux에서 « Permission denied »로 실패하던 문제 등이 포함됩니다.
GitHub Copilot CLI — 에이전트 기반 자동화로 단위 테스트 생성
3월 28일 — GitHub은 Copilot CLI의 새로운 기능을 발표했습니다: 터미널에서 직접 전체 단위 테스트 스위트를 자동 생성하는 기능으로, plan mode와 autopilot 모드의 에이전트 함대를 결합해 동작합니다.
워크플로우 :
- 터미널에서
Shift-Tab로 plan 모드를 활성화 - autopilot 모드로 에이전트 함대 실행
/tasks명령으로 진행 상황 추적
생성 작업은 여러 에이전트 간 병렬화되어 여러 모듈을 동시에 커버할 수 있습니다. 주요 사용 사례는 테스트 커버리지가 없는 기존 프로젝트이며 — Copilot CLI는 터미널 환경을 떠나지 않고도 완전한 테스트 스위트를 생성할 수 있습니다.
OpenAI — gpt-realtime-1.5 및 gpt-realtime-mini GA
3월 27일 — OpenAI는 Realtime API를 통해 새로운 리얼타임 모델들의 일반 가용화(General Availability)를 발표했습니다. 모델 문서에는 다음이 새로 기재되어 있습니다 :
| Modèle | Positionnement |
|---|---|
gpt-realtime-1.5 | 양방향 오디오 상호작용을 위한 최적의 음성 모델 |
gpt-realtime-mini | 리얼타임 모델의 경제형 버전 |
이 모델들은 베타 기간의 이전 명칭 gpt-4o-realtime-preview을 대체합니다. Realtime API는 WebRTC, WebSocket 또는 SIP를 통해 실시간 양방향 음성(입력 및 출력 오디오) 상호작용을 지원합니다. @OpenAIDevs가 선보인 데모는 싱가포르의 클리닉을 위한 컨시어지 의료 시스템으로, 정보를 수집하고 자연스럽게 예약을 잡는 시연을 포함했습니다.
Google DeepMind — AI 조작 측정 툴킷
3월 26일 — Google DeepMind는 AI에 의한 조작(manipulation)에 대한 대규모 실증 연구 결과를 발표했습니다. 이 연구는 10,000명을 대상으로 했으며, 모델들이 큰 영향을 미치는 분야(특히 금융 분야)와 기존 안전장치가 효과적으로 허위 조언을 차단하는 분야(의료 분야)를 식별했습니다.
Google DeepMind는 실세계에서의 AI 조작을 계량화하기 위한 툴킷을 개발했으며 — 실증적으로 검증된 최초의 사례로 — 조작이 어떻게 발생할 수 있는지 정량화합니다. 연구는 공포(fear) 활용 같은 위험한 전술들을 지적합니다.
“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”
🇰🇷 우리는 실제 세계에서의 AI 조작을 측정하기 위한 툴킷을 개발했으며, 실증적으로 검증된 최초의 사례로 — 그것이 어떻게 발생할 수 있는지 더 잘 이해하고 사용자를 보호하기 위한 것입니다. — @GoogleDeepMind X에서
Google Translate Live — iOS에서 실시간 번역
3월 27일 — Google은 Google Translate Live를 iOS의 이어폰으로도 확장했으며, 더 많은 국가로 배포를 진행 중입니다. 이전에 Android에서만 가능하던 이 기능은 블루투스 또는 유선 이어폰을 통해 70개 이상 언어의 실시간 번역을 지원합니다.
MedGemma Impact Challenge — 4개 수상작, 850+ 팀 참가
3월 26일 — Google은 MedGemma Impact Challenge의 수상작을 발표했습니다. 이 대회에는 850개 이상의 팀이 참여하여 MedGemma 1.5(구글의 오픈 의료 모델)를 활용한 보건 애플리케이션을 개발했습니다.
주요 수상작 :
| Rang | Projet | Description |
|---|---|---|
| 1er | EpiCast | ECOWAS 국가들을 위한 역학 감시 — 임상 관찰을 WHO 표준화된 IDSR 신호로 변환 |
| 2e | Sunny | 모바일을 통한 피부암 징후 탐지, 프라이버시를 보장하는 구조화된 보고 |
| 3e | FieldScreen AI | 오프라인 결핵 선별: 흉부 X선 및 기침 오디오 분석 |
| 4e | Tracer | 의료 오류 예방: 의사 노트의 가설을 추출해 검사 결과와 대조 |
Edge AI 및 대리적 워크플로우(agentic workflow)에 수여된 특별상에는 ClinicDX(OpenMRS에 통합된 진단, 사하라 이남 아프리카용 160+ WHO/MSF 가이드 포함, 완전 오프라인) 등이 포함됩니다.
🔗 MedGemma Impact Challenge 블로그
Runway — Ad Concepter 앱 및 10만 달러 콘테스트
3월 27일 — Runway는 광고 제작용 AI 도구인 Ad Concepter App을 출시했습니다. 프롬프트, 참조 이미지, 제품 이미지에서 광고 콘셉트, 구성 및 스토리 비트(story beats)를 생성합니다. 이 도구는 웹 앱에서 즉시 이용 가능합니다.
동시에 Runway는 도구 채택을 촉진하기 위한 Big Ad Contest(#RunwayBigAdContest)를 시작했으며, 최대 상금은 $100,000입니다.
Pika — AI Selves 퍼블릭 베타
3월 26일 — Pika는 Pika AI Selves 퍼블릭 베타를 개방했습니다. 2월에 발표된 이 기능은 각 사용자가 지속적인 메모리(예: 음식 알레르기 같은 개인 정보 포함)를 가진 에이전트형 확장자—즉 자신의 ‘AI Self’를 만들 수 있게 하며, 그룹 대화에서 자율적으로 행동하거나 비디오 게임을 만들고 사진을 전송하는 등 활동할 수 있습니다.
웹(pika.me)과 새로운 iOS 앱을 통해 보편적으로 접근 가능하며, Pika는 이 기능을 단순 비디오 생성 범주를 넘는 개인용 에이전트 경쟁으로 포지셔닝합니다.
브리프(짧은 소식)
Awesome GitHub Copilot — 3월 27일 — 커뮤니티 프로젝트 « Awesome GitHub Copilot »이 전체 텍스트 검색, Learning Hub 및 Copilot CLI와 VS Code용 원클릭 설치를 제공하는 새로운 전용 사이트 awesome-copilot.github.com로 이전합니다. 🔗 GitHub 트윗
NotebookLM 푸시 알림 — 3월 27일 — NotebookLM은 이제 긴 생성 작업 중에도 페이지를 떠날 수 있으며, 생성 완료 시 모바일 푸시 알림을 받을 수 있습니다. 🔗 NotebookLM 트윗
의미 분석
Luma Uni-1은 시각적 생성의 패러다임 전환을 의미합니다: 픽셀의 통계적 일치성 최적화 대신, 모델이 생성 과정 자체에서 공간적 추론을 통합합니다. 실제로 이 접근법이 효과를 보인다면, 창작 도구들은 장면 일관성 유지와 복잡한 지시 처리 방식에서 변화를 겪을 것입니다.
Perplexity × Samsung의 배포는 이번 주 가장 실용적인 임팩트 발표일 수 있습니다: 10억 대라는 규모는 Perplexity의 검색·추론 기능을 대규모로 확산시키는 배포이며, 검색·추론·다중 탭 오케스트레이션 같은 전문화된 AI API들이 하드웨어 제조사에게 인프라 구성요소로 자리잡았음을 확인시킵니다.
개발자 도구 측면에서 Claude Code v2.1.86과 GitHub Copilot CLI는 서로 다른 축에서 발전하고 있습니다: Claude Code는 신뢰성(장기 세션, MCP, 덜 일반적인 VCS에 대한 버그 수정)을 강화했고, Copilot CLI는 에이전트 기반 자동화(에이전트 함대에 의한 테스트 생성)를 밀어붙였습니다. 두 흐름 모두 개발자 어시스턴트가 단순 자동완성을 넘어 점점 성숙해지고 있음을 반영합니다.
출처
- Luma AI Uni-1 — 트윗 발표
- Perplexity APIs + Samsung Browsing Assist — 공식 블로그
- Perplexity × Samsung — 트윗
- Claude Code 변경로그
- GitHub Copilot CLI — 단위 테스트 — 트윗
- OpenAI gpt-realtime-1.5 — @OpenAIDevs 트윗
- Realtime API 문서 — OpenAI
- Google DeepMind — AI 조작 툴킷 — 트윗
- Google Translate Live iOS — @GoogleAI 트윗
- MedGemma Impact Challenge — Google 블로그
- Runway Ad Concepter — 트윗
- Pika AI Selves 베타 — 트윗
- Awesome GitHub Copilot — 트윗
이 문서는 gpt-5-mini 모델을 사용하여 fr 버전에서 ko 언어로 번역되었습니다. 번역 과정에 대한 자세한 내용은 https://gitlab.com/jls42/ai-powered-markdown-translator 를 참조하세요.