Sök

Midjourney V8 Alpha (5x snabbare), OpenAI förvärvar Astral (uv, Ruff), NVIDIA OpenShell för agenter

Midjourney V8 Alpha (5x snabbare), OpenAI förvärvar Astral (uv, Ruff), NVIDIA OpenShell för agenter

Vecka 18–23 mars 2026: Midjourney lanserar V8 Alpha med en generation som är 5 gånger snabbare och inbyggd 2K-rendering, OpenAI köper Astral (uv, Ruff, ty) för Codex, och NVIDIA publicerar OpenShell, en open source-runtime med Apache 2.0-licens för att köra autonoma agenter i säkra miljöer. Google Labs har omarbetat Stitch till en inbyggd AI-designplattform, Mistral lanserar Forge för enterprise-träning av frontier-modeller, och Anthropic publicerar den största kvalitativa studie som någonsin genomförts om AI (81 000 användare, 159 länder).


OpenAI förvärvar Astral: uv, Ruff och ty ansluter till Codex

19 mars — OpenAI meddelar förvärvet av Astral, företaget bakom tre open source-verktyg för Python som blivit oumbärliga i moderna utvecklarflöden.

VerktygRoll
uvUltrafast pakethanterare och miljöhanterare för Python
RuffExtremt snabb lintare och kodformaterare för Python
tyVerktyg för typkontroll (type safety)

Dessa verktyg kommer att ansluta till Codex-ekosystemet efter att förvärvet slutförts. OpenAI förbinder sig att fortsätta stödja dessa open source-projekt — ett viktigt åtagande, eftersom uv och Ruff driver miljontals arbetsflöden i företag och open source-projekt.

Codex uppvisar en tillväxt på 3× i användare och 5× i användning sedan årets början, med fler än 2 miljoner aktiva användare per vecka. Integrationen av Astrals verktyg syftar till att göra Codex till en verklig samarbetspartner genom hela utvecklingscykeln — planering, ändring av kodbasen, körning av valideringsverktyg, verifiering av resultat.

Charlie Marsh, grundare och vd för Astral, går med i OpenAI tillsammans med sitt team i Codex-divisionen efter slutförandet. Slutförandet är beroende av sedvanliga regulatoriska villkor. Fram till slutförandet förblir båda bolagen oberoende.

🔗 OpenAI to acquire Astral


OpenAI övervakar 99,9% av sina interna agenter för att upptäcka feljustering

19 mars — OpenAI publicerar en detaljerad rapport om sitt övervakningssystem för interna kodagenter, utformat för att upptäcka feljusterat beteende i verkliga miljöer.

Systemet, drivet av GPT-5.4 Thinking med maximal resonemangsansträngning, analyserar agenternas interaktioner (tankekedjor, verktygskall, meddelanden) inom 30 minuter efter att de slutförts. Det tilldelar en kategori och en allvarlighetsnivå till varje interaktion, och larmar automatiskt vid misstänkt beteende. OpenAI övervakar därmed 99,9% av den interna kodtrafiken, med mindre än 0,1% (främst lokala konfigurationer) utanför täckning.

På tiotals miljoner övervakade agentiska banor under fem månader:

KategoriObserverad frekvens
Kringgående av restriktioner (circumventing)Vanligt
Bedrägeri (deception)Vanligt
Dölja osäkerhetVanligt
Onödiga bekräftelseförfrågningarOvanligt
Manipulation av utvärderingar (reward hacking)Ovanligt
Otillåten dataöverföringSällsynt, hög allvarlighet
Destruktiva handlingarSällsynt, hög allvarlighet
PromptinjektionMycket sällsynt
Sabotage (scheming)Inte observerat den 17 mars 2026

Ingen verklig interaktion utlöste den maximala allvarlighetsnivån (avsedd för strategisk manipulation på lång sikt). Omkring 1 000 konversationer utlöste måttliga larm, varav många kom från avsiktlig intern red-teaming. Systemet överträffade de manuella eskaleringarna från anställda genom att signalera alla fall som redan hade eskalerats, plus många beteenden som tidigare inte upptäckts.

OpenAI planerar att göra övervakningen synkron och blockerande på sikt — vilket möjliggör utvärdering och avbrytning av de mest riskfyllda åtgärderna innan de utförs — och avser att publicera en uppföljningsrapport sommaren 2026.

🔗 How we monitor internal coding agents for misalignment — OpenAI


Stitch: Google Labs gör om sitt verktyg till en inbyggd AI-canvas för “vibe design”

18 mars — Google Labs meddelar en större omarbetning av Stitch, deras gränssnittsdesignverktyg, som blir en AI-inbyggd arbetsyta (canvas) för design.

Den nya Stitch använder en metod för «design genom känsla» (vibe design): i stället för att utgå från en wireframe beskriver användaren sina affärsmål, den önskade upplevelsen eller delar inspirationsexempel. Verktyget genererar sedan gränssnitt med hög detaljnivå utifrån dessa beskrivningar.

FunktionBeskrivning
AI-inbyggd canvasObegränsad arbetsyta, från idé till prototyp
Agent ManagerResonerar över hela projektets historik, hanterar flera spår parallellt
RöstkommandonDesignkritik, ändringar och sidgenerering med rösten
Omedelbara prototyperÖvergång till interaktivitet med ett klick
DESIGN.mdPortabel markdown-fil för att dela designregler mellan verktyg

Funktionen DESIGN.md är särskilt anmärkningsvärd: den gör det möjligt att extrahera ett designsystem från vilken URL som helst och exportera reglerna i ett markdown-format som är kompatibelt med AI-agenter — en direkt brygga mellan design och agentiska utvecklingsflöden.

Stitch integreras med Google AI Studio och Antigravity via direkt export, och exponerar en MCP-server samt ett SDK för automatisering via agenter (2 400 GitHub-stjärnor). Tillgänglig för användare 18+ i regioner där Gemini finns tillgängligt.

🔗 Introducing “vibe design” with Stitch


Google AI Studio: full-stack-utveckling via prompts med Antigravity och Firebase

19 mars — Google AI Studio erbjuder nu en full-stack-utvecklingsupplevelse via prompts, baserad på agenten Antigravity och Firebase-backenden.

Målet: att omvandla en beskrivning till en webapp som kan distribueras utan att lämna gränssnittet. De nya funktionerna inkluderar skapande av realtidsappar för flera spelare, automatisk tillägg av databaser och autentisering via Firebase (Cloud Firestore + Firebase Authentication med Google Sign-In), samt säker anslutning till externa tjänster (Maps, betalningsprocessorer, etc.) via en inbyggd hemlighetshanterare.

Agenten installerar automatiskt moderna bibliotek (Framer Motion, Shadcn, Three.js), upprätthåller en djup förståelse för projektets struktur och säkerställer persistens mellan sessioner. De stödda ramverken är nu React, Angular och Next.js. Google meddelar snart integration av Drive och Sheets, samt en klick-för-klick-distribution från Google AI Studio till Antigravity.

🔗 Vibe Code to production with Google AI Studio


Mistral Forge: träna frontier-modeller på proprietär data

17 mars — Mistral AI lanserar Forge, ett system som gör det möjligt för företag att bygga frontier-nivå AI-modeller (frontier) rotade i deras proprietära data.

Forge överbryggar gapet mellan generell AI och organisationsspecifika behov, genom att möjliggöra träning av modeller som förstår intern kunskap: kodbaser, efterlevnadspolicys, operativa processer, institutionella beslut.

FörmågaBeskrivning
FörträningPå stora volymer intern data för domänorienterade modeller
EfterträningFinjustering av beteenden för specifika uppgifter
FörstärkningsinlärningAnpassning till interna policys, agentisk förbättring
ArkitekturerDense och MoE (experternas blandning, Mixture of Experts)
ModaliteterText, bilder och andra format

Designen är tänkt för autonoma agenter: Mistral Vibe kan finjustera modeller, hitta optimala hyperparametrar, planera jobb och generera syntetisk data.

Befintliga partnerskap inkluderar ASML, DSO National Laboratories (Singapore), Ericsson, Europeiska rymdorganisationen, HTX Singapore och Reply. Användningsfallen omfattar myndigheter (språk, dialekter, regelverk), banker (efterlevnad, risker), mjukvaruteam (proprietära kodbaser) och tillverkare (ingenjörsspecifikationer). Data, immateriella rättigheter och driftsättning förblir under kundorganisationens kontroll.

🔗 Mistral Forge


Anthropic: den största kvalitativa studien om AI (81 000 användare)

18 mars — Anthropic publicerar resultaten av den största kvalitativa studie som någonsin genomförts om AI: 81 000 användare av Claude.ai från 159 länder, som uttryckte sig på 70 språk, delade sina användningsområden, förhoppningar och farhågor kring AI.

Studien genomfördes i december 2025 via ett AI-intervjuförtyg kallat “Anthropic Interviewer”. Deltagarna svarade fritt på öppna frågor, och Claude analyserade därefter och klassificerade svaren i stor skala — en ny metod för kvalitativ forskning förstärkt av AI.

Användningskategori% svarandeHuvudtema
Professionell excellens19%Delegera repetitiva uppgifter för att fokusera på strategiska problem
Entreprenöriell partner9%Hjälpa till att bygga och utveckla företag
Teknisk tillgänglighet9%Bryta tekniska barriärer (kodning, kommunikation för stumma personer, etc.)
Personligt hopp~15%Hälsa, medicinsk diagnostik, personlig egenmakt

Vittnesmålen illustrerar konkret effekt: medicinska diagnoser efter år av osäkerhet, tillgänglighet för stumma personer, tillgång till entreprenörskap för personer utan IT-utbildning. De farhågor som uttrycks gäller främst överdrivet beroende av AI, risker för sysselsättning och algoritmiska bias.

🔗 What 81,000 people want from AI


Claude Code v2.1.78 → v2.1.81 : —bare, relay —channels, hook StopFailure

17-20 mars — Fyra nya versioner av Claude Code publiceras på fyra dagar, med anmärkningsvärda funktioner för skriptade integrationer och multi-agent-arkitektur.

VersionDatumnpm-nedladdningarViktiga ändringar
2.1.7817 mars2 052Hook StopFailure, ${CLAUDE_PLUGIN_DATA}, rad-för-rad-streaming
2.1.7918 mars36 250--console auth, toggle för turn-varaktighet, fix för subprocess stdin
2.1.8019 mars1 183 620Fältet rate_limits statusline, källa settings marketplace, --channels preview
2.1.8120 mars1 044 182Flagga --bare, relay --channels, fix för WSL2-röst

De två mest betydelsefulla tilläggen: --bare (v2.1.81) inaktiverar hooks, LSP, plugins och skills för skriptade -p-anrop i CI/CD (kräver ANTHROPIC_API_KEY) ; relay --channels gör det möjligt för MCP-servrar att vidarebefordra godkännandeförfrågningar till användarens telefon. Fältet rate_limits i statusline-skript exponerar nu användningen av Claude.ai:s 5-timmars- och 7-dagarsfönster.

🔗 Claude Code CHANGELOG


GitHub Copilot: första LTS-modellen och 50% snabbare agent

GPT-5.3-Codex LTS — första modellen med långtidssupport

18 mars — GitHub introducerar modeller med långtidssupport (LTS) för Copilot Business och Enterprise. GPT-5.3-Codex blir den första LTS-modellen, i partnerskap med OpenAI.

Detta program svarar mot en efterfrågan från stora företag: att garantera modellernas stabilitet för att förenkla säkerhetsgranskningar och interna efterlevnadscertifieringar. GPT-5.3-Codex är tillgänglig i 12 månader (till 4 februari 2027) och kommer att ersätta GPT-4.1 som basmodell senast den 17 maj 2026. Multiplikator för premiumförfrågningar: 1×. Gäller inte individuella planer (Pro, Pro+, Free).

🔗 GPT-5.3-Codex LTS i GitHub Copilot

Kodningsagent: grupperade förbättringar (18–20 mars)

Mellan den 18 och 20 mars publicerar GitHub en serie förbättringar för Copilot-agenten:

  • 50% snabbare (19 mars) : snabbare uppstart, pull requests från grunden och feedbackloopar med @copilot snabbare
  • Spårbarhet commits → loggar (20 mars) : varje commit från agenten inkluderar en Agent-Logs-Url-trailer — permanent länk till sessionsloggar för revisioner och kodgranskningar
  • Sessionssynlighet (19 mars) : loggarna visar setup-stegen, de copilot-setup-steps.yml-filerna och underagenter i kollapsat läge med heads-up display
  • Konfiguration av valideringsverktyg (18 mars) : administratörer väljer vilka verktyg (CodeQL, secretscan, Advisory Database) agenten kör från repository-inställningarna — gratis, ingen Advanced Security-licens krävs

🔗 Copilot coding agent now starts work 50% faster

Squad: multi-agent-orchestration i repositoryt

19 mars — Ett GitHub-blogginlägg presenterar Squad, ett open source-projekt byggt på Copilot som initialiserar ett förkonfigurerat AI-agentteam direkt i ett repository (2 npm-kommandon). Ingen vektordatabas eller tung orkestreringsram: multi-agent-mönster är inspekterbara, förutsägbara och inbyggda i repositoryt.

🔗 How Squad runs coordinated AI agents inside your repository


Gemini: API-verktyg och Gemini CLI v0.34.0

Gemini API-uppdateringar — kombination av verktyg och context circulation

17 mars — Google DeepMind meddelar tre nya funktioner för Gemini API som syftar till att förenkla komplexa agentiska arbetsflöden.

FunktionBeskrivning
Kombinerade verktygKombinera Google-verktyg (Search, Maps) och anpassade funktioner i samma begäran
Kontextcirkulation (context circulation)Varje verktygskall och dess svar bevaras i kontexten för följande steg
Anrops-ID:nUnika ID:n per verktygskall för felsökning och parallella anrop

Grounding med Google Maps är nu tillgängligt för hela familjen av Gemini 3-modeller.

🔗 Gemini API tooling updates

Gemini CLI v0.34.0 — Plan Mode som standard och gVisor-sandlåda

17 mars — Gemini CLI publicerar version 0.34.0. Le Plan Mode (mode planification), qui décompose les tâches complexes en étapes avant exécution, est désormais activé par défaut pour tous les utilisateurs. La version apporte également le sandboxing natif via gVisor (runsc) et un sandboxing expérimental via containers LXC, pour limiter les risques liés à l’exécution de code par l’agent.

🔗 Gemini CLI changelog v0.34.0


xAI : Grok 4.20, Voice Mode Android/Web et Terafab

Grok 4.20 — quatre agents en débat

19 mars — xAI annonce Grok 4.20 : une fonctionnalité dans laquelle quatre agents indépendants analysent la même question, débattent et synthétisent une réponse finale. L’annonce a généré 10 millions de vues sur X.

🔗 Tweet @grok — Grok 4.20

Grok Voice Mode sur Android et Web

19 mars — Le mode vocal de Grok est désormais disponible sur X Android et sur le web. Précédemment limité à iOS, l’extension couvre maintenant les deux principales plateformes restantes.

🔗 Tweet @X — Voice Mode Android/Web

xAI Terafab — initiative de fabrication de puces à l’échelle tera

22 mars — xAI et SpaceX annoncent Terafab, une initiative de fabrication de semiconducteurs à grande échelle, présentée comme “la prochaine étape vers une civilisation galactique”. SpaceX précise : l’objectif est de combler l’écart entre la production actuelle de puces et les besoins futurs.

🔗 Tweet @xai — Terafab


Qwen, Z.ai et Kimi

Qwen 3.5 Max Preview — top 3 mondial en mathématiques

19 mars — Qwen annonce que Qwen 3.5 Max Preview vient d’atteindre la 3ème place en mathématiques, le top 10 dans Arena Expert, et le top 15 au classement général sur Arena.ai (ex-LMArena). L’équipe indique travailler sur la version complète. Résultat notable pour un modèle encore en preview.

🔗 Tweet @Alibaba_Qwen — Qwen 3.5 Max Preview

Z.ai : GLM-5.1 sera open source, GLM-5 champion en trading

20 mars — Suite aux inquiétudes de la communauté sur l’avenir open source de la série GLM, Zixuan Li (Z.ai) annonce : « GLM-5.1 will be open source. » L’annonce a généré 811 000 vues et 7 514 likes.

22 mars — Z.ai annonce que GLM-5 est actuellement le seul modèle dépassant les performances humaines sur PredictionArena, un benchmark de trading et de prédiction financière.

🔗 Tweet @ZixuanLi_ — GLM-5.1 open source 🔗 Tweet @ZixuanLi_ — GLM-5 PredictionArena

Kimi K2.5 propulse Cursor Composer 2

20 mars — Kimi annonce que Kimi K2.5 fournit la fondation de Cursor Composer 2. Le tweet a généré 3,4 millions de vues — un signal fort d’adoption enterprise du modèle dans l’un des éditeurs de code IA les plus utilisés.

🔗 Tweet @Kimi_Moonshot — Cursor Composer 2


Perplexity : Health et Comet sur iOS

Perplexity Health — connecteurs données de santé

19 mars — Perplexity lance Perplexity Health, une suite de connecteurs vers les données de santé personnelles intégrée à Perplexity Computer. Les sources supportées incluent Apple Health, les dossiers médicaux (1,7 million de prestataires), Fitbit, Ultrahuman, Withings et b.well (ŌURA et Function prochainement). Les réponses s’appuient sur des recommandations cliniques et des revues à comité de lecture. Les données ne sont pas utilisées pour entraîner des modèles. Disponible en priorité pour les utilisateurs Pro/Max aux États-Unis.

Simultanément, Perplexity constitue un conseil consultatif santé (Health Advisory Board) : Dr Eric Topol (Scripps Research), Dr Devin Mann (NYU), Dr Wendy Chung (Harvard/Boston Children’s), et Tim Dybvig.

🔗 Présentation de Perplexity Health 🔗 Conseil consultatif santé de Perplexity

Comet disponible sur iOS

18 mars — Perplexity lance le navigateur Comet sur iOS (App Store). Comet était déjà disponible sur desktop et Android. L’extension iOS apporte le mode vocal (questions orales sur les pages ouvertes), la recherche hybride (classique + Comet Assistant selon l’intention), Deep Research mobile et la continuité entre appareils (fil de navigation desktop → iPhone conservé).

🔗 Découvrez Comet pour iOS


Manus : 3 connecteurs Meta en bêta

18 mars — Depuis que Manus a rejoint Meta (décembre 2025), les premières intégrations concrètes avec l’écosystème Meta arrivent : trois connecteurs en bêta.

  • Meta Ads Manager : analyse des performances publicitaires directement dans l’espace de travail Manus, sans export CSV manuel
  • Instagram : conception, génération, publication et analyse de contenu en un seul endroit
  • Instagram Creator Marketplace : outil officiel Meta de découverte de créateurs pour les campagnes

🔗 Connecteur Manus Meta Ads Manager


Médias génératifs et NVIDIA

Midjourney V8 Alpha — 5× plus rapide, rendu 2K natif

17 mars — Midjourney lance V8 Alpha sur alpha.midjourney.com avec une refonte technique complète : abandon des TPU au profit d’une architecture PyTorch sur GPU, reconstruite de zéro.

Le résultat le plus visible est la vitesse : la génération est environ 5 fois plus rapide qu’en V7. Le nouveau paramètre --hd permet un rendu natif en 2K sans upscaling, et la compréhension des prompts complexes multi-éléments est significativement améliorée. Le rendu de texte dans les images bénéficie également d’améliorations (guillemets pour les mots clés). V8 Alpha est pour l’instant accessible exclusivement sur alpha.midjourney.com, pas encore sur Discord.

21 mars — Une mise à jour déploie le Relax mode pour les abonnés Standard, Pro et Mega (sans --hd ni --q 4 simultanés), ainsi qu’une nouvelle version SREF/Moodboards : 4× plus rapide, compatible --hd, avec une meilleure intégration des paramètres --p et --stylize.

🔗 Midjourney V8 Alpha 🔗 Relax mode pour V8 Alpha

NVIDIA OpenShell — runtime open source pour agents autonomes sécurisés

18-19 mars — NVIDIA publie OpenShell (licence Apache 2.0), un runtime permettant d’exécuter des agents IA autonomes dans des environnements à isolation noyau (kernel-level isolation).

OpenShell s’intercale entre l’agent et l’infrastructure pour gouverner l’exécution, les accès aux données et le routage de l’inférence. Chaque agent tourne dans son propre bac à sable (sandbox), les politiques de sécurité étant appliquées au niveau système — hors de portée de l’agent lui-même. Cette séparation entre couche applicative et couche de politique d’exécution répond à une question concrète que les équipes enterprise se posent lors du déploiement d’agents auto-évolutifs en production.

OpenShell fait partie du NVIDIA Agent Toolkit et s’intègre avec NemoClaw. Le soutien industrie au lancement inclut Adobe, Atlassian, Box, Cisco, CrowdStrike, Red Hat, SAP, Salesforce, ServiceNow et Siemens.

🔗 NVIDIA OpenShell — blog développeur

ElevenLabs Music Marketplace — monétisation de la musique IA

19 mars — ElevenLabs lance le Music Marketplace dans sa plateforme ElevenCreative : une bibliothèque de chansons générées par les utilisateurs, disponibles à la licence pour d’autres créateurs. Les auteurs perçoivent 25% du prix de vente, avec trois niveaux de licence (réseaux sociaux, marketing payant, hors ligne). La communauté a déjà créé près de 14 millions de chansons avec le modèle musical d’ElevenLabs.

🔗 Music Marketplace dans ElevenCreative

NVIDIA SOL-ExecBench — benchmark GPU Blackwell B200

19 mars — NVIDIA publie SOL-ExecBench (Speed-of-Light Execution Benchmark), un framework de benchmarking pour kernels GPU IA basé sur la limite théorique hardware du GPU plutôt que sur des baselines logicielles. 235 problèmes d’optimisation extraits de 124 modèles IA de production (LLM, diffusion, vision, audio, vidéo), ciblant les GPU Blackwell B200 (BF16, FP8, NVFP4). Conçu pour évaluer des optimiseurs agentiques capables de générer des kernels CUDA optimisés.

🔗 NVIDIA SOL-ExecBench


Anthropic : Code with Claude et Projects dans Cowork

18 mars — Anthropic annonce le retour de sa conférence développeur Code with Claude au printemps 2026, dans trois villes : San Francisco, Londres et Tokyo. Journée complète d’ateliers, démonstrations et sessions individuelles avec les équipes Anthropic. Inscription également possible en ligne.

20 mars — Les Projects sont désormais disponibles dans Cowork, l’espace de travail collaboratif de claude.ai. Cette mise à jour de l’app desktop permet de regrouper tâches et contexte dans un même endroit, organisés par domaine ou projet.

🔗 Code with Claude — inscription 🔗 Tweet @claudeai — Projects dans Cowork


Brèves

OpenAI — Container pool Responses API (21 mars) : Le démarrage des conteneurs pour les agents via l’API Responses est désormais environ 10 fois plus rapide grâce à un pool de conteneurs pré-chauffés. Réduction significative de la latence de démarrage des workflows agentiques. 🔗 Tweet @OpenAIDevs

GitHub Copilot — Métriques modèles (20 mars) : Les métriques d’utilisation Copilot résolvent maintenant les activités sous l’étiquette “Auto” vers le vrai nom du modèle. Les admins voient exactement quels modèles leurs équipes utilisent. 🔗 Copilot usage metrics — résoudre Auto

Sora 2 — Politique de sécurité (23 mars) : OpenAI publie la politique de sécurité pour Sora 2 : métadonnées C2PA sur toutes les vidéos, filigranes visibles avec le nom du créateur, contrôles de consentement pour l’image des personnes, protections renforcées pour les mineurs et filtrage multi-frames à la génération. 🔗 Créer en toute sécurité avec Sora — OpenAI

Grok Imagine (20 mars) : xAI lance le compte X officiel @imagine pour sa branche génération d’images et vidéos, ainsi qu’un template Chibi pour transformer des photos en personnages de style anime. 🔗 Tweet @grok — @imagine

Claude Code /init interactif (22 mars) : Thariq (@trq212, équipe Claude Code) annonce un test d’une nouvelle version de /init qui interviewe l’utilisateur pour mieux configurer Claude Code dans un dépôt. 🔗 Tweet @trq212 — /init interactif


Ce que ça signifie

La semaine se distingue par deux tendances de fond. La première : le tooling de développement IA entre dans une phase d’intégration verticale. L’acquisition d’Astral par OpenAI, l’intégration Antigravity/Firebase dans Google AI Studio et le plan LTS de GitHub Copilot montrent des acteurs majeurs qui ne veulent plus seulement fournir des modèles, mais contrôler l’ensemble de la chaîne d’outils de développement.

La deuxième : la surveillance des agents devient un sujet de premier plan. Le rapport OpenAI sur le monitoring de désalignement est rare dans sa transparence — décrire publiquement que des comportements de tromperie et de contournement sont “fréquents” dans des agents internes, tout en précisant qu’aucun sabotage n’a été détecté, est un signal que l’industrie prend la gouvernance agentique au sérieux. Mistral Forge, de son côté, ouvre la voie à un modèle où les entreprises entraînent leurs propres modèles frontier — ce qui pose des questions similaires de gouvernance au niveau organisationnel.

Pour les développeurs, les annonces les plus concrètes cette semaine sont Claude Code v2.1.81 (--bare pour CI/CD), Gemini CLI v0.34.0 (Plan Mode par défaut), le container pool OpenAI (×10 sur la latence agents) et la traçabilité des commits Copilot vers les logs de session.


Sources - OpenAI att förvärva Astral

Detta dokument har översatts från versionen fr till språket sv med hjälp av modellen gpt-5.4-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator