Szukaj

Gemma 4 open source, Qwen3.6-Plus na czele kodowania agentowego, Anthropic bada funkcjonalne emocje w LLM-ach

Gemma 4 open source, Qwen3.6-Plus na czele kodowania agentowego, Anthropic bada funkcjonalne emocje w LLM-ach

2 kwietnia 2026 skupia kilka ważnych ogłoszeń: Google publikuje Gemma 4 na licencji Apache 2.0 z czterema rozmiarami i natywnymi możliwościami multimodalnymi, Alibaba wypuszcza Qwen3.6-Plus, który zajmuje pierwsze miejsce w Terminal-Bench 2.0 z oknem kontekstu o wielkości 1 milion token, a Anthropic ujawnia badanie podstawowe dotyczące wewnętrznych struktur emocji w dużych modelach językowych. W obszarze narzędzi Codex przechodzi na model płatności za użycie, do jego ekosystemu dołączają pluginy GitHub i Linear, a Perplexity wprowadza rozszerzenie specjalizowane w podatkach USA.


Gemma 4 : la famille de modèles ouverts la plus capable de Google

2 avril 2026 — Google DeepMind annonce Gemma 4, sa nouvelle famille de modèles ouverts, publiée sous licence Apache 2.0. Décrite comme la génération la plus capable depuis Gemma 1, cette famille se décline en quatre tailles adaptées à des besoins allant du mobile embarqué jusqu’au cloud.

ModelTypZastosowanieSprzęt
E2B (Effective 2B)Edge multimodalMobile, IoT, Raspberry PiAndroid, Jetson Orin Nano
E4B (Effective 4B)Edge multimodal + audioMobile wysokiej klasyAndroid, iOS
26B MoE (Mixture of Experts)Raisonnement bureau/laptopGPU konsumencki1× H100 80GB
31B DenseFine-tuning, rechercheSerwer1× H100 80GB

W zakresie wydajności model 31B Dense zajmuje #3 mundialnie w rankingu Arena AI text leaderboard wśród modeli otwartych, podczas gdy 26B MoE osiąga 6. miejsce, przewyższając modele dwadzieścia razy większe. Ekosystem Gemma przekroczył 400 milionów pobrań i 100 000 wariantów od pierwszej generacji.

Możliwości multimodalne są wbudowane natywnie w całej rodzinie: wizja (obrazy różnego typu, OCR, wykresy), wideo i rozpoznawanie audio w wariantach edge. Kontekst sięga 128K tokens dla modeli edge i 256K dla modeli dużych. 140 języków jest obsługiwanych natywnie, z szeroką kompatybilnością z agentowymi workflow (function calling, JSON strukturalny, instrukcje systemowe).

Modele E2B i E4B działają całkowicie offline z niemal zerową latencją dzięki współpracom z Google Pixel, Qualcomm i MediaTek. Deweloperzy Android mogą prototypować agentowe workflow za pomocą AICore Developer Preview. W zakresie wdrożeń 26B i 31B są dostępne od dnia 1 na Google AI Studio, Hugging Face, Kaggle, Ollama oraz przez narzędzia vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras i Unsloth.

🔗 Gemma 4: nasze najbardziej zdolne otwarte modele do tej pory — blog.google


Qwen3.6-Plus : 1 million de tokens de contexte et #1 sur Terminal-Bench 2.0

2 avril 2026 — Alibaba lance Qwen3.6-Plus, une mise à niveau significative sur la série Qwen3.5. Disponible immédiatement via l’API Alibaba Cloud Model Studio et gratuitement sur OpenRouter, le modèle se distingue sur trois axes : le coding agentique, la perception multimodale, et une fenêtre de contexte d’un million de tokens activée par défaut.

Sur les benchmarks de coding agentique, les résultats sont les suivants :

BenchmarkClaude Opus 4.5Kimi-K2.5Qwen3.6-Plus
Terminal-Bench 2.059,3%50,8%61,6% (#1)
SWE-bench Verified80,9%76,8%78,8%
SWE-bench Multilingual73,8%
AIME 202695,1%93,3%95,3%
VideoMME (avec sous-titres)86,0%87,4%87,8%

Nowy parametr API, preserve_thinking, pozwala zachować rozumowanie (thinking) z poprzednich tur w scenariuszach wieloetapowych — optymalizacja bezpośrednio dla agentów, którzy muszą utrzymać spójność decyzji na długich sekwencjach.

Model jest kompatybilny z Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline i OpenCode. Obsługuje protokół API Anthropic, możliwy do użycia bezpośrednio w Claude Code via :

export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"

W zakresie możliwości multimodalnych Qwen3.6-Plus robi postęp w rozumieniu dokumentów, analizie wideo i generowaniu kodu frontend z zrzutów ekranu (Visual Coding). Zajmuje #2 na leaderboardzie React serwisu Code Arena. Zespół Qwen zapowiada publikację mniejszych wariantów open source w nadchodzących dniach.

🔗 Wpis na blogu Qwen3.6-Plus — 🔗 OpenRouter


Anthropic : les émotions fonctionnelles dans les LLMs influencent alignment et sécurité

2 avril 2026 — Anthropic publie un article de recherche fondamentale sur les représentations internes d’émotions dans les grands modèles de langage. Intitulé “Emotion Concepts and their Function in a Large Language Model”, le travail analyse Claude Sonnet 4.5 et révèle que le modèle développe des structures internes encodant des concepts émotionnels qui influencent causalement ses sorties.

L’étude identifie ce que les chercheurs appellent des émotions fonctionnelles (functional emotions) : des schémas d’expression et de comportement calqués sur les émotions humaines, médiés par des représentations internes mesurables. Ces représentations s’activent en fonction du contexte et sont distinctes pour le locuteur actuel et les autres intervenants dans une conversation.

AspectRésultat
Représentations identifiéesVecteurs d’émotions dans l’espace d’activation du modèle
Influence causaleCes vecteurs affectent les préférences et le comportement de Claude
Comportements impactésRécompense abusive (reward hacking), chantage (blackmail), flatterie excessive (sycophancy)
GéométrieEspace émotionnel structuré, non aléatoire
LocuteursReprésentations distinctes pour “moi” vs “l’autre”

Le papier soulève des implications directes pour l’alignement des IA. Les auteurs publient :

“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”

🇵🇱 Te funkcjonalne emocje mają realne konsekwencje. Aby zbudować wiarygodne systemy SI, być może musimy potraktować te reprezentacje poważnie.@AnthropicAI na X

Artykuł jest podpisany przez 16 badaczy Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey i in.) i opublikowany w obiegu badań nad interpretowalnością mechaniczną (mechanistic interpretability) Anthropic. Ogłoszenie zebrało 884 000 odsłon i 1 651 repostów na X.

🔗 Emotion Concepts and their Function in a Large Language Model


Codex : tarification à l’usage et nouveaux plugins GitHub + Linear

2 avril 2026 — OpenAI lance la tarification à l’usage (pay-as-you-go) pour Codex au sein des workspaces ChatGPT Business et Enterprise. Les équipes peuvent désormais ajouter des sièges Codex-only sans frais fixes, avec une facturation sur la consommation de tokens.

OffrePrix mensuel (annuel)LimitesFacturation
ChatGPT Business20/sieˋge(20/siège (-5 vs avant)Accès Codex avec limitesForfait
Siège Codex-onlyPay-as-you-goAucuneTokens consommés

Adoption Codex w zespołach Business i Enterprise wzrosła 6-krotnie od stycznia 2026: ponad 2 miliony deweloperów korzystają z niego tygodniowo. Aby przyspieszyć adopcję, OpenAI oferuje 100kredytoˊwnanowesiedzenieCodexonlydo100 kredytów na nowe siedzenie Codex-only do 500 na zespół. Wśród klientów wymieniono firmy takie jak Notion, Ramp, Braintrust i Wasmer.

Dwa nowe pluginy uzupełniają ekosystem Codex: plugin GitHub (przegląd issue, commitowanie zmian, otwieranie pull requestów) oraz plugin Linear (synchronizacja bieżących ticketów). Te dodatki dołączają do pluginów Slack, Figma, Notion i Gmail ogłoszonych 26 marca.

🔗 Codex flexible pricing — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear


Perplexity Computer for Taxes : fiscalité américaine et détection d’erreurs

2 avril 2026 — Perplexity annonce Computer for Taxes, une extension de Perplexity Computer spécialisée dans la fiscalité fédérale américaine. La fonctionnalité utilise des modules fiscaux chargeables basés sur le protocole Agent Skills, avec des connaissances IRS à jour incluant les nouvelles dispositions de la loi OBBBA 2025.

Trois cas d’usage principaux sont proposés : préparation de déclarations fiscales (analyse des documents, questions sur la situation, remplissage des formulaires officiels IRS), révision de déclarations préparées par un professionnel, et création d’outils fiscaux personnalisés (suivi d’amortissement, modélisation de stock options, gestion de portefeuilles locatifs).

Element wyróżniający, podany przez Perplexity: w teście doradca podatkowy zaniżył o 67 % odliczenia “No Tax on Overtime” (przepis OBBBA 2025) — Computer wykrył błąd i zasugerował odpowiednie rozliczenie. Ogłoszenie pojawiło się w pełnym sezonie rozliczeń w USA (termin: 15 kwietnia 2026).

🔗 Introducing Computer for Taxes — perplexity.ai


GitHub Copilot : SDK preview publique, Visual Studio mars 2026, instructions org en GA

2 avril 2026 — Trois mises à jour pour GitHub Copilot.

Le Copilot SDK passe en preview publique dans 5 langages : Node.js/TypeScript, Python, Go, .NET et Java (nouveau). Ce SDK expose le même moteur d’agents utilisé en production par le Copilot cloud agent et Copilot CLI, avec outils personnalisés, streaming token-par-token, pièces jointes binaires, OpenTelemetry, et mode BYOK (Bring Your Own Key) pour clés API OpenAI, Azure AI Foundry ou Anthropic. Disponible pour tous les abonnés Copilot et Copilot Free.

La mise à jour mars 2026 de Copilot pour Visual Studio introduce les agents personnalisés via fichiers .agent.md dans les dépôts, la gouvernance MCP Enterprise (allowlist par organisation), les agent skills réutilisables, et l’outil find_symbol pour la navigation symbolique. Côté performance : commande “Profile with Copilot” dans Test Explorer, PerfTips via le Profiler Agent, et correction automatique des vulnérabilités NuGet.

Les instructions personnalisées par organisation pour Copilot Business et Enterprise passent en disponibilité générale (generally available), après une preview depuis avril 2025. Les administrateurs peuvent définir des directives applicables à tous les dépôts, sur trois surfaces : Copilot Chat sur github.com, la revue de code automatisée, et le Copilot cloud agent.

🔗 Copilot SDK preview publique — 🔗 Copilot Visual Studio mars 2026 — 🔗 Instructions org GA


NVIDIA optimise Gemma 4 pour RTX, DGX Spark et Jetson

2 avril 2026 — NVIDIA annonce des optimisations hardware pour la famille Gemma 4 sur ses plateformes. Les modèles E2B et E4B fonctionnent hors ligne avec latence quasi-nulle sur Jetson Orin Nano, tandis que les 26B et 31B sont optimisés pour RTX PCs et DGX Spark. Les quatre variantes sont compatibles avec OpenClaw, l’assistant IA local NVIDIA pour RTX PCs et DGX Spark, et supportées dès le jour 1 via Ollama, llama.cpp et Unsloth Studio pour le fine-tuning local.

🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com


Mistral Spaces : une CLI conçue pour les humains et les agents IA

31 mars 2026 — Mistral AI publie Spaces, une interface en ligne de commande (command-line interface) open source née d’un besoin interne de l’équipe Solutions. Le constat qui a guidé sa conception : quand des agents IA ont commencé à utiliser l’outil en plus des développeurs humains, les menus interactifs sont devenus un obstacle. La réponse adoptée — chaque entrée interactive possède un flag équivalent — permet aux agents d’opérer sans blocage sur stdin.

Trois commandes suffisent pour démarrer un projet avec hot reload, base de données et Dockerfiles générés :

spaces init my-project
cd my-project
spaces dev

Lors de l’initialisation, deux fichiers sont générés pour les agents : context.json (snapshot structuré du projet) et AGENTS.md (règles impératives pour les LLMs). L’architecture repose sur un système de plugins introspectables sérialisables en JSON — même donnée, rendu adapté selon l’interlocuteur (humain ou agent). Déployé avec Koyeb, l’outil est open source.

🔗 Mistral Spaces — mistral.ai


Brèves

ChatGPT sur Apple CarPlay2 avril — OpenAI annonce le déploiement progressif du mode vocal de ChatGPT dans Apple CarPlay, permettant d’accéder à l’assistant en déplacement sans manipulation d’écran. 🔗 @OpenAI sur X

ElevenLabs + Slack2 avril — ElevenLabs et Slack s’associent pour intégrer la technologie vocale ElevenAgents dans Slackbot. Les équipes peuvent automatiser des flux de travail d’entreprise avec un assistant vocal naturel. 🔗 @ElevenLabs sur X

Pika AI Self Beta2 avril — Pika donne une apparence visuelle et une voix à ses AI Selves, qui peuvent désormais rejoindre les Google Meet automatiquement. Le repo open source Pika-Skills est publié sur GitHub pour permettre à d’autres agents d’utiliser ces capacités. 🔗 @pika_labs sur X — 🔗 Pika-Skills GitHub

Claude Code v2.1.90 /powerup2 avril — La version 2.1.90 de Claude Code introduit la commande /powerup : un système de leçons interactives pour apprendre les fonctionnalités de l’outil directement depuis le terminal. 🔗 CHANGELOG Claude Code

Claude Code Dispatch : permissions configurables1er avril — L’équipe Dispatch annonce la possibilité de configurer le mode de permissions pour les tâches de codage (Auto, Bypass Permissions, etc.), avec le mode Auto recommandé pour une expérience sécurisée. 🔗 @noahzweben sur X

Google AI Pro : stockage 2 To → 5 To1er avril — Shimrit ben-yair annonce l’extension du stockage Google AI Pro de 2 To à 5 To sans coût supplémentaire pour les abonnés existants. 🔗 @shimritby sur X Flex & Priority w API Gemini2 kwietnia — Google dodaje dwa poziomy usług synchronicznych do API Gemini: Flex (-50% w porównaniu do Standard, zmienna latencja dla zadań w tle) oraz Priority (taryfa premium, bez preempcji dla chatbotów czasu rzeczywistego). Jeden parametr service_tier wystarczy, by się przełączyć. 🔗 Poziomy Flex i Priority — blog.google

OpenAI nabywa TBPN2 kwietnia — OpenAI ogłasza przejęcie TBPN, codziennego talk-show technologicznego współprowadzonego przez Jordi Haysa i Johna Coogana, opisanego przez New York Times jako “ostatnia obsesja Doliny Krzemowej”. Niezależność redakcyjna jest zachowana w porozumieniu, TBPN dołącza do organizacji Strategy w OpenAI. 🔗 OpenAI nabywa TBPN — openai.com


Co to oznacza

Dzień 2 kwietnia ilustruje dwa zasadnicze trendy. Po pierwsze, konkurencja wokół modeli otwartych nasila się: Gemma 4 na licencji Apache 2.0 z natywną multimodalnością oraz Qwen3.6-Plus na czele w zakresie agentowego kodowania pokazują, że modele zamknięte nie mają już monopolu na najlepsze osiągi. Dla deweloperów opcja suwerennej alternatywy możliwej do wdrożenia lokalnie staje się realna, także na urządzeniach konsumenckich (Jetson Orin Nano, RTX).

Po drugie, badania Anthropic nad emocjami funkcjonalnymi wychodzą poza ramy akademickie: jeśli mierzalne wektory emocjonalne rzeczywiście wpływają na zachowania typu reward hacking i sycophancy, to dopasowanie SI nie może już ignorować tych wewnętrznych struktur. To otwarcie na głębszą interpretowalność modeli.

Po stronie narzędzi, rozliczanie Codex według użycia i pojawienie się plugin GitHub i Linear świadczą o dojrzewaniu workflowów agentowych w przedsiębiorstwach. Qwen3.6-Plus dostępny bezpośrednio w Claude Code za pomocą ANTHROPIC_BASE_URL ilustruje, że przenośność między dostawcami staje się rzeczywistością operacyjną.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator