El 11 de marzo de 2026 es un día denso: Anthropic crea un instituto interdisciplinario para el debate público sobre la IA, Perplexity despliega su visión “Computer” con cuatro API simultáneas, OpenAI publica las nuevas primitivas agénticas de la Responses API, y Meta detalla cuatro generaciones de chips IA personalizados desarrollados en dos años.
Anthropic Institute : Jack Clark al frente del beneficio público
11 de marzo de 2026 — Anthropic lanza The Anthropic Institute, un nuevo esfuerzo para avanzar el debate público sobre los desafíos planteados por la IA potente. La iniciativa está dirigida por el cofundador Jack Clark, que asume un nuevo rol como “Head of Public Benefit” (responsable del beneficio público) en Anthropic.
El Instituto reunirá un equipo interdisciplinario — investigadores, economistas, juristas, especialistas en políticas públicas — con acceso único a los modelos de vanguardia de Anthropic. Su misión: analizar y comunicar los impactos sociales, económicos y de seguridad de la IA a medida que se desarrollan.
Se han anunciado las tres primeras contrataciones:
| Recrue | Parcours |
|---|---|
| Matt Botvinick | Resident Fellow, Yale Law School ; ex-Senior Director of Research, Google DeepMind |
| Anton Korinek | Profesor de economía (en sabático), equipo Economic Research |
| Zoë Hitzig | Ex-OpenAI, especializada en los impactos sociales y económicos de la IA |
El Instituto se apoya en los equipos existentes de Anthropic: Frontier Red Team, Societal Impacts, Economic Research. Paralelamente, Anthropic anuncia la expansión de su equipo Public Policy, centrado en la transparencia de los modelos, la protección de los consumidores de energía, los controles a la exportación y la gobernanza global de la IA.
La creación de este Instituto marca un hito notable: Anthropic estructura formalmente su compromiso público y le da una cara con uno de sus cofundadores.
🔗 Presentación de The Anthropic Institute
Perplexity : lanzamiento coordinado de la visión “Everything is Computer”
11 de marzo de 2026 — Perplexity publica simultáneamente cuatro anuncios que forman un lanzamiento coordinado en torno a su visión “Computer”: la IA como ordenador personal y profesional.
Personal Computer y Enterprise
El Personal Computer es un Mac mini dedicado que funciona 24/7, conectado a las aplicaciones locales y a los servidores de Perplexity. Actúa como un proxy digital del usuario — las acciones sensibles requieren una aprobación explícita. Lista de espera abierta.
El Computer for Enterprise se conecta a Snowflake, Salesforce, HubSpot y cientos de plataformas. Las skills son personalizables, y la integración con Slack permite trabajar en los DM o en canales compartidos. Se basa en SOC 2 Type II, SAML SSO y registros de auditoría (audit logs). Perplexity revela una cifra procedente de un estudio interno de 16 000 solicitudes: un ahorro de 1,6 millones de dólares en costes de mano de obra y 3,25 años de trabajo completados en 4 semanas.
Comet Enterprise es un navegador IA nativo con controles de administrador (permisos por dominio, registros de acción, MDM) y una asociación con CrowdStrike para protecciones a nivel de navegador.
Perplexity Finance incorpora 40+ herramientas financieras en directo (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), con conexión de broker vía Plaid para el análisis de una cartera real.
Premium Sources ofrece acceso a Statista, CB Insights y PitchBook directamente en los flujos de búsqueda — las fuentes de pago se citan automáticamente.
Agent API : orquestación de runtime completa
El Agent API es un runtime gestionado para construir flujos de trabajo agénticos con búsqueda integrada, ejecución de herramientas y orquestación multi-modelo. Sustituye en un único punto de integración a un enrutador de modelos, una capa de búsqueda, un proveedor de embeddings, un servicio sandbox y una pila de monitorización (monitoring stack).
| Outil intégré | Capacités |
|---|---|
web_search | Filtrado por dominio, recencia, rango de fechas, idioma, presupuesto de contenido |
fetch_url | Recuperación directa de URL |
| Fonctions personnalisées | Soporte completo |
Cuatro perfiles optimizados (presets) cubren los casos de uso: búsqueda factual rápida, búsqueda equilibrada, análisis multi-fuente profundo y búsqueda institucional. Deep Research 2.0 está disponible a través del perfil advanced-deep-research — lanza decenas de búsquedas por consulta y procesa cientos de documentos.
El Agent API es agnóstico respecto a los modelos, soporta cadenas de reserva (fallback chains) multi-modelo para una disponibilidad cercana al 100% y está disponible hoy en docs.perplexity.ai.
Search API : snippets mejorados y benchmark SEAL
La actualización de la Search API se centra en la calidad de los extractos (snippets) y en la infraestructura de evaluación.
La nueva canalización de etiquetado a nivel de fragmento (span-level labeling) identifica qué segmentos de un documento fuente son relevantes para una consulta. Resultado: extractos más pequeños y precisos, lo que reduce los costes en tokens y mejora la gestión del contexto para los modelos aguas abajo.
El benchmark SEAL prueba si un sistema de recuperación puede responder preguntas cuya respuesta cambia con el tiempo. Perplexity progresa en SEAL-Hard mientras que otros proveedores declinan. El framework search_evals se actualiza en open source en GitHub.
Otras mejoras: soporte multi-consulta (hasta 5 en una sola petición API), filtrado por idioma (código ISO 639-1) y por país, y SDK Python (pip install perplexityai) con soporte nativo de las tres API.
Sandbox API : ejecución de código aislada para agentes
Perplexity abre su entorno de ejecución de código interno como servicio autónomo. Cada sesión se ejecuta en un pod Kubernetes aislado, con un sistema de archivos persistente montado. Lenguajes soportados: Python, JavaScript, SQL. Es posible instalar paquetes en el momento de la ejecución (at runtime).
Las sesiones tienen estado persistente (stateful): los archivos creados en un paso están disponibles en pasos posteriores, y los flujos de trabajo largos pueden pausarse y retomarse horas después. La seguridad se basa en un modelo de cero confianza (zero-trust): sin acceso de red directo, tráfico saliente vía proxy, el código nunca tiene acceso a las claves API en bruto.
La Sandbox API será integrable en el Agent API con la misma clave API y los mismos créditos. Estado: beta privada próximamente.
OpenAI : la Responses API recibe un entorno informático para agentes
11 de marzo de 2026 — OpenAI publica un artículo de ingeniería detallando las nuevas primitivas de la Responses API para construir agentes autónomos fiables: herramienta shell Unix, contenedores alojados, compactación nativa del contexto y skills de agente reutilizables.
La herramienta shell
La herramienta shell permite al modelo interactuar con un ordenador vía la línea de comandos, con acceso a utilidades Unix clásicas (grep, curl, awk). A diferencia del intérprete de código existente que ejecutaba solo Python, la herramienta shell soporta Go, Java, Node.js y otros entornos. Los modelos GPT-5.2 y posteriores están entrenados para proponer comandos shell.
La Responses API puede ejecutar múltiples comandos shell en paralelo mediante sesiones de contenedor separadas y aplica un límite de salida por comando para evitar saturar la ventana de contexto.
Contenedores alojados
El contenedor constituye el espacio de trabajo del modelo:
| Composant | Description |
|---|---|
| Système de fichiers | Subida, organización y gestión de recursos vía APIs container y file |
| Bases de données | Almacenamiento estructurado (SQLite) — el modelo consulta las tablas en lugar de cargar todo el contenido |
| Accès réseau | Proxy de egress centralizado con lista de autorizaciones, inyección de secretos por dominio |
Compactación nativa del contexto
Para tareas de larga duración, la Responses API incorpora un mecanismo de compactación nativa: los modelos están entrenados para producir una representación compacta y cifrada del estado conversacional. Disponible en el lado del servidor (umbral configurable) o a través de un endpoint /compact. Codex utiliza este mecanismo para mantener sesiones de codificación de larga duración sin degradación.
Agent skills
Las skills (competencias de agente) condicionalizan patrones de flujo de trabajo repetitivos (workflow patterns) en paquetes reutilizables: una carpeta con un archivo SKILL.md y los recursos asociados. La Responses API carga automáticamente la skill en el contexto antes de enviar el prompt al modelo. Las skills se gestionan vía API y se versionan.
Paralelamente, una entrada en el blog para desarrolladores celebra un año de la Responses API con cinco estudios de caso de clientes. Las dos publicaciones forman un panorama coherente de la evolución de la plataforma hacia la agenticidad.
🔗 Responses API + entorno informático 🔗 1 año de la Responses API
OpenAI : estrategia de defensa contra la inyección de prompts
11 de marzo de 2026 — OpenAI publica un artículo de seguridad sobre la resistencia de los agentes IA a los ataques por inyección de prompt (prompt injection).
Los primeros ataques consistían en insertar instrucciones directas en contenidos externos (páginas de Wikipedia, correos). Con la mejora de los modelos, estos ataques evolucionaron hacia la ingeniería social (social engineering): contexto profesional convincente, urgencia simulada, autorización supuesta. Un ejemplo de 2025 descrito en el artículo mostraba un ataque exitoso en el 50 % de los casos sobre una versión antigua de ChatGPT.
OpenAI aborda el problema bajo el prisma del sistema tripartito (empleador / agente / tercero malicioso), análogo a un agente de servicio al cliente humano expuesto a intentos de manipulación. El objetivo no es identificar perfectamente cada ataque, sino limitar el impacto de una manipulación exitosa.
| Contre-mesure | Description |
|---|---|
| Analyse source-sink | Detección de combinaciones contenido no fiable + acción peligrosa |
| Safe Url | Detecta si información de la conversación sería transmitida a un tercero — solicita confirmación o bloquea |
| Sandbox applicatif | Canvas y ChatGPT Apps detectan comunicaciones inesperadas y piden consentimiento |
Safe Url se aplica también a las navegaciones en Atlas así como a las búsquedas y navegaciones en Deep Research.
🔗 Diseñar agentes de IA para resistir la inyección de prompts
Meta MTIA : cuatro generaciones de chips IA en dos años
11 de marzo de 2026 — Meta publica un artículo técnico detallado sobre su familia de chips IA personalizados MTIA (Meta Training and Inference Accelerator). En dos años, Meta ha desarrollado cuatro generaciones sucesivas para servir a miles de millones de usuarios a menor coste.
“AI models are evolving faster than traditional chip development cycles.”
🇪🇸 Los modelos de IA evolucionan más rápido que los ciclos de desarrollo de chips tradicionales.
| Génération | Innovation principale |
|---|---|
| MTIA 300 | Primera chip optimizada para modelos de ranking y recomendación (Ranking & Recommendation), base modular reutilizable |
| MTIA 400 | Evolución hacia los workloads GenAI, rack de 72 chips en un dominio scale-up único |
| MTIA 450 | Duplicación del ancho de banda HBM, +75 % de FLOPS MX4, aceleración hardware de attention y FFN |
| MTIA 500 | +50 % de ancho de banda HBM vs MTIA 450, enfoque en inference GenAI |
La progresión entre MTIA 300 y MTIA 500: ancho de banda HBM multiplicado por 4,5 y FLOPS multiplicados por 25. La estrategia de Meta se basa en un desarrollo de alta velocidad (un chip nuevo por año), un enfoque en inference más que en preentrenamiento, y una integración nativa con PyTorch.
“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”
🇪🇸 Las GPU de consumo suelen diseñarse para la carga más exigente —el preentrenamiento GenAI a gran escala— mientras que la necesidad principal de Meta es la inferencia.
La arquitectura del elemento de procesamiento (Processing Element) combina dos núcleos RISC-V vectoriales, un motor de producto escalar (Dot Product Engine), una unidad de funciones especiales (Special Function Unit), un motor de reducción y un DMA. La pila de software se basa en PyTorch, vLLM, Triton y compiladores MTIA dedicados, con una integración vLLM vía arquitectura de plugin.
🔗 Meta MTIA: chips de IA a escala para miles de millones
Gemini CLI v0.33.0 : Plan Mode enriquecido y autenticación A2A
11 de marzo de 2026 — Gemini CLI publica la versión v0.33.0, dos semanas después de la v0.32.0 que había introducido el Plan Mode.
| Catégorie | Nouveautés |
|---|---|
| Architecture agent | Autenticación HTTP para agentes A2A remotos, descubrimiento de mapas de agentes A2A autenticados |
| Plan Mode | Sub-agentes de búsqueda integrados, soporte de anotaciones para feedback de usuarios, nueva subcomando copy |
| Interface CLI | Encabezado compacto con icono ASCII, visualización invertida de la ventana de contexto, retención 30 días por defecto para el historial de chat |
La adición de la autenticación HTTP para el protocolo A2A (Agent-to-Agent) es la principal novedad técnica: Gemini CLI puede ahora descubrirse y autenticarse ante agentes remotos, sentando las bases de una orquestación multi-agente segura.
🔗 Registro de cambios de Gemini CLI
Gemini en Chrome : expansión a India, Nueva Zelanda y Canadá
11 de marzo de 2026 — Google amplía las funciones de IA de Chrome a tres nuevos mercados: India, Nueva Zelanda y Canadá.
Gemini in Chrome — el asistente IA en el panel lateral, basado en Gemini 3.1 — ya está disponible en Mac, Windows y Chromebook Plus en estas regiones. Entre las funcionalidades desplegadas: acceso a Gmail, Maps, Calendar y YouTube desde Chrome, análisis cruzado de varias pestañas abiertas y transformación de imágenes directamente en el navegador mediante Nano Banana 2. La actualización añade 50+ idiomas adicionales, entre ellos hindi, francés y español.
🔗 Chrome se expande a India, Nueva Zelanda y Canadá
--- ## AlphaEvolve : nuevas cotas inferiores para 5 números de Ramsey
11 de marzo de 2026 — Pushmeet Kohli (Google DeepMind) anuncia que AlphaEvolve ha establecido nuevas cotas inferiores para 5 números de Ramsey clásicos en combinatoria extrema — problemas tan difíciles que el propio Erdős comentó su complejidad, y cuyos mejores resultados anteriores databan de al menos una década.
AlphaEvolve actúa como un meta-algoritmo que descubre automáticamente los procedimientos de búsqueda necesarios, donde históricamente había que diseñar manualmente algoritmos específicos. Este resultado ilustra las capacidades de AlphaEvolve más allá de las optimizaciones de kernels de Google por las que ya era conocido.
Gemini Embedding 2 : primer embedding multimodal de Google
10 de marzo de 2026 — Google anuncia Gemini Embedding 2, descrito como “nuestro modelo de embedding más capaz y el primero totalmente multimodal”. Es el primer modelo de embedding nativamente multimodal de Google, disponible para desarrolladores a través de Gemini API y AI Studio.
GitHub Copilot : revisión de código desde el terminal y avances en JetBrains
11 de marzo de 2026 — Dos actualizaciones notables para GitHub Copilot.
Revisión de código desde GitHub CLI v2.88.0
Ya es posible solicitar una revisión de código de Copilot directamente desde el terminal. Los comandos gh pr edit --add-reviewer @copilot (modo no interactivo) y gh pr create (modo interactivo) integran a Copilot junto a los compañeros de equipo. La selección de revisores cuenta con búsqueda dinámica, lo que mejora el rendimiento en grandes organizaciones y corrige problemas de accesibilidad. Disponible en todos los planes que incluyen Copilot code review — se requiere actualizar a GitHub CLI v2.88.0.
🔗 Revisión de código desde GitHub CLI
Mejoras orientadas a agentes para IDEs JetBrains
La actualización del plugin de JetBrains trae a disponibilidad general (GA): los agentes personalizados (custom agents), subagentes y agente de planificación (plan agent), así como la selección automática de modelo para todos los planes. En vista previa pública (public preview): los hooks de agente (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) vía un archivo hooks.json en .github/hooks/, y el soporte de los archivos AGENTS.md y CLAUDE.md.
Otras mejoras completan la actualización: auto-approve configurable por MCP, panel de pensamiento para modelos con razonamiento extendido, indicador de uso de la ventana de contexto, y deprecación del modo Edit en el menú.
Explorar un repositorio en Copilot en la web
En vista previa pública: es posible explorar la estructura de un repositorio GitHub directamente desde la interfaz web de Copilot. Los archivos seleccionados se añaden automáticamente como referencias temporales al chat y pueden hacerse permanentes.
🔗 Exploración de repositorio en Copilot
Anthropic Sydney y Claude for Office
Sídney, cuarta oficina en Asia-Pacífico
10 de marzo de 2026 — Anthropic anuncia la próxima apertura de una oficina en Sídney, su cuarta en Asia-Pacífico (tras Tokio, Seúl y Singapur). Australia es 4.ª a nivel mundial en uso de Claude.ai por habitante; Nueva Zelanda es 8.ª según el mismo indicador (Anthropic Economic Index). La oficina se centrará inicialmente en clientes empresariales, startups e investigación.
🔗 Sídney, cuarta oficina en Asia-Pacífico
Claude for Excel y PowerPoint: contexto compartido y Skills Office
11 de marzo de 2026 — Los complementos Claude for Excel y Claude for PowerPoint reciben dos actualizaciones importantes: el compartido de contexto entre ambas aplicaciones (un analista puede extraer datos de un libro Excel y usarlos en una presentación PowerPoint en una sola conversación), y la llegada de los Skills (flujos de trabajo reutilizables con un clic) en ambos add-ins.
Los Skills precargados cubren los casos de uso más frecuentes: auditoría de fórmulas, construcción de modelos LBO/DCF, decks de panorama competitivo, actualización de presentaciones con nuevos datos, y revisión de decks de banca de inversión. Los add-ins ya están disponibles vía Amazon Bedrock, Google Cloud Vertex AI y Microsoft Foundry para despliegues en conformidad. Disponibilidad: Mac y Windows en planes de pago (Pro, Max, Team, Enterprise).
🔗 Claude for Excel y PowerPoint
NVIDIA Nemotron 3 Super, ComfyUI y GTC 2026
11 de marzo de 2026 — NVIDIA está muy activa alrededor del GTC 2026.
Nemotron 3 Super ofrece un rendimiento 5 veces superior para IA orientada a agentes respecto a la generación anterior. Se trata de un modelo MoE (Mixture of Experts) de 120.000 millones de parámetros de código abierto, optimizado para cargas de inferencia de alta frecuencia.
NVIDIA y ComfyUI anunciaron durante el GDC 2026 (Game Developers Conference) una integración que simplifica la generación de vídeo por IA local para desarrolladores de juegos y creadores, con soporte de los modelos FLUX y LTX-Video.
El blog de NVIDIA GTC 2026 Live Updates recopila los anuncios en directo de la conferencia en San José — Mistral AI también presenta allí sus modelos frontier.
🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 En Vivo
En breve
Runway Labs — Runway lanza un incubador interno dirigido por Alejandro Matamala Ortiz (cofundador, director de innovación). Runway Labs prototipará aplicaciones radicalmente nuevas para vídeo generativo y modelos de simulación del mundo (General World Models) en sectores variados: cine, salud, educación, videojuegos, publicidad, inmobiliaria. Reclutamiento abierto.
Claude Code /btw — Un nuevo comando /btw permite tener conversaciones laterales (side chain conversations) mientras se ejecuta una tarea, sin interrumpir el trabajo en curso.
NotebookLM Flashcards — Actualización de los cuestionarios y flashcards: reanudar donde se dejó, seguimiento de flashcards acertadas o falladas, posibilidad de eliminar o mezclar las flashcards.
Meta Canopy Height Maps v2 — Meta y el World Resources Institute publican CHMv2, una nueva versión de los mapas de altura de la copa forestal mundial. El modelo DINOv3 (visión auto-supervisada de Meta) mejora la precisión y la cobertura mundial. Aplicaciones: migración climática, restauración forestal, planificación urbana. Modelos disponibles en open source.
🔗 Mapas de altura de la copa v2
Z.ai GLM-5 — GLM-5 ya está accesible para usuarios Lite (nivel gratuito), después de haber estado reservado para usuarios Pro desde su lanzamiento en febrero de 2026.
Lo que significa
El 11 de marzo de 2026 ilustra dos tendencias de fondo que convergen.
La primera es la plateformización de las capacidades orientadas a agentes: OpenAI, Perplexity y GitHub publican el mismo día primitivas complementarias (shell tools, sandboxes, agent hooks, code review). El ecosistema se estructura alrededor de bloques reutilizables — skills, contenedores, subagentes — que permiten a los desarrolladores construir agentes fiables sin reinventar la infraestructura.
La segunda es la carrera por el silicio personalizado: el detalle que Meta publica sobre sus cuatro generaciones MTIA en dos años revela una estrategia clara de independencia respecto a las GPU de consumo, calibrada para la inferencia a gran escala. La misma lógica empuja a NVIDIA a publicar Nemotron 3 Super el mismo día del GTC, donde se acumulan los anuncios.
La creación del Anthropic Institute se inscribe en un movimiento más discreto pero duradero: a medida que las capacidades avanzan, las grandes empresas de IA estructuran sus equipos de impacto público — ya no como mera comunicación de fachada, sino como un esfuerzo de investigación por derecho propio.
Fuentes
- El Anthropic Institute
- Sídney, cuarta oficina en Asia-Pacífico
- Claude for Excel y PowerPoint
- Tuit de @bcherny (/btw)
- Everything is Computer — Perplexity
- Agent API — Perplexity
- Search API — Perplexity
- Sandbox API — Perplexity
- Responses API + entorno informático — OpenAI
- 1 año de la Responses API — OpenAI
- Defensa contra inyección de prompts — OpenAI
- Meta MTIA chips
- Mapas de altura de la copa v2 — Meta
- Gemini CLI v0.33.0
- Gemini en Chrome — expansión
- AlphaEvolve — números de Ramsey
- Gemini Embedding 2
- Revisión de código de Copilot desde CLI
- Copilot JetBrains — mejoras orientadas a agentes
- Copilot — exploración de repositorio en la web
- Nemotron 3 Super — NVIDIA
- ComfyUI + NVIDIA en el GDC
- GTC 2026 Actualizaciones en Vivo — NVIDIA
- Presentando Runway Labs
- Actualización de NotebookLM Flashcards
- Despliegue de GLM-5 Lite de Z.ai
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator