Buscar

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11 de marzo de 2026

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11 de marzo de 2026

El 11 de marzo de 2026 es un día denso: Anthropic crea un instituto interdisciplinario para el debate público sobre la IA, Perplexity despliega su visión “Computer” con cuatro API simultáneas, OpenAI publica las nuevas primitivas agénticas de la Responses API, y Meta detalla cuatro generaciones de chips IA personalizados desarrollados en dos años.


Anthropic Institute : Jack Clark al frente del beneficio público

11 de marzo de 2026 — Anthropic lanza The Anthropic Institute, un nuevo esfuerzo para avanzar el debate público sobre los desafíos planteados por la IA potente. La iniciativa está dirigida por el cofundador Jack Clark, que asume un nuevo rol como “Head of Public Benefit” (responsable del beneficio público) en Anthropic.

El Instituto reunirá un equipo interdisciplinario — investigadores, economistas, juristas, especialistas en políticas públicas — con acceso único a los modelos de vanguardia de Anthropic. Su misión: analizar y comunicar los impactos sociales, económicos y de seguridad de la IA a medida que se desarrollan.

Se han anunciado las tres primeras contrataciones:

RecrueParcours
Matt BotvinickResident Fellow, Yale Law School ; ex-Senior Director of Research, Google DeepMind
Anton KorinekProfesor de economía (en sabático), equipo Economic Research
Zoë HitzigEx-OpenAI, especializada en los impactos sociales y económicos de la IA

El Instituto se apoya en los equipos existentes de Anthropic: Frontier Red Team, Societal Impacts, Economic Research. Paralelamente, Anthropic anuncia la expansión de su equipo Public Policy, centrado en la transparencia de los modelos, la protección de los consumidores de energía, los controles a la exportación y la gobernanza global de la IA.

La creación de este Instituto marca un hito notable: Anthropic estructura formalmente su compromiso público y le da una cara con uno de sus cofundadores.

🔗 Presentación de The Anthropic Institute


Perplexity : lanzamiento coordinado de la visión “Everything is Computer”

11 de marzo de 2026 — Perplexity publica simultáneamente cuatro anuncios que forman un lanzamiento coordinado en torno a su visión “Computer”: la IA como ordenador personal y profesional.

Personal Computer y Enterprise

El Personal Computer es un Mac mini dedicado que funciona 24/7, conectado a las aplicaciones locales y a los servidores de Perplexity. Actúa como un proxy digital del usuario — las acciones sensibles requieren una aprobación explícita. Lista de espera abierta.

El Computer for Enterprise se conecta a Snowflake, Salesforce, HubSpot y cientos de plataformas. Las skills son personalizables, y la integración con Slack permite trabajar en los DM o en canales compartidos. Se basa en SOC 2 Type II, SAML SSO y registros de auditoría (audit logs). Perplexity revela una cifra procedente de un estudio interno de 16 000 solicitudes: un ahorro de 1,6 millones de dólares en costes de mano de obra y 3,25 años de trabajo completados en 4 semanas.

Comet Enterprise es un navegador IA nativo con controles de administrador (permisos por dominio, registros de acción, MDM) y una asociación con CrowdStrike para protecciones a nivel de navegador.

Perplexity Finance incorpora 40+ herramientas financieras en directo (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), con conexión de broker vía Plaid para el análisis de una cartera real.

Premium Sources ofrece acceso a Statista, CB Insights y PitchBook directamente en los flujos de búsqueda — las fuentes de pago se citan automáticamente.

🔗 Everything is Computer

Agent API : orquestación de runtime completa

El Agent API es un runtime gestionado para construir flujos de trabajo agénticos con búsqueda integrada, ejecución de herramientas y orquestación multi-modelo. Sustituye en un único punto de integración a un enrutador de modelos, una capa de búsqueda, un proveedor de embeddings, un servicio sandbox y una pila de monitorización (monitoring stack).

Outil intégréCapacités
web_searchFiltrado por dominio, recencia, rango de fechas, idioma, presupuesto de contenido
fetch_urlRecuperación directa de URL
Fonctions personnaliséesSoporte completo

Cuatro perfiles optimizados (presets) cubren los casos de uso: búsqueda factual rápida, búsqueda equilibrada, análisis multi-fuente profundo y búsqueda institucional. Deep Research 2.0 está disponible a través del perfil advanced-deep-research — lanza decenas de búsquedas por consulta y procesa cientos de documentos.

El Agent API es agnóstico respecto a los modelos, soporta cadenas de reserva (fallback chains) multi-modelo para una disponibilidad cercana al 100% y está disponible hoy en docs.perplexity.ai.

🔗 Agent API

Search API : snippets mejorados y benchmark SEAL

La actualización de la Search API se centra en la calidad de los extractos (snippets) y en la infraestructura de evaluación.

La nueva canalización de etiquetado a nivel de fragmento (span-level labeling) identifica qué segmentos de un documento fuente son relevantes para una consulta. Resultado: extractos más pequeños y precisos, lo que reduce los costes en tokens y mejora la gestión del contexto para los modelos aguas abajo.

El benchmark SEAL prueba si un sistema de recuperación puede responder preguntas cuya respuesta cambia con el tiempo. Perplexity progresa en SEAL-Hard mientras que otros proveedores declinan. El framework search_evals se actualiza en open source en GitHub.

Otras mejoras: soporte multi-consulta (hasta 5 en una sola petición API), filtrado por idioma (código ISO 639-1) y por país, y SDK Python (pip install perplexityai) con soporte nativo de las tres API.

🔗 Actualización de Search API

Sandbox API : ejecución de código aislada para agentes

Perplexity abre su entorno de ejecución de código interno como servicio autónomo. Cada sesión se ejecuta en un pod Kubernetes aislado, con un sistema de archivos persistente montado. Lenguajes soportados: Python, JavaScript, SQL. Es posible instalar paquetes en el momento de la ejecución (at runtime).

Las sesiones tienen estado persistente (stateful): los archivos creados en un paso están disponibles en pasos posteriores, y los flujos de trabajo largos pueden pausarse y retomarse horas después. La seguridad se basa en un modelo de cero confianza (zero-trust): sin acceso de red directo, tráfico saliente vía proxy, el código nunca tiene acceso a las claves API en bruto.

La Sandbox API será integrable en el Agent API con la misma clave API y los mismos créditos. Estado: beta privada próximamente.

🔗 Sandbox API


OpenAI : la Responses API recibe un entorno informático para agentes

11 de marzo de 2026 — OpenAI publica un artículo de ingeniería detallando las nuevas primitivas de la Responses API para construir agentes autónomos fiables: herramienta shell Unix, contenedores alojados, compactación nativa del contexto y skills de agente reutilizables.

La herramienta shell

La herramienta shell permite al modelo interactuar con un ordenador vía la línea de comandos, con acceso a utilidades Unix clásicas (grep, curl, awk). A diferencia del intérprete de código existente que ejecutaba solo Python, la herramienta shell soporta Go, Java, Node.js y otros entornos. Los modelos GPT-5.2 y posteriores están entrenados para proponer comandos shell.

La Responses API puede ejecutar múltiples comandos shell en paralelo mediante sesiones de contenedor separadas y aplica un límite de salida por comando para evitar saturar la ventana de contexto.

Contenedores alojados

El contenedor constituye el espacio de trabajo del modelo:

ComposantDescription
Système de fichiersSubida, organización y gestión de recursos vía APIs container y file
Bases de donnéesAlmacenamiento estructurado (SQLite) — el modelo consulta las tablas en lugar de cargar todo el contenido
Accès réseauProxy de egress centralizado con lista de autorizaciones, inyección de secretos por dominio

Compactación nativa del contexto

Para tareas de larga duración, la Responses API incorpora un mecanismo de compactación nativa: los modelos están entrenados para producir una representación compacta y cifrada del estado conversacional. Disponible en el lado del servidor (umbral configurable) o a través de un endpoint /compact. Codex utiliza este mecanismo para mantener sesiones de codificación de larga duración sin degradación.

Agent skills

Las skills (competencias de agente) condicionalizan patrones de flujo de trabajo repetitivos (workflow patterns) en paquetes reutilizables: una carpeta con un archivo SKILL.md y los recursos asociados. La Responses API carga automáticamente la skill en el contexto antes de enviar el prompt al modelo. Las skills se gestionan vía API y se versionan.

Paralelamente, una entrada en el blog para desarrolladores celebra un año de la Responses API con cinco estudios de caso de clientes. Las dos publicaciones forman un panorama coherente de la evolución de la plataforma hacia la agenticidad.

🔗 Responses API + entorno informático 🔗 1 año de la Responses API


OpenAI : estrategia de defensa contra la inyección de prompts

11 de marzo de 2026 — OpenAI publica un artículo de seguridad sobre la resistencia de los agentes IA a los ataques por inyección de prompt (prompt injection).

Los primeros ataques consistían en insertar instrucciones directas en contenidos externos (páginas de Wikipedia, correos). Con la mejora de los modelos, estos ataques evolucionaron hacia la ingeniería social (social engineering): contexto profesional convincente, urgencia simulada, autorización supuesta. Un ejemplo de 2025 descrito en el artículo mostraba un ataque exitoso en el 50 % de los casos sobre una versión antigua de ChatGPT.

OpenAI aborda el problema bajo el prisma del sistema tripartito (empleador / agente / tercero malicioso), análogo a un agente de servicio al cliente humano expuesto a intentos de manipulación. El objetivo no es identificar perfectamente cada ataque, sino limitar el impacto de una manipulación exitosa.

Contre-mesureDescription
Analyse source-sinkDetección de combinaciones contenido no fiable + acción peligrosa
Safe UrlDetecta si información de la conversación sería transmitida a un tercero — solicita confirmación o bloquea
Sandbox applicatifCanvas y ChatGPT Apps detectan comunicaciones inesperadas y piden consentimiento

Safe Url se aplica también a las navegaciones en Atlas así como a las búsquedas y navegaciones en Deep Research.

🔗 Diseñar agentes de IA para resistir la inyección de prompts


Meta MTIA : cuatro generaciones de chips IA en dos años

11 de marzo de 2026 — Meta publica un artículo técnico detallado sobre su familia de chips IA personalizados MTIA (Meta Training and Inference Accelerator). En dos años, Meta ha desarrollado cuatro generaciones sucesivas para servir a miles de millones de usuarios a menor coste.

“AI models are evolving faster than traditional chip development cycles.”

🇪🇸 Los modelos de IA evolucionan más rápido que los ciclos de desarrollo de chips tradicionales.

GénérationInnovation principale
MTIA 300Primera chip optimizada para modelos de ranking y recomendación (Ranking & Recommendation), base modular reutilizable
MTIA 400Evolución hacia los workloads GenAI, rack de 72 chips en un dominio scale-up único
MTIA 450Duplicación del ancho de banda HBM, +75 % de FLOPS MX4, aceleración hardware de attention y FFN
MTIA 500+50 % de ancho de banda HBM vs MTIA 450, enfoque en inference GenAI

La progresión entre MTIA 300 y MTIA 500: ancho de banda HBM multiplicado por 4,5 y FLOPS multiplicados por 25. La estrategia de Meta se basa en un desarrollo de alta velocidad (un chip nuevo por año), un enfoque en inference más que en preentrenamiento, y una integración nativa con PyTorch.

“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”

🇪🇸 Las GPU de consumo suelen diseñarse para la carga más exigente —el preentrenamiento GenAI a gran escala— mientras que la necesidad principal de Meta es la inferencia.

La arquitectura del elemento de procesamiento (Processing Element) combina dos núcleos RISC-V vectoriales, un motor de producto escalar (Dot Product Engine), una unidad de funciones especiales (Special Function Unit), un motor de reducción y un DMA. La pila de software se basa en PyTorch, vLLM, Triton y compiladores MTIA dedicados, con una integración vLLM vía arquitectura de plugin.

🔗 Meta MTIA: chips de IA a escala para miles de millones


Gemini CLI v0.33.0 : Plan Mode enriquecido y autenticación A2A

11 de marzo de 2026 — Gemini CLI publica la versión v0.33.0, dos semanas después de la v0.32.0 que había introducido el Plan Mode.

CatégorieNouveautés
Architecture agentAutenticación HTTP para agentes A2A remotos, descubrimiento de mapas de agentes A2A autenticados
Plan ModeSub-agentes de búsqueda integrados, soporte de anotaciones para feedback de usuarios, nueva subcomando copy
Interface CLIEncabezado compacto con icono ASCII, visualización invertida de la ventana de contexto, retención 30 días por defecto para el historial de chat

La adición de la autenticación HTTP para el protocolo A2A (Agent-to-Agent) es la principal novedad técnica: Gemini CLI puede ahora descubrirse y autenticarse ante agentes remotos, sentando las bases de una orquestación multi-agente segura.

🔗 Registro de cambios de Gemini CLI


Gemini en Chrome : expansión a India, Nueva Zelanda y Canadá

11 de marzo de 2026 — Google amplía las funciones de IA de Chrome a tres nuevos mercados: India, Nueva Zelanda y Canadá.

Gemini in Chrome — el asistente IA en el panel lateral, basado en Gemini 3.1 — ya está disponible en Mac, Windows y Chromebook Plus en estas regiones. Entre las funcionalidades desplegadas: acceso a Gmail, Maps, Calendar y YouTube desde Chrome, análisis cruzado de varias pestañas abiertas y transformación de imágenes directamente en el navegador mediante Nano Banana 2. La actualización añade 50+ idiomas adicionales, entre ellos hindi, francés y español.

🔗 Chrome se expande a India, Nueva Zelanda y Canadá

--- ## AlphaEvolve : nuevas cotas inferiores para 5 números de Ramsey

11 de marzo de 2026 — Pushmeet Kohli (Google DeepMind) anuncia que AlphaEvolve ha establecido nuevas cotas inferiores para 5 números de Ramsey clásicos en combinatoria extrema — problemas tan difíciles que el propio Erdős comentó su complejidad, y cuyos mejores resultados anteriores databan de al menos una década.

AlphaEvolve actúa como un meta-algoritmo que descubre automáticamente los procedimientos de búsqueda necesarios, donde históricamente había que diseñar manualmente algoritmos específicos. Este resultado ilustra las capacidades de AlphaEvolve más allá de las optimizaciones de kernels de Google por las que ya era conocido.

🔗 Tuit de Pushmeet Kohli


Gemini Embedding 2 : primer embedding multimodal de Google

10 de marzo de 2026 — Google anuncia Gemini Embedding 2, descrito como “nuestro modelo de embedding más capaz y el primero totalmente multimodal”. Es el primer modelo de embedding nativamente multimodal de Google, disponible para desarrolladores a través de Gemini API y AI Studio.

🔗 Tuit de @googleaidevs


GitHub Copilot : revisión de código desde el terminal y avances en JetBrains

11 de marzo de 2026 — Dos actualizaciones notables para GitHub Copilot.

Revisión de código desde GitHub CLI v2.88.0

Ya es posible solicitar una revisión de código de Copilot directamente desde el terminal. Los comandos gh pr edit --add-reviewer @copilot (modo no interactivo) y gh pr create (modo interactivo) integran a Copilot junto a los compañeros de equipo. La selección de revisores cuenta con búsqueda dinámica, lo que mejora el rendimiento en grandes organizaciones y corrige problemas de accesibilidad. Disponible en todos los planes que incluyen Copilot code review — se requiere actualizar a GitHub CLI v2.88.0.

🔗 Revisión de código desde GitHub CLI

Mejoras orientadas a agentes para IDEs JetBrains

La actualización del plugin de JetBrains trae a disponibilidad general (GA): los agentes personalizados (custom agents), subagentes y agente de planificación (plan agent), así como la selección automática de modelo para todos los planes. En vista previa pública (public preview): los hooks de agente (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) vía un archivo hooks.json en .github/hooks/, y el soporte de los archivos AGENTS.md y CLAUDE.md.

Otras mejoras completan la actualización: auto-approve configurable por MCP, panel de pensamiento para modelos con razonamiento extendido, indicador de uso de la ventana de contexto, y deprecación del modo Edit en el menú.

🔗 Mejoras JetBrains

Explorar un repositorio en Copilot en la web

En vista previa pública: es posible explorar la estructura de un repositorio GitHub directamente desde la interfaz web de Copilot. Los archivos seleccionados se añaden automáticamente como referencias temporales al chat y pueden hacerse permanentes.

🔗 Exploración de repositorio en Copilot


Anthropic Sydney y Claude for Office

Sídney, cuarta oficina en Asia-Pacífico

10 de marzo de 2026 — Anthropic anuncia la próxima apertura de una oficina en Sídney, su cuarta en Asia-Pacífico (tras Tokio, Seúl y Singapur). Australia es 4.ª a nivel mundial en uso de Claude.ai por habitante; Nueva Zelanda es 8.ª según el mismo indicador (Anthropic Economic Index). La oficina se centrará inicialmente en clientes empresariales, startups e investigación.

🔗 Sídney, cuarta oficina en Asia-Pacífico

Claude for Excel y PowerPoint: contexto compartido y Skills Office

11 de marzo de 2026 — Los complementos Claude for Excel y Claude for PowerPoint reciben dos actualizaciones importantes: el compartido de contexto entre ambas aplicaciones (un analista puede extraer datos de un libro Excel y usarlos en una presentación PowerPoint en una sola conversación), y la llegada de los Skills (flujos de trabajo reutilizables con un clic) en ambos add-ins.

Los Skills precargados cubren los casos de uso más frecuentes: auditoría de fórmulas, construcción de modelos LBO/DCF, decks de panorama competitivo, actualización de presentaciones con nuevos datos, y revisión de decks de banca de inversión. Los add-ins ya están disponibles vía Amazon Bedrock, Google Cloud Vertex AI y Microsoft Foundry para despliegues en conformidad. Disponibilidad: Mac y Windows en planes de pago (Pro, Max, Team, Enterprise).

🔗 Claude for Excel y PowerPoint


NVIDIA Nemotron 3 Super, ComfyUI y GTC 2026

11 de marzo de 2026 — NVIDIA está muy activa alrededor del GTC 2026.

Nemotron 3 Super ofrece un rendimiento 5 veces superior para IA orientada a agentes respecto a la generación anterior. Se trata de un modelo MoE (Mixture of Experts) de 120.000 millones de parámetros de código abierto, optimizado para cargas de inferencia de alta frecuencia.

NVIDIA y ComfyUI anunciaron durante el GDC 2026 (Game Developers Conference) una integración que simplifica la generación de vídeo por IA local para desarrolladores de juegos y creadores, con soporte de los modelos FLUX y LTX-Video.

El blog de NVIDIA GTC 2026 Live Updates recopila los anuncios en directo de la conferencia en San José — Mistral AI también presenta allí sus modelos frontier.

🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 En Vivo


En breve

Runway Labs — Runway lanza un incubador interno dirigido por Alejandro Matamala Ortiz (cofundador, director de innovación). Runway Labs prototipará aplicaciones radicalmente nuevas para vídeo generativo y modelos de simulación del mundo (General World Models) en sectores variados: cine, salud, educación, videojuegos, publicidad, inmobiliaria. Reclutamiento abierto.

🔗 Presentando Runway Labs

Claude Code /btw — Un nuevo comando /btw permite tener conversaciones laterales (side chain conversations) mientras se ejecuta una tarea, sin interrumpir el trabajo en curso.

🔗 Tuit de @bcherny

NotebookLM Flashcards — Actualización de los cuestionarios y flashcards: reanudar donde se dejó, seguimiento de flashcards acertadas o falladas, posibilidad de eliminar o mezclar las flashcards.

🔗 Tuit de NotebookLM

Meta Canopy Height Maps v2 — Meta y el World Resources Institute publican CHMv2, una nueva versión de los mapas de altura de la copa forestal mundial. El modelo DINOv3 (visión auto-supervisada de Meta) mejora la precisión y la cobertura mundial. Aplicaciones: migración climática, restauración forestal, planificación urbana. Modelos disponibles en open source.

🔗 Mapas de altura de la copa v2

Z.ai GLM-5 — GLM-5 ya está accesible para usuarios Lite (nivel gratuito), después de haber estado reservado para usuarios Pro desde su lanzamiento en febrero de 2026.

🔗 Tuit de @ZixuanLi_


Lo que significa

El 11 de marzo de 2026 ilustra dos tendencias de fondo que convergen.

La primera es la plateformización de las capacidades orientadas a agentes: OpenAI, Perplexity y GitHub publican el mismo día primitivas complementarias (shell tools, sandboxes, agent hooks, code review). El ecosistema se estructura alrededor de bloques reutilizables — skills, contenedores, subagentes — que permiten a los desarrolladores construir agentes fiables sin reinventar la infraestructura.

La segunda es la carrera por el silicio personalizado: el detalle que Meta publica sobre sus cuatro generaciones MTIA en dos años revela una estrategia clara de independencia respecto a las GPU de consumo, calibrada para la inferencia a gran escala. La misma lógica empuja a NVIDIA a publicar Nemotron 3 Super el mismo día del GTC, donde se acumulan los anuncios.

La creación del Anthropic Institute se inscribe en un movimiento más discreto pero duradero: a medida que las capacidades avanzan, las grandes empresas de IA estructuran sus equipos de impacto público — ya no como mera comunicación de fachada, sino como un esfuerzo de investigación por derecho propio.


Fuentes

Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator