Buscar

Claude crea visuales interactivos, OpenAI lanza la Video API Sora 2, Google Maps se reinventa con Gemini

Claude crea visuales interactivos, OpenAI lanza la Video API Sora 2, Google Maps se reinventa con Gemini

El 12 de marzo de 2026 estuvo marcado por tres anuncios de producto importantes: Claude da un paso al generar visuales interactivos directamente en la conversación, OpenAI abre una Video API programática impulsada por Sora 2, y Google Maps integra a Gemini para su rediseño más profundo en más de una década. Paralelamente, Claude Code recibe dos actualizaciones (v2.1.73 y v2.1.74), Perplexity amplía Computer a los suscriptores Pro, y ElevenLabs lanza Flows y Music Finetunes en su plataforma creativa.


Claude crea visuales interactivos en la conversación

12 de marzo — Claude ahora puede crear gráficos interactivos, diagramas y visualizaciones directamente en la conversación, sin escribir código. La funcionalidad está disponible en beta en todos los planes, incluido el plan gratuito.

Procedente de la vista previa “Imagine with Claude” anunciada el otoño pasado, esta función cambia la forma de interactuar con el asistente: los visuales aparecen en línea en las respuestas, y no en un panel lateral separado. Son temporales: evolucionan o desaparecen a lo largo de la conversación — a diferencia de los Artifacts, que son documentos permanentes pensados para compartirse o descargarse.

Ejemplos de uso concreto: pedir cómo funcionan los intereses compuestos genera una curva interactiva para manipular, pedir la tabla periódica produce una visualización clicable con los detalles de cada elemento. Se puede provocar un visual con fórmulas como “draw this as a diagram” o “visualize how this might change over time”. Claude decide por sí mismo cuándo crear un visual, o el usuario puede solicitarlo explícitamente.

Esta funcionalidad forma parte de una serie de mejoras recientes en las respuestas de Claude: formatos dedicados para recetas, meteorología visual e integraciones directas con Figma, Canva y Slack.

“Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free.”

🇪🇸 Claude ahora puede crear gráficos y diagramas interactivos directamente en la conversación. Disponible desde hoy en versión beta en todos los planes, incluido el gratuito.@claudeai en X

🔗 Claude ahora crea gráficos, diagramas y visualizaciones interactivas


Claude Code v2.1.74 : gestión del contexto y correcciones multiplataforma

12 de marzo — La versión 2.1.74 de Claude Code aporta mejoras en la gestión del contexto y corrige una serie de errores en Windows y macOS.

Nuevas características:

FonctionnalitéDescription
/context amélioréSuggestions actionnables : identifie les outils lourds en contexte, le gonflement de mémoire, et les avertissements de capacité avec des conseils d’optimisation
autoMemoryDirectoryNouveau paramètre pour configurer un répertoire personnalisé pour le stockage auto-mémoire
CLAUDE_CODE_SESSIONEND_HOOKS_TIMEOUT_MSNouveau paramètre pour configurer le timeout des hooks SessionEnd (auparavant figé à 1,5 s)

Entre las correcciones destacadas: una fuga de memoria en los buffers de respuesta API en modo streaming que causaba un aumento ilimitado del RSS en Node.js; las políticas managed ask ya no podían ser eludidas por las reglas allow de usuario; los IDs de modelos completos (p. ej.: claude-opus-4-5) que se ignoraban silenciosamente en el frontmatter model: de los agentes ahora se aceptan correctamente. Las correcciones de MCP OAuth cubren el bloqueo por callback en un puerto ya usado y la reautenticación faltante tras la expiración del refresh token para conectores como Slack. En macOS, el binario nativo ahora incluye el entitlement audio-input para que macOS muestre correctamente la solicitud de permiso de micrófono en modo de voz.

🔗 Registro de cambios de Claude Code


Claude Code v2.1.73 : estabilidad, Bedrock ARNs y OAuth SSL

11 de marzo — La versión 2.1.73 corrige varios problemas de estabilidad importantes, incluidos bloqueos de CPU y deadlocks relacionados con skills.

Nuevas características:

FonctionnalitéDescription
modelOverridesNouveau paramètre pour mapper les entrées du sélecteur de modèle vers des IDs de modèles providers personnalisés (ex : Bedrock inference profile ARNs)
Guidance OAuth SSLGuidance actionnable quand la connexion OAuth ou les vérifications de connectivité échouent à cause d’erreurs de certificat SSL (proxies d’entreprise, NODE_EXTRA_CA_CERTS)

Las correcciones principales: bloqueos y ciclos de CPU al 100% provocados por prompts de permisos en comandos bash complejos; un bloqueo que podía congelar Claude Code cuando muchos archivos skill cambiaban simultáneamente (p. ej.: git pull en un repositorio con un gran directorio .claude/skills/); los subagentes con model: opus / sonnet / haiku se degradaban silenciosamente a versiones antiguas en Bedrock, Vertex y Microsoft Foundry.

🔗 Registro de cambios de Claude Code


Ramp AI Index : Anthropic se convierte en la opción predeterminada de las empresas

11 de marzo — Según el último informe Ramp AI Index, Anthropic se ha convertido en el proveedor de IA preferido por las empresas en su primera compra. El gráfico compartido por Ara Kharazian (economista principal del Ramp Economics Lab) muestra que la cuota de mercado de Anthropic entre las nuevas empresas clientes alcanza ~70% a principios de 2026, frente a ~25% para OpenAI — una inversión notable respecto a 2025.

Los datos provienen de más de 50 000 empresas que usan la plataforma Ramp (tarjeta de crédito y pagos empresariales), lo que lo convierte en un indicador fiable del gasto real en IA en empresas. El crecimiento de Anthropic se debe en parte a la adopción de Claude en entornos profesionales (API, Claude for Work, integraciones enterprise).

🔗 Ramp AI Index en X


OpenAI Video API : Sora 2 accesible para desarrolladores

12 de marzo — OpenAI lanza la Video API para desarrolladores, una interfaz programática que permite crear, ampliar, modificar y gestionar vídeos. Esta capacidad está impulsada por Sora 2, el modelo de generación de vídeo de segunda generación de OpenAI.

La Video API expone dos variantes: sora-2, diseñado para velocidad y exploración (iteraciones rápidas, contenidos para redes sociales, prototipos), y sora-2-pro, orientado a calidad de producción (salidas cinematográficas, assets de marketing, resoluciones hasta 1920×1080). Ambas variantes soportan duraciones de generación de 16 a 20 segundos, con posibilidad de extensión hasta 120 segundos en total.

Las principales funcionalidades disponibles a través del endpoint POST /videos incluyen: generación a partir de un prompt de texto, guía por imagen de referencia (que condiciona el primer frame), coherencia de personajes no humanos reutilizables entre varias generaciones (POST /v1/videos/characters) y edición focalizada vía POST /v1/videos/edits. El procesamiento es asíncrono, con soporte de webhooks para notificaciones al terminar el render. También hay procesamiento por lotes vía la Batch API para colas de render fuera de línea.

Se aplican restricciones de contenido: no representar personas reales, no personajes protegidos por derechos de autor, no contenido para adultos (esta restricción puede cambiar posteriormente).

🔗 Documentación de la Video API


Google Maps : Ask Maps e Immersive Navigation

12 de marzo — Google Maps recibe su mayor actualización de navegación en más de una década, potenciada por los modelos Gemini. Se anuncian simultáneamente dos nuevas experiencias.

Ask Maps es una nueva experiencia conversacional que permite hacer preguntas complejas sobre lugares reales. Por ejemplo, se puede preguntar “Mi teléfono se está quedando sin batería: ¿dónde puedo cargarlo sin hacer cola por un café?” o “¿Hay una pista de tenis con iluminación disponible esta noche?” La función se basa en datos de más de 300 millones de lugares y las reseñas de más de 500 millones de colaboradores. Las respuestas se personalizan según los lugares guardados o buscados previamente. Ask Maps comienza a desplegarse en Estados Unidos e India en Android e iOS, con la versión de escritorio próximamente.

Immersive Navigation transforma la experiencia de conducción con una vista 3D que refleja edificios, puentes y relieve circundante. Gemini analiza imágenes de Street View y fotos aéreas para mostrar detalles críticos: carriles, pasos peatonales, semáforos, señales de stop. La función también ofrece guía por voz natural (estilo “Take this exit and take the next one for Illinois 43 South”), información sobre los compromisos entre rutas alternativas (peaje vs tráfico) y alertas en tiempo real sobre incidencias. Immersive Navigation se despliega desde hoy en Estados Unidos en iOS y Android compatibles, CarPlay, Android Auto y coches con Google integrado.

🔗 Ask Maps e Immersive Navigation: nuevas funciones de IA en Google Maps


GitHub Copilot : selección automática de modelo GA en JetBrains

12 de marzo — GitHub anunció la disponibilidad general (Generally Available) de la selección automática de modelo para GitHub Copilot en todos los entornos de desarrollo JetBrains (IntelliJ IDEA, PyCharm, WebStorm, etc.), para todos los planes de Copilot.

El modo “Auto” selecciona dinámicamente el modelo más adecuado para la tarea, teniendo en cuenta las limitaciones de throughput. Los desarrolladores mantienen visibilidad completa: al pasar el cursor sobre la respuesta, ven qué modelo se usó y pueden en cualquier momento cambiar a un modelo específico. La facturación sigue el modelo realmente seleccionado, con multiplicadores actualmente entre 0x y 1x.

GitHub indica que la selección automática será progresivamente más inteligente, con la capacidad de elegir el modelo según el contexto preciso de la tarea (generación de código, revisión, chat, etc.). Esta funcionalidad ya estaba disponible en vista previa en JetBrains y en GA en VS Code.

🔗 Copilot auto model selection GA en JetBrains IDEs


GitHub Copilot CLI : historial de sesiones en SQLite

11 de marzo — GitHub Copilot CLI ahora integra una base de datos SQLite local para recordar el historial de tus sesiones de terminal. Concretamente, si resolviste un problema hace unos días en la línea de comandos, Copilot CLI puede recordarte la solución — sin necesidad de buscar en el historial del shell o en tus notas. Esta funcionalidad forma parte de la fase 2 de la disponibilidad general de GitHub Copilot CLI, accesible vía gh copilot.

🔗 GitHub Copilot CLI


Perplexity Computer se abre a los suscriptores Pro

12 de marzo — Perplexity Computer, el agente capaz de ejecutar flujos de trabajo complejos en varios pasos en la web, archivos y herramientas conectadas, ahora está disponible para suscriptores Pro.

Hasta ahora reservado para suscriptores Max y clientes Enterprise, Perplexity Computer ofrece acceso a más de 20 modelos avanzados, a skills predefinidas y personalizables, así como a cientos de conectores. Los suscriptores Max mantienen una ventaja en créditos mensuales y límites de gasto más altos.

🔗 Perplexity Computer


Perplexity Computer for Enterprise : 1,6 M$ ahorrados en cuatro semanas

12 de marzo — Perplexity publicó un artículo dedicado que detalla el despliegue de Perplexity Computer for Enterprise, disponible desde ahora para clientes Enterprise.

Computer for Enterprise se integra con las herramientas ya usadas por las empresas: Salesforce, Microsoft Teams, HubSpot, MySQL, GitHub, y más de 400 mediante conectores. Rutea cada tarea al modelo más adecuado entre una veintena, y permite a los equipos definir skills adaptadas a sus procesos internos.

ÉquipeCas d’usage
FinanceSuivi de vérification préalable (due diligence) pour les fusions-acquisitions, analyse des documents et signalement des risques
JuridiqueRévision d’accord fournisseur, comparaison de versions, annotation de contrat (redlining)
MarketingCréation de campagne (créatifs, posts sociaux, pages d’atterrissage) + tableau de bord de performance

Perplexity compartió cifras de un estudio interno sobre más de 16 000 consultas: Computer permitió ahorrar 1,6 millones de dólares en costes de mano de obra y realizó el equivalente a 3,25 años de trabajo en cuatro semanas. La solución está certificada SOC 2 Type II, con SAML SSO y ejecución aislada para cada tarea.

🔗 Perplexity Computer for Enterprise


ElevenLabs Flows : un lienzo para unificar imagen, vídeo y audio

11 de marzo — ElevenLabs presentó Flows, un editor basado en nodos integrado en ElevenCreative. En un único lienzo, los creadores pueden encadenar y combinar generación de imágenes, vídeo, síntesis de voz (Text to Speech), lip-sync, música y efectos sonoros.

Este enfoque recuerda a los flujos de trabajo de ComfyUI, pero aplicado al ecosistema multimodal de ElevenLabs, con todos los modelos de audio y vídeo del estudio accesibles desde un solo lugar.

🔗 Introducción a Flows en ElevenCreative


ElevenLabs Music Finetunes : coherencia estilística para la generación musical

12 de marzo — ElevenLabs lanzó los Music Finetunes en ElevenCreative. Esta funcionalidad permite a los creadores generar voces individuales, instrumentos o pistas musicales completas conservando coherencia estilística, gracias a una versión fine-tuned del modelo musical de ElevenLabs.

🔗 Introducción a Music Finetunes en ElevenCreative


BFL FLUX.2 [klein] 9B : edición de imágenes 2× más rápida

12 de marzo — Black Forest Labs (BFL) anunció una actualización significativa de su modelo FLUX.2 [klein] 9B: la edición de imágenes ahora es 2× más rápida, especialmente cuando se usan varias imágenes de referencia.

DétailValeur
ModèleFLUX.2 [klein] 9B
Amélioration2× plus rapide à l’édition
Cas d’usage renforcéRéférences multiples
PrixInchangé
PoidsHuggingFace (black-forest-labs/FLUX.2-klein-9b-kv)

La actualización es automática y gratuita para los usuarios existentes de FLUX.2 [klein] 9B vía la API. Los usuarios del modelo [klein] 4B pueden acceder a la versión 9B mejorada a través de un nuevo endpoint en vista previa.

🔗 Anuncio de BFL en X


Mistral AI Now Summit: París, 28 de mayo de 2026

12 de marzo — Mistral AI anuncia su primer evento principal: el “AI Now Summit”, un día dedicado a la transformación IA de las empresas, previsto para el 28 de mayo de 2026 en París.

TemaDescripción
Código abierto empresarialEl código abierto como base para transformaciones IA de extremo a extremo
Puesta en producciónPasar de pilotos a despliegues a gran escala
Infraestructura de IAConstruir una infraestructura de nivel empresarial
Innovaciones 2026Robótica, modelos visión-lenguaje (VLMs), IA multimodal

El evento reunirá a líderes de todo el mundo. Las inscripciones aún no están abiertas; hay una lista de espera disponible en ainowsummit.com.

🔗 AI Now Summit en X


Lo que significa

El día 12 de marzo ilustra dos tendencias convergentes. Por un lado, los asistentes IA generalistas — Claude, Perplexity, Google Maps — se enriquecen con capacidades que reducen la fricción entre la pregunta y la respuesta aprovechable: ya no hace falta escribir código para ver un gráfico, ni reformular para encontrar un restaurante. Por otro lado, los desarrolladores reciben nuevos bloques programáticos: la Video API de OpenAI abre la generación de vídeo a flujos de trabajo automatizados, y Claude Code sigue afinándose para entornos empresariales (Bedrock, proxies SSL, multiplataforma Windows/macOS).

El informe Ramp AI Index confirma que este movimiento se traduce en compras reales: con ~70% de cuota de mercado entre las nuevas empresas, Anthropic ya no se conforma con ser una alternativa a OpenAI — se ha convertido en la puerta de entrada por defecto. La competencia ahora se juega en la calidad de las integraciones y la fiabilidad en producción, no en la sola potencia de los modelos.


Fuentes

Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator