El 3 de marzo de 2026 marca una jornada intensa: Claude Code activa su Voice Mode en despliegue progresivo, OpenAI libera GPT-5.3 Instant para todos los usuarios de ChatGPT con una reducción notable de las alucinaciones, y Google lanza Gemini 3.1 Flash-Lite en preview — el modelo más económico de la serie Gemini 3. Paralelamente, OpenAI ya lanza un teaser de GPT-5.4, FLUX.2 [pro] duplica su velocidad sin pérdida de calidad, y Anthropic reconoce un crecimiento “unprecedented” que puso sus sistemas bajo presión.
Voice Mode dans Claude Code — push-to-talk, despliegue ~5%
3 mars 2026 — Thariq (@trq212, equipo Claude Code en Anthropic) anuncia el despliegue progresivo del Voice Mode en Claude Code. La funcionalidad ha sido muy esperada durante varias semanas por la comunidad de desarrolladores.
Cómo funciona :
| Aspecto | Detalle |
|---|---|
| Activation | Commande /voice pour activer/désactiver |
| Push-to-talk | Mantener la barra espaciadora para hablar, soltar para enviar |
| Transcription | Se muestra en tiempo real en el terminal |
| Note d’accueil | Visible en la pantalla de inicio al activar |
| Tokens | Les tokens de transcription vocale ne comptent pas dans les rate limits |
Boris Cherny (@bcherny, lead Claude Code) confirma usar este modo a diario: indica haber escrito “la majeure partie de [son] code CLI cette semaine” con el Voice Mode. Su feedback sugiere que la funcionalidad está lista para sesiones de trabajo reales, no solo para pruebas.
Disponibilidad : Activo para aproximadamente el 5% de los usuarios al 3 de marzo. El despliegue progresivo continuará en las semanas siguientes. La gratuidad de la transcripción (tokens fuera de cuota) es una decisión notable que elimina una fricción habitual para este tipo de funcionalidad.
La comunidad ya pide una versión bidireccional — respuestas leídas en voz alta — así como la disponibilidad general de /remote-control. Estos dos puntos siguen en la hoja de ruta.
🔗 Tweet @trq212 — Despliegue de Voice Mode 🔗 Tweet @bcherny — Experiencia de uso
GPT-5.3 Instant disponible para todos — -26,8% de alucinaciones
3 mars 2026 — OpenAI despliega GPT-5.3 Instant para todos los usuarios de ChatGPT. Este modelo reemplaza a GPT-5.2 Instant como modelo por defecto de ChatGPT, con un enfoque principal en la calidad diaria más que en los benchmarks académicos.
El punto más concreto de esta actualización: la reducción de las alucinaciones.
| Escenario | Reducción alucinaciones |
|---|---|
| Con acceso web (dominios críticos: medicina, derecho) | -26,8% |
| Sin acceso web | -19,7% |
| Reportes de usuarios (señalamientos de errores) | -22,5% (web), -9,6% (sin) |
Otras mejoras documentadas en el blog OpenAI :
- Menos rechazos innecesarios : reducción de los preámbulos defensivos/moralizantes de GPT-5.2 — el modelo responde directamente sin advertencias superfluas
- Búsqueda web : mejor equilibrio entre resultados web y conocimientos internos; menos listas de enlaces, síntesis más pertinente
- Tono más fluido : menos suposiciones sobre el estado emocional del usuario
- Escritura creativa : prosa más evocadora e inmersiva
“GPT-5.3 Instant in ChatGPT is now rolling out to everyone. More accurate, less cringe.”
🇪🇸 GPT-5.3 Instant en ChatGPT ya está desplegado para todos. Más preciso, menos cringe. — @OpenAI en X
Disponibilidad API : identifiant gpt-5.3-chat-latest. GPT-5.2 Instant permanece accesible en “Modelos antiguos” durante 3 meses, luego será retirado el 3 de junio de 2026. Las actualizaciones Thinking y Pro están anunciadas “a venir”.
Límite conocido : el tono en japonés y coreano sigue siendo a veces rígido — en proceso de corrección.
🔗 Anuncio GPT-5.3 Instant 🔗 Ficha del sistema GPT-5.3 Instant
Gemini 3.1 Flash-Lite — preview, 2,5× más rápido, $0,25/1M tokens
3 mars 2026 — Google lanza Gemini 3.1 Flash-Lite en preview vía la API Gemini en Google AI Studio y Vertex AI. Es el modelo más económico de la serie Gemini 3, diseñado para cargas de trabajo de desarrolladores de alto volumen.
Precios y rendimiento
| Aspecto | Valor |
|---|---|
| Precio input | $0,25 / 1M tokens |
| Precio output | $1,50 / 1M tokens |
| Velocidad (TTFAT) | 2,5× más rápido vs Gemini 2.5 Flash |
| Velocidad output | +45% vs Gemini 2.5 Flash (Artificial Analysis) |
| Puntuación Elo (Arena.ai) | 1432 |
| GPQA Diamond | 86,9% |
| MMMU Pro | 76,8% |
Estos benchmarks sitúan a Flash-Lite por encima de varios modelos Gemini de la generación anterior más grandes — lo que valida el enfoque de eficiencia de la serie 3.1.
Niveles de Thinking adaptativos
Una característica notable: los thinking levels (niveles de reflexión adaptativos) están integrados de forma nativa en AI Studio y Vertex AI. Los desarrolladores pueden ajustar dinámicamente la profundidad de razonamiento según la complejidad de la tarea — útil para mezclar tareas simples de bajo coste y análisis complejos en el mismo pipeline, sin cambiar de modelo.
Casos de uso documentados
Traducción multilingüe a gran escala, moderación de contenido, generación de interfaces e-commerce, dashboards dinámicos, agentes SaaS multi-etapa. Empresas como Latitude, Cartwheel y Whering ya están en early access.
🔗 Anuncio Gemini 3.1 Flash-Lite 🔗 Tweet @GoogleAI
Teaser GPT-5.4 — “5.4 sooner than you Think.”
3 mars 2026 — Una hora después del anuncio de GPT-5.3 Instant, OpenAI publica un tweet sobrio: “5.4 sooner than you Think.” 800k visualizaciones, 13k likes.
La capitalización inusual de “Think” es comentada por la comunidad — posible referencia a un modo de reflexión mejorado en GPT-5.4. No hay más detalles disponibles por el momento.
Escalabilidad Claude — tráfico sin precedentes, #1 App Store
3 mars 2026 — Al final del día, Thariq (@trq212) publica un mensaje reconociendo dificultades de escalado:
“We’ve seen unprecedented growth in Claude and Claude Code traffic this week that was genuinely hard to forecast. We appreciate you bearing with us as we scale.”
🇪🇸 Hemos observado un crecimiento sin precedentes del tráfico de Claude y Claude Code esta semana, que fue realmente difícil de prever. Agradecemos su paciencia mientras adaptamos nuestra infraestructura. — @trq212 en X
Contexto: Claude pasó a ser #1 en la App Store el 1 de marzo (confirmado por Mike Krieger, CPO @mikeyk), y el lanzamiento del Voice Mode generó un pico de tráfico adicional. El paquete npm @anthropic-ai/claude-code registra 9,5 millones de descargas semanales.
🔗 Tweet @trq212 — Escalabilidad 🔗 Tweet @mikeyk — Claude #1 App Store
BFL FLUX.2 [pro] — 2× más rápido, mismo precio, misma calidad
3 mars 2026 — Black Forest Labs anuncia una actualización mayor de FLUX.2 [pro]: el modelo es ahora 2× más rápido sin ninguna pérdida de calidad y sin aumento de precio.
FLUX.2 [pro] cubre tres modos: text-to-image, edición de imagen y multi-reference. El tweet de BFL describe el posicionamiento: “sweet spot of high quality + reasonable speed + broad capabilities” — especialmente para fotorrealismo (fotografías de producto, graphic design) y la coherencia en el renderizado de personajes.
🔗 Tweet @bfl_ml — FLUX.2 [pro] update 🔗 Documentación FLUX.2
ElevenLabs en el MWC — asistente vocal en red y partnership con Deloitte
2 mars 2026 — ElevenLabs anuncia dos partnerships desde el Mobile World Congress Barcelona.
ElevenLabs × Deutsche Telekom — Magenta AI Call Assistant
Deutsche Telekom presenta el Magenta AI Call Assistant — descrito como el primer asistente vocal IA integrado directamente en la red telecom. Alimentado por la plataforma ElevenAgents de ElevenLabs, funciona sin aplicación que instalar, en cualquier dispositivo capaz de realizar una llamada (smartphones y teléfonos fijos).
Funcionalidades anunciadas: traducción en 50 idiomas, resumen inteligente de llamadas, acción autónoma en workflows.
ElevenLabs × Deloitte — agentes omnicanal enterprise
ElevenLabs y Deloitte anuncian su primer partnership. El objetivo: combinar la plataforma ElevenLabs Agents con la experiencia consultora de Deloitte para ayudar a empresas a desplegar agentes vocales omnicanal — customer experience, ventas, operaciones internas — integrados con los sistemas enterprise existentes. Es el primer partnership de ElevenLabs con una firma Big Four.
🔗 Tweet @elevenlabsio — Deutsche Telekom MWC 🔗 Blog ElevenLabs × Deloitte
Breves
Claude Code v2.1.64 (pre-release “next”)
La versión 2.1.64 de Claude Code se publica en la etiqueta next en npm — aún no promovida en latest (que sigue siendo 2.1.63) y ausente de los GitHub Releases oficiales. El changelog no está aún disponible; probablemente se trata de un pre-release que incluye el Voice Mode.
🔗 npm @anthropic-ai/claude-code
Qwen 3.5 GPTQ-Int4 — cuantificación, vLLM y SGLang
3 mars — Alibaba/Qwen publica los pesos GPTQ-Int4 de la serie Qwen 3.5 con soporte nativo vLLM y SGLang. Resultado: menos VRAM requerida, inferencia más rápida, despliegues locales facilitados en configuraciones GPU limitadas.
🔗 Tweet @Alibaba_Qwen — GPTQ-Int4
Qwen 3.5 Small en LM Studio, Ollama y MLX
2-3 mars — Los modelos Qwen 3.5 Small (0.8B–9B) ya están disponibles en las tres principales plataformas de inferencia local: LM Studio (~7 GB VRAM para 9B), Ollama y MLX. El despliegue local es por tanto operativo al día siguiente del lanzamiento.
Z.ai Startup Program — créditos API y early access GLM-5
2 mars — Z.ai abre su Startup Program: créditos API gratuitos, rate limits prioritarios, acceso anticipado a la API y comunidad dedicada. Público objetivo: startups AI-native, builders de agentes, fundadores SaaS. El modelo activo en la plataforma es GLM-5.
🔗 Tweet @Zai_org — Startup Program
March Pixel Drop — Gemini en las apps, Circle to Search multi-objetos, Scam Detection en Francia
3 mars — El Pixel Drop de marzo trae varias funcionalidades IA a los dispositivos Pixel. Gemini ahora puede ejecutar tareas directamente dentro de las apps (reservas, pedidos, etc. — en beta). Circle to Search reconoce ahora todos los objetos visibles en una pantalla en una sola búsqueda, con un botón “Try It On” para probar virtualmente ropa. Magic Cue sugiere restaurantes vía Gemini directamente en las conversaciones. En seguridad, Scam Detection llega a Francia, Italia, España, México, Alemania y Japón. Pixel Watch gana alertas sísmicas y Satellite SOS en Europa y Canadá.
🔗 March Pixel Drop — Google Blog
System Card GPT-5.3 Instant
La System Card que acompaña a GPT-5.3 Instant se publica simultáneamente. El enfoque de seguridad es idéntico al de GPT-5.2 Instant — el modelo también está referenciado como gpt-5.3-instant.
🔗 Ficha del sistema GPT-5.3 Instant
Qué significa esto
El Voice Mode en Claude Code es la decisión más estructurante del día para los desarrolladores. Hacer la transcripción gratuita (fuera de cuota) elimina la principal barrera económica para este tipo de funcionalidad — es una decisión deliberada para maximizar la adopción, no un detalle. La barra espaciadora como push-to-talk en un terminal es una interfaz minimalista coherente con la herramienta.
En el frente de los modelos, GPT-5.3 Instant y Gemini 3.1 Flash-Lite ilustran dos estrategias distintas: OpenAI mejora la experiencia diaria del gran público (menos alucinaciones, menos rechazos innecesarios), Google optimiza la relación coste/rendimiento para desarrolladores API de alto volumen (2,5× más rápido, tarifa agresiva). El teaser GPT-5.4 publicado una hora después del lanzamiento de GPT-5.3 sugiere un ritmo de despliegue aún sostenido en OpenAI durante marzo de 2026.
La mención de tráfico sin precedentes (unprecedented) en Anthropic, combinada con el #1 en la App Store, confirma que Claude Code y la app Claude salen de una fase de nicho para alcanzar un público mucho mayor. Los problemas de escalabilidad son signo de una adopción que supera las proyecciones, no de una falla técnica.
Fuentes - Tuit @trq212 — Despliegue de Voice Mode
- Tuit @bcherny — Experiencia con Voice Mode
- Tuit @trq212 — Escalabilidad de Claude
- Tuit @mikeyk — Claude #1 en la App Store
- npm @anthropic-ai/claude-code — v2.1.64 next
- Anuncio GPT-5.3 Instant — OpenAI
- Ficha del sistema GPT-5.3 Instant
- Tuit @OpenAI — GPT-5.3 Instant
- Avance GPT-5.4 — @OpenAI
- Anuncio Gemini 3.1 Flash-Lite — Blog de Google
- Tuit @GoogleAI — Gemini 3.1 Flash-Lite
- Tuit @bfl_ml — FLUX.2 [pro] 2× más rápido
- Tuit @elevenlabsio — Deutsche Telekom MWC
- Blog de ElevenLabs × Deloitte
- Tuit @Alibaba_Qwen — GPTQ-Int4
- Tuit @Alibaba_Qwen — LM Studio
- Tuit @Alibaba_Qwen — Ollama
- Tuit @Alibaba_Qwen — MLX
- Tuit @Zai_org — Programa de startups Z.ai
- Pixel Drop de marzo — Blog de Google
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator