MAISON CODE .
/ Tech · AI · Voice · UX · Future

Comercio por voz: el fin del teclado

Escribir es fricción. Hablar es natural. Cómo crear interfaces de voz utilizando Whisper (STT) y ElevenLabs (TTS) para permitir a los usuarios comprar con manos libres.

AB
Alex B.
Comercio por voz: el fin del teclado

Por qué Maison Code habla de esto

En Maison Code Paris, actuamos como la conciencia arquitectónica de nuestros clientes. A menudo heredamos stacks “modernos” construidos sin una comprensión fundamental de la escala.

Discutimos este tema porque representa un punto de inflexión crítico en la madurez de la ingeniería. Implementarlo correctamente diferencia un MVP frágil de una plataforma resistente de nivel empresarial.

La historia de la entrada: de las tarjetas perforadas a la voz

El teclado QWERTY se inventó en 1873. Fue diseñado expresamente para reducir la velocidad de los mecanógrafos y evitar atascos en las máquinas de escribir mecánicas. 150 años después, todavía utilizamos este diseño. Estamos tocando pantallas de cristal, usando nuestros pulgares para presionar pequeñas teclas virtuales, luchando contra la autocorrección y lidiando con errores de “dedo gordo”. Es absurdo. Escribir es Alta fricción. Requiere atención visual (“Mira las teclas”) y destreza (“Pulsa la tecla correcta”). Hablar es Cero Fricción. No requiere manos ni ojos. Los humanos pueden hablar 150 palabras por minuto. Pueden escribir 40 palabras por minuto en el móvil. Comercio por voz es la transición de interfaces gráficas de usuario (GUI) a interfaces de usuario conversacionales (CUI). Es el paso de la “Línea de Comandos” al “Lenguaje Natural”.

Por qué Maison Code habla sobre la voz

En Maison Code, servimos el “lujo del tiempo”. Nuestros clientes (personas de alto patrimonio neto) están ocupados. Están conduciendo. Están sosteniendo a un bebé. Están cocinando. No tienen tiempo para explorar 50 páginas de filtros en una pantalla pequeña. Quieren decir: “Mándale un regalo a mi madre por su cumpleaños, presupuesto 500 dólares, algo floral”. Y quieren que se haga. Creamos experiencias Voice-First que actúan como conserjes digitales. Utilizamos los últimos modelos de IA para garantizar que el sistema comprenda no solo las palabras, sino también la Intención.

The Technology Stack (el canal de voz moderno)

Durante mucho tiempo, la voz (Siri, Alexa) fue mala. No entendía los acentos (“Lo siento, no entendí eso”). Fue rígido. Era un árbol de decisiones, no IA. En 2024, la pila maduró significativamente. Ahora podemos crear interacciones de voz a nivel humano. El proceso consta de tres etapas: Oído -> Cerebro -> Boca.

1. El oído: voz a texto (STT)

Esto convierte ondas de audio en texto. El líder: OpenAI Whisper. Es un modelo transformador entrenado con 680.000 horas de datos multilingües. Maneja perfectamente los acentos, el ruido de fondo (ambiente de Starbucks) y la jerga técnica.

  • Latencia: ~300ms (modelo Turbo).
  • API: POST /audio/transcripciones.
  • Innovación: entiende “Ums” y “Ahs” y los filtra.

2. El cerebro: modelo de lenguaje grande (LLM)

Esto procesa el texto y decide qué decir. El líder: GPT-4o o Claude 3.5. La voz requiere mucha inteligencia para comprender el contexto (“Quiero ese pero en rojo”). Los chatbots estándar fallan aquí. Necesita modelos que entiendan Intención y Matices.

  • Latencia: ~500 ms (primer token).

3. La boca: texto a voz (TTS)

Esto convierte el texto nuevamente en audio. El líder: ElevenLabs. Genera audio hiperrealista y emocional. Respira. Hace una pausa. Se ríe. Entona las preguntas correctamente.

  • Latencia: ~300 ms (transmisión).

El desafío de la ingeniería: la latencia

Si encadenas estas tres API secuencialmente: Esperar usuario -> STT (1s) -> LLM (2s) -> TTS (1s) -> Reproducir audio. Retraso total: 4 segundos. En una conversación, 4 segundos son una eternidad. “¿Hola?” … (4s de silencio) … “Hola”. Se siente roto. Los usuarios colgarán. Necesitamos bajar de 1 segundo (el “umbral mágico” de la conversación).

Solución: Streaming Pipelines y WebSockets. No esperamos a que el usuario termine de hablar. No esperamos a que el LLM termine de pensar.

  1. VAD (Detección de actividad de voz): El navegador utiliza WebAudio API para detectar cuando el usuario deja de hablar (silencio > 500 ms). Corta automáticamente el micrófono.
  2. STT optimista: envíe fragmentos de audio a Whisper a medida que se graban a través de WebSocket.
  3. LLM Streaming: Tan pronto como GPT-4 genere la primera palabra (“Hola”), envíala a ElevenLabs.
  4. Transmisión de audio: Tan pronto como ElevenLabs genere el primer byte de audio para “Hola”, reprodúcelo. Este procesamiento paralelo reduce la latencia percibida a ~800 ms. GPT-4o (Omni): hace esto de forma nativa (entrada/salida de audio) en un solo modelo, lo que reduce la latencia a ~300 ms. Este es el santo grial.

Casos de uso para el comercio de lujo

1. El conserje

Imagine un botón “Llamar al conserje” en su aplicación.

  • Usuario: “Necesito un regalo para mi esposa. A ella le encantan los pañuelos de seda pero odia el color amarillo. El presupuesto ronda los 300 euros”.
  • AI: “Entiendo. Tengo un precioso pañuelo de seda estilo Hermes en azul celeste. Cuesta 250 euros. ¿Te lo enseño?”
  • Usuario: “Sí”.
  • La aplicación Navega automáticamente a la página del producto. Esta es la interacción Multimodal. La voz controla la pantalla.

2. El soporte posterior a la compra

  • Usuario: “¿Dónde está mi pedido?”
  • AI: “Veo el pedido n.° 1234. Actualmente se encuentra en Lyon. FedEx dice que llegará mañana a las 2 p. m.. ¿Quieres que te envíe un mensaje de texto con el enlace de seguimiento?”
  • Usuario: “Sí, por favor”. Esto reemplaza los frustrantes menús IVR “Presione 1 para inglés”.

3. Comercio en el automóvil

Los conductores no pueden mirar las pantallas. “Hola Maison, reordena mi colonia habitual”. La transacción se realiza únicamente a través de audio.

Privacidad y confianza: el problema del “micrófono caliente”

Los usuarios están paranoicos porque las aplicaciones escuchan sus conversaciones. Esta es la mayor barrera para la adopción. Mejores prácticas:

  1. Pulsar para hablar: requiere presionar un botón físico para escuchar. Es más seguro que “Wake Words” (“Hey Siri”), que implica una vigilancia constante.
  2. Comentarios visuales: muestra una animación de forma de onda al escuchar. Muestra un estado de “Procesamiento”.
  3. Datos efímeros: No almacene las grabaciones de audio. Transcribir y eliminar inmediatamente. Indíquelo en su Política de Privacidad.
  4. Procesamiento local: si es posible, ejecute el motor “Wake Word” en el dispositivo (TensorFlow.js) para que no se envíe audio a la nube hasta que el usuario lo desee.

La visión del escéptico

“La gente no quiere hablar con los robots”. Contrapunto: La gente no quiere hablar con robots tontos. A la gente le encanta hablar con asistentes inteligentes (Her, Jarvis). Una vez que la latencia disminuye y la inteligencia aumenta, la fricción se siente mínima. Además, la Generación Alfa (niños) solo usa voz. Buscan en YouTube gritándole al iPad. Ellos son tus futuros clientes.

Preguntas frecuentes

P: ¿Es caro? R: Sí. STT + LLM + TTS = ~€0,05 por minuto. Es más barato que un agente humano (€0,50/min), pero más caro que hacer clic en un botón (€0,00). Úselo para interacciones de alto valor (ventas, soporte), no para navegar.

P: ¿Admite varios idiomas? R: Sí. Whisper y ElevenLabs son multilingües de forma nativa. Puedes hablar francés y la IA puede responder en inglés (o viceversa). Esto abre mercados globales sin contratar equipos de soporte locales.

Conclusión

La voz es la interfaz definitiva porque es la interfaz más antigua. Llevamos 100.000 años hablando. Llevamos 40 años haciendo clic en ratones. La voz es “Volver a lo básico”. En 2026, una marca sin una interfaz de voz se sentirá tan muda como una marca sin sitio web en 2000. Pasamos de “Buscar” a “Preguntar”.

13. Autenticación por voz (biométrica)

“Compra confirmada”. ¿Cómo sabemos que eres tú? Biometría de voz. Tu huella de voz es única. Podemos utilizar IA para verificar la identidad con una precisión del 99,9% (“Mi voz es mi contraseña”). Esto es más sencillo que solicitar un código PIN o un SMS 2FA. Sin embargo, para artículos de alto valor, recomendamos un Flujo híbrido: “Pedido realizado. Confirme con FaceID en su teléfono”. Este enfoque multifactor equilibra la velocidad con la seguridad.

14. El flujo híbrido de voz/pantalla

La voz es excelente para la entrada (“Buscar zapatos rojos”). La pantalla es excelente para la salida (mostrando 10 zapatos rojos). Creamos aplicaciones multimodales. El usuario habla. La aplicación actualiza la pantalla. El usuario toca “Azul”. La aplicación dice “Aquí están los azules”. Los modos se refuerzan mutuamente. No obligar al usuario a “Escuchar” una lista de 10 productos (“Producto 1:… Producto 2:…”). Esa es una experiencia de usuario terrible. Utilice Voz para intención, Pantalla para selección.

15. Conclusión

La gente habla de manera diferente a como escribe. Tipo: “Mejor vino tinto 2025” Habla: “¿Qué es un buen vino tinto para una cena de carne por menos de 50 euros?” Las consultas de voz son de cola larga y basadas en preguntas. Para clasificar por voz (Siri/Asistente de Google), debes estructurar tu contenido como respuestas a preguntas frecuentes. La propiedad Speakable de Schema.org ayuda. Pero, sobre todo, se trata de tener contenido conversacional de alta calidad que responda preguntas específicas directamente.

14. Accesibilidad: más allá de la comodidad

Para nosotros, Voice es una característica de lujo. Para un usuario ciego, es una característica esencial. Al crear una interfaz de voz, sin darse cuenta, está haciendo que su sitio sea accesible para personas con discapacidad visual. Les permite navegar, seleccionar productos y pagar sin un lector de pantalla. Esto es Diseño Inclusivo. Amplía su capacidad de acceso al mercado y al mismo tiempo hace un bien social.

15. Conclusión

Si desea ofrecer una experiencia de compra premium con manos libres, Maison Code puede crear su Voice Stratagy. Integramos Whisper, LLM y ElevenLabs para crear interfaces de voz con latencia inferior a un segundo para web y dispositivos móviles.


Voice Habilitar mi marca. Contrate a nuestros arquitectos.