Propósito
- Validar que el guion, las reglas, las herramientas, los guardrails y los modificadores funcionen como se espera.
- Visualizar el flujo interno de ejecución (inicio/fin de interacción, uso de herramientas, consultas de conocimiento, guardrails, transferencias, etc.).
- Simular variables de contexto que normalmente provendrían de integraciones externas (CRM, WhatsApp, etc.).
- Guardar escenarios de prueba para reproducir casos complejos.
Opciones de depuración (Debug)
El Playground permite habilitar trazas de debug que insertan marcas grises en el diálogo para mostrar eventos clave en tiempo real.Cada marca incluye el momento del evento y, cuando corresponde, el resultado obtenido.
Eventos que se pueden habilitar
- Inicio y finalización de interacción: muestra cuándo comienza y termina la conversación.
- Uso de herramientas (Tools): indica cuándo se ejecuta una herramienta (API REST, Código, Transferencia a humano) y el resultado devuelto.
- Uso de modificadores: señala si se aplicaron transformaciones de texto, traducciones o estilos de habla.
- Transferencias entre agentes: registra la decisión y el momento en que una conversación es transferida a un Contacto.
- Consulta de bases de conocimiento: muestra cuándo y cómo se recupera información de una base de conocimiento.
- Aplicación de guardrails: indica cuándo se aplican filtros de moderación o de estilo.
Variables de contexto
El Playground permite definir variables de contexto para simular datos que normalmente provienen de integraciones externas (por ejemplo, WhatsApp o un CRM).- Se cargan como un objeto JSON.
- Ejemplo:
Escenarios guardados
Los datos de prueba (incluyendo variables de contexto y configuraciones de debug) pueden guardarse para reutilizarlos en futuras pruebas.- Cada usuario puede mantener N escenarios guardados según sus necesidades.
- Los escenarios guardados pertenecen a la sesión del usuario: nadie más puede ver ni modificar los escenarios personales.
Esto facilita
- Probar flujos de negocio recurrentes.
- Ejecutar regresiones después de cambios en el guion o las herramientas.
- Mantener un historial de pruebas críticas.
Conversaciones de pruebas para testing
El chat del Playground permite manipular y reutilizar conversaciones de prueba de forma más flexible. Estas mejoras están pensadas para agilizar el proceso de iteración, depuración y validación de los agentes sin necesidad de reiniciar el flujo cada vez.✏️ Editar mensajes enviados
Permite corregir un mensaje ya enviado y el asistente retomará la conversación automáticamente con el nuevo contexto, sin necesidad de reiniciar la sesión.🔁 Retomar desde cualquier punto
Puedes volver a un mensaje anterior y continuar la conversación desde allí, evitando repetir pasos intermedios o volver a configurar el contexto.📤 Exportar conversaciones
Guarda tus conversaciones de prueba y reutilízalas como plantillas en otros equipos, proyectos o versiones del agente.📥 Importar conversaciones
Restaura flujos de prueba previamente exportados para replicar escenarios, validar regresiones o comparar versiones.Flujo de prueba recomendado
-
Seleccionar el agente que se desea probar.
Asegúrate de elegir la versión o entorno correcto antes de iniciar la sesión. -
Activar las opciones de debug necesarias: inicio/fin de interacción, uso de herramientas, modificadores, transferencias, consultas de conocimiento y guardrails.
Esto te permitirá visualizar el flujo interno de ejecución durante la conversación. - Definir variables de contexto en formato JSON para simular entradas reales (por ejemplo, datos provenientes de WhatsApp, CRM u otros sistemas externos).
-
Interactuar con el agente enviando mensajes como lo haría un usuario final.
Observa en tiempo real cómo el asistente aplica reglas, herramientas y guardrails. -
Editar o retomar mensajes para iterar más rápido:
- Corrige mensajes ya enviados para ver cómo cambia la respuesta del agente sin reiniciar la conversación.
- Retoma desde cualquier punto de la conversación para probar rutas alternativas o validar ajustes en el guion.
-
Revisar las marcas grises de debug que indican:
- Inicio y final de la interacción.
- Uso de herramientas, guardrails o modificadores.
- Transferencias entre agentes o contactos.
- Consultas a bases de conocimiento.
-
Guardar, exportar o importar escenarios de prueba según necesidad:
- Guarda tus configuraciones y variables para repetir pruebas críticas.
- Exporta conversaciones para compartir con otros equipos.
- Importa escenarios anteriores para validar regresiones o comparar versiones del agente.
Buenas prácticas
- Activa solo las trazas necesarias: demasiados eventos pueden dificultar la lectura.
- Agrupa escenarios guardados por objetivo (p. ej., “onboarding cliente”, “fallo de pago”).
- Valida latencia: observa si guardrails o modificadores añaden tiempo de respuesta.
- Repite pruebas críticas después de cada cambio de guion o herramienta para evitar regresiones.
Próximos pasos
- Consulta Comportamiento del Agente para saber cómo se evalúan guion, reglas, herramientas, guardrails y modificadores.
- Revisa Herramientas para entender qué se ejecuta cuando se llama a una API REST, se corre código o se transfiere a un humano.
- Usa Reportes avanzados para medir la eficacia de las pruebas en escenarios reales.

