Mejoras al flujo de seteo del agente bienestar.rl basadas en research de appointment-setting (SPIN, NEPQ, Sandler, Voss, Fogg) cruzado con el análisis de cohorts y la atribución CRM mar-abr 2026. Documento dividido en dos solapas: la propuesta short-term (15 cambios en 3 etapas) y un lab de testeo paralelo con 3 flujos experimentales por cohort.
El revenue cayó de $14k (feb) a $4.8k (último mes). La explicación no es una sola: hay tres cuellos encadenados. Resolverlos en orden de impacto es lo que mueve la aguja en 30 días sin tocar arquitectura.
El agente está disparando el link a casi todo el que avanza un poco. La última semana, 99% de los que recibieron recurso recibieron link. Eso significa que el agente está usando el link como respuesta automática a "te interesa? — sí dale", sin haber construido convicción. La research lo llama "counterfeit yes" (Voss): el lead dice sí por reflejo, no por compromiso. Después no agenda.
En febrero esto pasaba desapercibido porque el tráfico venía pre-vendido (Hashimoto, tiroides). Hoy el tráfico viene a explorar y necesita más venta antes del link. El agente sigue con el mismo flujo de febrero — por eso el ratio se desplomó.
Inbound quality score de Bienestar = 52% (intermedio según el ranking interno de cortex). Eso significa que aproximadamente la mitad del tráfico responde al menos 2 veces — la otra mitad no. Parte del techo del agente lo define el contenido, no el prompt. Por eso este plan combina cambios al agente (etapas 1 y 2) con un sprint de contenido coordinado con Roberto y Valen (etapa 3).
El cuello 1 (link → booking) es el principal: si pasamos de 6.7% a 18% manteniendo todo lo demás constante, los bookings semanales pasan de 14 a ~38. Eso solo recupera $7-9k/mes Ninjō.
El cuello 2 (cancel rate 48%) actúa después. De los 14 que sí agendan, 7 cancelan. Bajándolo a 25% serían 11 que se presentan. Multiplicado por las 38 del escenario anterior, son ~28 calls efectivas semanales.
El cuello 3 (mix de tráfico) es el techo: si el contenido sigue trayendo Cohort 2/3, el agente va a cargar leads que estructuralmente convierten poco. Esto se trabaja con Roberto/Valen, no con el prompt.
Todos editables en system.md, examples.md y objections.md. Cada cambio responde a un patrón de la research de appointment-setting validado en strategy/appointment-setting-research.md y filtrado por strategy/appointment-setting-notes.md (descartamos los que tienen confounding o no son medibles).
Qué cambia: hoy el agente va de discovery (síntomas, duración, emocional) directo a presentación del programa. Falta el paso donde el lead articula el costo de NO actuar. Agregar 1 pregunta tipo "si seguís así 6 meses más, ¿qué pasa con [meta concreta del lead]?".
Por qué: Rackham (35k calls): top performers hacen 4x más Implication questions. La pregunta hace que el lead se venda a sí mismo el costo del status quo, dentro de su propia cabeza. Sin esto, el "te interesa?" llega a un lead que todavía no internalizó la urgencia.
Dónde: 2 ejemplos nuevos en examples.md (Cohort 1 y Cohort 2). Línea explícita en paso 3 de system.md ("antes de presentar el programa, preguntar sobre el costo de seguir igual").
Qué cambia: después de la Implication, una Consequence — "si no lo resolvés este año, ¿qué pasa?". La research insiste en que es la pregunta que mejor predice booking real. Hoy el agente está optimizado para velocidad de respuesta, no para dejar respirar al lead.
Por qué: Miner (NEPQ) — la pregunta de consecuencia activa el sistema emocional, no el racional. Validado también en Sandler (pregunta 7: "how do you feel about that?"). Es lo que separa un lead que dice "dale" reflejo de uno que dice "dale" comprometido.
Dónde: 1 ejemplo nuevo en examples.md mostrando agente-lead-agente con la pregunta de consecuencia, validación, y RECIÉN ahí presentación. system.md paso 3: agregar "1 pregunta de consecuencia antes de avanzar a presentación".
Qué cambia: hoy la presentación termina con "te interesa?" — fácil decir sí por cortesía. Cambio: pedir permiso explícito antes — "¿te cuento cómo lo trabajamos o preferís que te pase recursos primero?". Si el lead elige "recursos primero", se queda en nurture y NO recibe link. Si elige "contame", entra a presentación con peso y después al link.
Por qué: el "permission to pitch" obliga al lead a tomar una micro-decisión que filtra los curiosos. Bajar el volumen de links enviados (de 99% a ~50% de los que avanzan) y subir el ratio link→booking es matemáticamente preferible.
Dónde: system.md paso 3 — reemplazar "te interesa?" por la pregunta-bifurcación. Ajustar Examples 1 y 4.
Qué cambia: hoy en Example 4 / objections.md el agente responde "el valor de la primer consulta diagnóstico es de $15.000 ($10 USD)…" + link en el mismo mensaje. Eso mete una decisión nueva (pagar $10) en el momento más frágil. Cambio: si preguntan precio antes del link, decir "depende del plan que tenga sentido para tu caso, lo vemos en la call con el equipo. te dejo el link y ahí confirmás horario" + link. El precio aparece en el confirm de Calendly o en el handoff a WhatsApp post-booking.
Por qué: Fogg (B = M·A·P) — la conversión de booking es problema de Ability más que de Motivation. Cualquier fricción adicional (decisión nueva, dato extra) en el momento del prompt mata la conversión incluso con motivación alta. Confirmado en notes §3.2 como acción aplicable.
Dónde: 1 línea de objections.md + actualizar Examples 3 y 4.
Qué cambia: Cohort 2 (60% del tráfico actual: salud hormonal, inflamación, cansancio) es la que más drena el agente. Hoy entra al mismo flujo que Cohort 1. Cambio: para esta cohort, mini-funnel de 3 preguntas (Sandler 4 → 5 → 7): "qué probaste hasta ahora?" → "¿y eso te dió resultado?" → "¿cómo te hace sentir seguir buscando respuestas?". Después de eso, bifurcación: si el lead muestra urgencia/frustración fuerte → presentación + permission to pitch. Si responde tibio → recurso educativo + nurture, sin link.
Por qué: los intentos previos justifican la inversión, el costo emocional sustituye la ausencia de diagnóstico, y la pregunta 7 ("cómo te hace sentir") da la señal binaria de readiness sin tener que medirla por afuera. Esto sustituye el cohort-routing avanzado para esta etapa rápida — funciona porque la mayoría de los Cohort 2 vienen por keywords identificables.
Dónde: 1 ejemplo nuevo en examples.md + agregar bullet en system.md paso 2 ("si keyword es de cohort 2, hacer mini-funnel de 3 preguntas antes de presentar").
Qué cambia: cuando el lead confirma "ya agendé", agregar mensaje con wa.me/[número equipo Bienestar] + CTA "mandame Hola para guardar tu número y te paso el recordatorio antes de la call". Patrón ya validado en Juanma Huss (62% mandan Hola).
Por qué: de los 3 cuellos, este es el que más rápido se mueve. Bajar cancel rate de 48% a 25% suma ~7 calls efectivas/mes con cero cambio en captación. Además, el WhatsApp queda como activo del cliente (teléfono verificado en su CRM).
Dónde: 2 líneas en system.md paso 5 + 1 ejemplo nuevo. Pendiente: pedir el número de WhatsApp del equipo a Roberto/Valen.
Una vez que la etapa 1 esté en producción y midamos el delta, estos cambios profundizan la segmentación y limpian las métricas internas. Todos siguen siendo edits a archivos del agente — no requieren cambio de plataforma.
Qué cambia: implementar los 4 flujos del Doc 1 (cohorts-sprint-estrategia) en el prompt. Cohort 1 (hashimoto, tiroides, insulino, sop): fast-track, 2 preguntas, presentación con condición específica nombrada. Cohort 2 (salud hormonal, inflamación): mini-funnel Sandler 4-7 (cambio 05) + bifurcación. Cohort 3 (bajar de peso): framing hormonal + ofrecer comunidad $160, no programa $810. Cohort 4 (info, guía, lista): recurso primero + nurture, sin empujar agenda.
Por qué: el flujo único actual trata igual a 4 perfiles que convierten 10x distinto. El doc1 ya identificó las cohorts y sus tasas de conversión históricas. Esto no es nuevo — es ejecutar lo que el análisis ya estableció.
Dónde: reescritura del paso 1 de system.md (router de keyword → cohort). 4 ejemplos nuevos en examples.md, uno por cohort. Actualizar keywords.json con campo cohort.
Qué cambia: hoy cuando el agente identifica que un lead no califica (Cohort 3 puro, sin diagnóstico, descalifica por precio), el cierre es NO_RESPONSE seco. La research recomienda terminar con UNA pieza de valor — recurso gratuito, episodio, lista. Cambio: reemplazar el cierre seco por "esto que te conté lo profundizo en [recurso] — te lo paso por las dudas, gracias por escribirme" + recurso.
Por qué: Hormozi: "the best lead-gen systems are filters, not funnels". El lead descalificado hoy puede ser referido mañana, o re-enganchar en 6 meses con diagnóstico. Cerrar mal quema esa opcionalidad. Y operativamente: descalificación graceful baja el ruido en el detector de booking porque el agente NO empuja link a quien no califica.
Dónde: objections.md sección "no califica / explorando" — agregar entrega de fallback_resource. Definir fallback_resource en resources.json.
Qué cambia: si la respuesta del lead a la presentación es de 1-3 palabras ("dale", "ok", "si"), el agente NO manda link directo. Antes hace una pregunta más: "buenísimo — antes de pasarte el link, ¿estás lista para empezar este mes o todavía estás viendo opciones?". Si responde "lista" o algo elaborado → link. Si responde "viendo opciones" → recurso + nurture.
Por qué: Voss distingue counterfeit yes (escape, reflejo) de commitment yes (real). Hoy el agente trata cualquier "dale" como verde para mandar link. La nota de la research (§3.3 en notes) dice "pendiente de discutir" — pero la implementación es de bajo riesgo (1 pregunta más antes del link) y se puede A/B testear.
Dónde: system.md paso 4 — agregar regla: "si la confirmación es ≤3 palabras, hacer 1 pregunta de readiness antes del link".
Qué cambia: abrir el Calendly del cliente desde mobile y cronometrar el flujo. Target: tap-to-confirm ≤ 15s. Cosas a chequear: ¿pide email + teléfono + nombre completo? ¿Hay ventana de selección angosta (solo 3 días)? ¿Se abre en navegador externo o in-app? ¿Pide login Google? Cualquiera de esos suma 2-5s de fricción y mata conversión.
Por qué: Fogg — la mayor parte de la pérdida en booking es Ability, no Motivation. El link puede estar lindo pero si pedir el slot es engorroso, el lead motivado igual se cae. La research (§3.2 confirmada en notes) sugiere agregarlo a /cortex-client --handoff.
Dónde: auditoría manual de 15 min sobre https://calendly.com/d/cxq6-jgw-q7b/bienestar. Output: lista de fricciones detectadas → hablar con Roberto sobre cuáles puede sacar.
Qué cambia: el detector actual marca call_booked = true cuando el lead dice "ya agendé" o similar. Resultado: 124 bookings reportados, 58 reales en CRM, 66 huérfanos. Cambio: solo marcar call_booked = true con (a) evento webhook de Calendly o (b) confirmación explícita con captura/enlace al confirm. La frase ambigua marca call_intent = true, propiedad nueva.
Por qué: los 66 orphans rompen la confianza del cliente con la métrica de Ninjō. Si Roberto/Valen ven 124 bookings y su CRM ve 58, asumen que estamos inflando. Métrica honesta es activo de negocio, no nice-to-have.
Dónde: Evaluator config en plataforma. Crear propiedad call_intent separada. Ajustar call_booked para que dependa de evidencia dura.
Estas no se pueden ejecutar solo desde nuestro lado. Requieren input de Roberto/Valen, workflows nuevos en plataforma, o cambios en el contenido. Las dejamos en etapa 3 porque el ROI tarda más en materializarse y porque las etapas 1 y 2 deberían empezar a mover la aguja antes.
Qué cambia: agregar a knowledge_base.md 2-3 commercial insights de Bienestar. Un commercial insight es un reframe del problema: "la mayoría piensa que [respuesta obvia], pero lo que vemos con nuestras pacientes es que el bloqueo real es [reframe]". Por ejemplo: "la mayoría piensa que tiroides es solo medicación, pero lo que vemos es que sin trabajar inflamación + sueño + estrés, la levotiroxina sola no alcanza".
Por qué: Challenger Inc — los top performers en complex sales no son los que diagnostican mejor, son los que reframean. Hoy la presentación del programa es genérica ("90 días con el equipo trabajando sueño, estrés, inflamación"). Con un insight específico, la presentación corta el ruido y posiciona el método como diferente.
Dónde: sesión de 30 min con Valen para capturar 2-3 reframes. Después knowledge_base.md + 2 ejemplos en examples.md. Pre-requisito: la sesión.
Qué cambia: hoy el agente ejecuta T1 (confirmación inmediata post-booking). Faltan T2 (noche anterior, "¿seguimos mañana?"), T3 (mañana del día), T4 (30 min antes), T5 (rescate post no-show, sin culpa: "se te complicó? te paso 2 horarios").
Por qué: los RCT de salud (texto-recordatorio) muestran reducción de no-show de hasta 50% con cadencia bidireccional. La pregunta "¿seguimos mañana?" obliga a una respuesta — el lead que no responde es señal temprana, no sorpresa el día de la call. Junto con el handoff a WhatsApp (cambio 06), esta es la otra mitad del ataque al cuello 2.
Dónde: nuevo archivo show-up-sequence.json en el agente + 4 templates de mensaje en examples.md. Trigger por workflow de plataforma sobre booking_confirmed=true. Implementación en plataforma — coordinar con equipo de mk1.
Qué cambia: hoy un lead que tuvo conversación pero no booking + se quedó silente, queda muerto. Cambio: workflow que dispara una vez sobre last_inbound > 30d AND NOT booked AND NOT disqualified. 3 mensajes espaciados (día 0, día 7, día 14), cada uno con un ángulo distinto: nuevo recurso, caso similar, ask directo.
Por qué: los winback emails B2B abren 42% / CTR 18% — el lead que dijo "después te aviso" en febrero es prospect calificado para mayo si llegamos con un ángulo nuevo. Es revenue dormido en la base. Para Bienestar, el universo dormante (oct'25 - mar'26) puede ser de cientos de leads.
Dónde: nuevo archivo reactivation.md en el agente + workflow de plataforma. Pre-requisito: identificar campo en custom_properties que guarde el topic de la última conversación para personalizar el re-open.
Qué cambia: coordinar con Roberto/Valen el calendario de mayo según el mix del Doc 1: 45% Cohort 1 (Hashimoto, tiroides, insulino) + 30% Cohort 4 (guías y listas con CTA info/guia) + 25% Cohort 2/3 sin CTA al agente. Identificar qué se publicó la semana 16-22/feb (39 bookings en una semana) y replicarlo.
Por qué: el techo del agente lo define el contenido. Si el mix de tráfico sigue 75% Cohort 2/3, no hay prompt que arregle el ratio link→booking más allá de cierto punto. Esto es palanca de Roberto/Valen, no nuestra. Pero sin esto, las etapas 1 y 2 chocan contra un techo estructural.
Dónde: reunión con Roberto/Valen + aprobación del calendario. La research está en agents/bienestar.rl/data/doc1-cohorts-sprint-estrategia.md.
Cada cambio responde a un cuello específico y por lo tanto a una métrica específica. Definimos baseline (medido), target a 2 semanas (post-etapa 1) y target a 4 semanas (post-etapa 2). Si una métrica no se mueve en su ventana, esa hipótesis específica se invalida y se ajusta — no se persiste sin evidencia.
| Métrica | Baseline (abr-may) | Target sem 2 | Target sem 4 | Cómo se mide |
|---|---|---|---|---|
| Ratio link → booking | 6.7% | 12% | 18% | Bookings confirmados / links enviados (semana móvil) |
| Cancel rate post-booking (Ninjō) | 48% | 35% | 25% | Cruce CRM × Ninjō, mensual (script existente) |
| % bookings de Cohort 1 (alta intención) | ~25% | 35% | 45% | Query: bookings con keyword condición específica |
| % WA opt-in post-booking | 0% | 40% | 55% | Custom property whatsapp_handoff_accepted |
| Conversión global (convo → booking) | 0.35% | 0.7% | 1.2% | Bookings / agent_conversations |
| Orphans (Ninjō dice booking, CRM no) | 66 | ≤30 | ≤15 | Cruce CRM × Ninjō (post cambio 11) |
| Revenue Ninjō (mensual) | $4.8k | — | $7-9k | Cash collected atribuible (cruce CRM) |
| Semana | Entregables | Cambios | Check-in |
|---|---|---|---|
| Sem 1 05–11 May |
Etapa 1 completa: edits a system.md, examples.md, objections.md. 5 simulaciones manuales por cohort. Deploy. Monitoreo cerca 24-48h. | 01, 02, 03, 04, 05, 06 | Vie 09/05 — pasada manual de 10 conversaciones reales |
| Sem 2 12–18 May |
Primer corte de métricas etapa 1. Si el ratio no se movió, debug. Si se movió, arrancar etapa 2. Auditoría booking link friction. | 07, 08, 10 | Lun 12/05 — review interno + decisión etapa 2 |
| Sem 3 19–25 May |
Etapa 2 completa: routing por cohort, disqualification graceful, Voss commitment probe. Endurecer detector. Limpieza de orphans. | 09, 11 | Vie 23/05 — call con Roberto/Valen + revisión cohort split |
| Sem 4 26 May–01 Jun |
Sesión commercial insights con Valen. Diseño show-up sequence T2-T5 + reactivation. Sprint mayo de contenido aprobado. | 12, 13, 14, 15 | Lun 26/05 — corte de mes + revisión de targets |
Conversión global pasa de 0.35% a 1.2%, cancel rate de 48% a 25%, revenue Ninjō a $7-9k/mes (vs $4.8k actuales). Eso es la diferencia entre "el agente Ninjō funcionó" y churn evitado.
El plan asume que la lectura de los 3 cuellos es correcta y que la research mapea bien al caso de Bienestar. Las dos cosas pueden estar parcialmente equivocadas. Acá los supuestos críticos y cómo los validamos.
El número de "links enviados" sale de funnel >= 4 en influencer_conversation_rollup_view. Si una conversación con re-envíos del link cuenta múltiples veces, el ratio real podría ser 9-11% en lugar de 6.7%. Sigue siendo cuello, pero ajusta el target.
Antes de tocar el prompt: query a la DB que cuente leads únicos con un mensaje conteniendo calendly.com/d/cxq6 en la última semana, separado por conversación. Comparar con el 210 reportado.
Notas de la research (notes §inbound quality): aproximadamente la mitad del tráfico no responde 2+ veces. El techo del ratio link→booking puede no ser 18% si esa mitad estructural no está alcanzable. Posible que con todos los cambios el ratio se estabilice en 12-14%, no 18%. Eso sigue siendo 2x el actual y materialmente importante, pero es honesto admitir que el target de 18% asume una calidad de tráfico que puede no estar.
La nota crítica en appointment-setting-notes.md §3.1 marca que el micro-yes laddering puede ser correlación con leads más calientes, no causa. El cambio 09 (Voss commitment probe) es del mismo árbol. Mitigación: implementarlo como cambio testeable contra control — durante las primeras 2 semanas, comparar ratio link→booking en conversaciones donde se aplicó la probe vs donde no. Si no hay delta, sacar la probe.
El routing por cohort (cambio 07) asume que las keywords actuales (salud hormonal, inflamación, etc.) corresponden a Cohort 2/3. Si Roberto/Valen empiezan a publicar contenido distinto en mayo (lo que esperamos por la etapa 3), la distribución de keywords va a moverse. El router tiene que ser actualizable rápido — por eso el campo cohort va en keywords.json (data) no en system.md (lógica).
Cambio 03 (permission to pitch) y 08 (graceful disqualification) bajan el volumen de links enviados. Eso es deseado — el ratio link→booking sube — pero el número absoluto de bookings semanales puede caer en la primera semana antes de subir. Mitigación: comunicarlo a Roberto/Valen antes de deployar para que no lean la caída como regresión. La métrica clave es bookings que se presentan a la call, no bookings totales.
| Item | Cuello | Pedir a |
|---|---|---|
| Número de WhatsApp del equipo Bienestar para handoff (cambio 06) | CUELLO 2 | Roberto / Valen |
| Sesión 30 min con Valen para capturar 2-3 commercial insights (cambio 12) | CUELLO 3 | Valen |
| Conciliación de orphans con Agus (operador Bienestar) | CUELLO 2 | Agus |
| Aprobación del sprint de contenido mayo por cohort (cambio 15) | CUELLO 3 | Roberto / Valen |
bienestar-cohort-routing en cortex.appointment-setting-notes.md).agents/bienestar.rl/analisis-abril-2026.md — análisis de performance feb vs abrilagents/bienestar.rl/data/doc1-cohorts-sprint-estrategia.md — 4 cohorts y propuesta de sprintagents/bienestar.rl/data/doc2-attribution-ninjo-mar-abr.md — atribución cruzada CRM × Ninjōstrategy/appointment-setting-research.md — research consolidada de SPIN, NEPQ, Sandler, Voss, Fogg, Cialdini, Challengerstrategy/appointment-setting-notes.md — análisis crítico de qué aplica y qué tiene confoundingagents/bienestar.rl/sdk-principles/system.md + examples.md + objections.md — estado actual del agenteagents/bienestar.rl/slack/2026-05-04-weekly-funnel-report-apr27-may03.md — embudo última semanaLa propuesta de la solapa 1 mejora el flujo único actual del agente. Este lab corre en paralelo: en lugar de tratar todo el tráfico igual, prueba 3 flujos distintos según de qué cohort viene el lead y por qué tipo de contenido entró. La hipótesis de fondo: cada cohort tiene un "siguiente paso correcto" diferente, y forzar a todos al mismo (link de Calendly) es lo que produce el 93% de drop.
Hoy el agente tiene UN destino: agendar la call. Si el lead no agenda, perdemos. El lab parte de otra premisa: el destino correcto depende del cohort. Para Cohort 1 el destino es la call. Para Cohort 2 el destino es WhatsApp + nurture. Para Cohort 4 el destino es entregar el recurso bien y pedir feedback. Cambiando el destino, el ratio de éxito sube porque medimos la métrica correcta para cada cohort, no la métrica única que hoy aplicamos a todos.
Convive con la propuesta de la solapa 1, no la reemplaza. Es un test independiente sobre un subconjunto controlado de tráfico (por keyword) para validar la hipótesis antes de promover el ganador a flujo principal.
| Cohort | Tipo de contenido que la trae | Flujo | Destino | Métrica de éxito |
|---|---|---|---|---|
| Cohort 1 — Diagnosticadas | Reels de condición específica (Hashimoto, tiroides, insulino, SOP) | FLUJO C | Agenda directa, flujo corto (3 turnos) | Ratio link→booking ≥ 25% |
| Cohort 2 — Sintomáticas sin diagnóstico | Reels educativos masivos (inflamación, salud hormonal, cansancio) | FLUJO A | Derivación a WhatsApp + nurture humano | WA opt-in ≥ 40%, booking T+30 ≥ 10% |
| Cohort 3 — Estética / bajar peso | Reels masivos sin oferta clínica | — | No entra al agente (filtro orgánico) | — |
| Cohort 4 — Descubrimiento | Carruseles + lead magnets (info, guía, lista) | FLUJO B | Recurso first + follow-up estratégico | Follow-up respondido ≥ 30%, booking T+7 ≥ 5% |
El cambio 07 (routing por cohort, etapa 2) implementa segmentación asumiendo que el destino correcto sigue siendo agendar. Este lab cuestiona esa asunción: prueba que para Cohort 2 el destino correcto puede ser WhatsApp y para Cohort 4 puede ser nurture educativo. Si el lab valida estas hipótesis, el cambio 07 se actualiza para reflejar destinos diferenciados, no solo discoveries diferenciados.
Estos dos flujos cubren el 75% del tráfico actual (Cohort 2 + Cohort 4). En ambos, el experimento es bajar la presión de agenda y medir si el upside aparece más tarde (T+7 / T+30) en lugar de T+0.
Cohort 2 (sintomáticas sin diagnóstico) que llegan por contenido educativo amplio. Hoy el agente intenta agendar y se cae 99%. Hipótesis: estas leads no están listas para una call pero sí para abrir un canal directo donde el equipo humano construye relación.
wa.me/[número]Cohort 4 (descubrimiento) que llegan por lead magnets. Hoy el agente entrega el recurso pero en el mismo flujo empuja al link. Hipótesis: separar recurso de venta sube el LTV del cohort y el que se engancha vuelve solo a agendar.
Cohort 1 (diagnosticadas) que llegan por contenido de condición específica. Vienen pre-vendidas. Hoy las metemos en el discovery extendido de 4 preguntas. Hipótesis: este perfil agenda mejor con flujo corto, commitment yes (Voss) y link inmediato.
El lab requiere que el agente haga un routing temprano basado en keyword + source. Implementación mínima:
cohort_test en custom_properties. Si no hay keyword reconocida → cohort 0 (control, flujo actual).cohort_test que apunta a 1 de los 3 flujos (A/B/C) o al flujo default.examples.md, uno por flujo. El agente aprende por imitación.cohort_test: en el reporte semanal, separar funnel por cohort_test para medir cada flujo contra su métrica primaria, no contra el ratio global de 6.7%.Cada flujo experimental necesita ≥50 conversaciones para que el ratio sea creíble. Si Cohort 4 (info/guía/lista) no tiene volumen suficiente esta semana, el Flujo B no concluye en 14 días. Mitigación: definir mínimos por flujo y, si no llegamos, extender ventana sin promover hipótesis sin evidencia.
La solapa 1 mejora el flujo único existente. El lab prueba 3 flujos diferenciados sobre subconjuntos del tráfico identificables por keyword. Las dos cosas pueden correr simultáneamente porque el agente ya distingue keywords en T0 — solo agregamos una bifurcación. Si el lab valida un flujo, se promueve y la solapa 1 se actualiza para reflejarlo en el cambio 07. Si no valida, la solapa 1 sigue como está.