Hay un ritual en casi todas las empresas que hacen marketing con cierta seriedad: la investigación de cliente. Encuestas, entrevistas, focus groups, mapas de empatía. Todo muy bien documentado. Todo muy bien guardado en una carpeta que nadie vuelve a abrir.

No porque la información no valiera. Sino porque cuando llegó el momento de tomar decisiones, ya tenían una hipótesis preferida. Y los datos que encajaban con ella se usaron. Los que no, se explicaron.

Eso tiene nombre: sesgo de confirmación. Y en marketing es especialmente peligroso porque se disfraza de rigor.

El cerebro no busca verdad. Busca coherencia.

El problema no es que la gente sea poco inteligente. El problema es que el cerebro está diseñado para buscar coherencia, no verdad. Procesar información que contradice lo que ya creemos cuesta esfuerzo cognitivo real. Así que lo que hacemos, casi siempre de forma inconsciente, es reorganizar los datos para que cuadren con la narrativa que ya teníamos.

Un directivo convencido de que su producto es premium buscará en los datos de ventas señales de que sus clientes valoran la calidad. Un estratega enamorado de su concepto creativo leerá el bajo CTR como un problema de segmentación, no de mensaje. Un fundador que lleva tres años con su empresa tardará más de lo razonable en aceptar que el posicionamiento inicial era incorrecto.

No es mala fe. Es arquitectura mental. El cerebro humano tiene una capacidad extraordinaria para construir relatos coherentes con la evidencia disponible, eligiendo qué evidencia cuenta y cuál se archiva como «outlier», «caso especial» o «muestra poco representativa».

En ciencia esto se llama sesgo de confirmación. En las reuniones de marketing se llama «los datos apoyan nuestra estrategia».

Cómo se instala el sesgo antes de que empiece la investigación

Aquí está la parte que más incomoda: el sesgo no aparece cuando lees los resultados. Aparece antes. En el momento en que diseñas las preguntas.

Una encuesta que pregunta «¿cuánto valoras la calidad en tus decisiones de compra?» ya está contaminada. Nadie en su sano juicio responde «no mucho». La pregunta lleva incorporada la respuesta socialmente aceptable.

Una entrevista en profundidad donde el entrevistador es también el responsable del producto que se evalúa tiene un problema estructural: la persona entrevistada percibe, aunque sea inconscientemente, qué tipo de respuestas generan más entusiasmo en el otro lado de la mesa. Y ajusta. No por mentir, sino porque los seres humanos somos sociales y calibramos lo que decimos según el contexto.

Un focus group donde el moderador no está entrenado para gestionar dinámicas de grupo produce el sesgo del altavoz: una o dos personas dominan la conversación, las demás convergen hacia sus posiciones, y el informe final recoge «lo que piensa el grupo» cuando en realidad recoge lo que pensaba quien habló primero y con más confianza.

La metodología importa. Y la mayoría de las investigaciones de cliente se diseñan para validar, no para descubrir.

El cliente que tienes en la cabeza no existe

Hay otro problema, más silencioso pero igual de corrosivo: el cliente imaginario.

Cuando llevamos tiempo en un sector, construimos un modelo mental de «nuestro cliente». Quién es, qué le importa, cómo decide, qué le frena. Ese modelo es útil — sin él no podríamos operar con agilidad. Pero también es una trampa, porque empieza a sustituir a la realidad en vez de representarla.

El cliente imaginario siempre tiene nuestras prioridades. Valora lo que nosotros valoramos. Se mueve por los motivos que a nosotros nos parecen razonables. Compra de forma racional, compara opciones, pondera el precio frente al valor.

El cliente real, en cambio, compra porque tenía prisa, porque un amigo se lo recomendó, porque el packaging le pareció más serio, porque en ese momento no tenía ganas de seguir buscando. Compra por razones que él mismo no sabría articular bien si le preguntaras.

Y ahí está el problema con preguntar directamente qué quiere la gente. Henry Ford —aunque la cita sea probablemente apócrifa— tenía algo de razón: si le hubieran preguntado a sus clientes, habrían pedido caballos más rápidos. No porque fueran cortos de miras, sino porque las personas formulan sus deseos dentro del marco de referencia que conocen. Piden mejoras sobre lo que ya existe. Rara vez articulan lo que todavía no existe.

Por eso la investigación de cliente bien hecha no pregunta qué quieres. Observa qué haces. Y encuentra la distancia entre las dos cosas.

Los datos que no duelen no cuentan

Existe una heurística sencilla para saber si una investigación está funcionando de verdad: ¿estás encontrando algo que te incomoda?

Si el proceso de investigación transcurre sin ninguna sorpresa, sin ningún dato que contradiga algo que dabas por sentado, sin ningún momento de «esto no era lo que esperaba», hay dos posibilidades. La primera, que realmente tenías todo bien calibrado. La segunda, y bastante más probable, que no has mirado donde duele.

Los buenos estrategas desarrollan con el tiempo una habilidad particular: la búsqueda activa del dato que los contradice. No porque sean masoquistas, sino porque entienden que ese dato es el más valioso. El dato que confirma lo que ya sabes no cambia nada. El dato que lo pone en cuestión te da la oportunidad de corregir antes de que el mercado te corrija a ti.

Hay una práctica concreta para esto que algunos equipos llaman «devil’s advocate data»: antes de cerrar cualquier análisis, alguien tiene el encargo explícito de buscar evidencia que soporte la conclusión contraria. No para bloquear la decisión, sino para obligar al equipo a confrontarla. Si la conclusión sobrevive a ese ejercicio, es más sólida. Si no sobrevive, acabas de evitar un error.

Preguntar por lo que hicieron, no por lo que harían

Una de las distinciones más útiles en investigación de cliente, y una de las más ignoradas, es la diferencia entre comportamiento pasado e intención futura.

Cuando preguntas «¿comprarías este producto si existiera?» o «¿cuánto estarías dispuesto a pagar por esta funcionalidad?», estás recogiendo proyecciones. Y las proyecciones sobre comportamiento propio son, sistemáticamente, demasiado optimistas. La gente sobreestima su disposición a pagar, subestima sus inercias, y olvida que en el momento real de decisión habrá distracciones, alternativas, pereza y decenas de factores que ahora mismo no está considerando.

El comportamiento pasado es diferente. «¿Cuándo fue la última vez que cambiaste de proveedor en este tipo de servicio?» o «¿Qué fue lo último que compraste en esta categoría y por qué?» son preguntas que generan información real, aunque sea incómoda o más difícil de interpretar.

Los mejores trabajos de Jobs-to-be-Done no preguntan qué quiere el cliente. Reconstruyen, paso a paso, cómo tomó la última decisión de compra. Qué estaba haciendo cuando se dio cuenta de que necesitaba algo. Qué opciones consideró. Qué le hizo avanzar y qué le generó fricción. Cómo recuerda el momento en que decidió.

Esa reconstrucción narrativa revela motivaciones que el cliente no hubiera mencionado si le hubieras preguntado directamente. Porque la mayoría de las veces ni él mismo las conoce del todo.

Separar quien formula de quien analiza

Hay una medida organizativa simple que reduce el sesgo de confirmación de forma sustancial: que quien diseña las hipótesis no sea quien analiza los datos.

Cuando la misma persona que tiene una apuesta sobre el resultado es también quien lee los números, la contaminación es casi inevitable. No hace falta mala intención. Basta con que esa persona pase más tiempo leyendo los datos que confirman que los que contradicen. Con que encuadre los outliers como excepciones. Con que formule las conclusiones de una forma que haga que lo que encontró suene más parecido a lo que esperaba.

Separar los roles no siempre es posible en equipos pequeños. Pero incluso en ese caso, hay una alternativa: el protocolo de pre-registro. Antes de analizar los datos, el equipo escribe por escrito qué espera encontrar y qué conclusión cambiaría su opinión. Esa declaración previa actúa como ancla. Cuando lleguen los resultados, habrá algo concreto con lo que compararlos, en vez de una hipótesis que se recuerda de forma conveniente.

La investigación que funciona te obliga a reconsiderar algo

Al final, hay una prueba sencilla para saber si un proceso de investigación de cliente valió la pena.

¿Cambió algo en lo que pensabas?

No todo. No hace falta que el proceso lo derribe todo. Pero si saliste de él exactamente igual que entraste, si todas las conclusiones confirmaron lo que ya creías y ningún dato te obligó a ajustar aunque fuera una variable, el proceso no fue investigación. Fue validación.

Y la validación tiene su lugar — cuando ya has tomado la decisión y necesitas argumentos para comunicarla internamente. Pero llamarla investigación es un problema, porque ocupa el espacio mental y el presupuesto de algo que debería ser más honesto y más útil.

La investigación de cliente que realmente funciona no te da lo que quieres escuchar. Te da lo que necesitas saber para no equivocarte en lo que importa.

Si eso resulta incómodo, vas por buen camino.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *