Cómo convertir análisis en criterio y decisión, evitando el falso rigor.

Hay algo paradójico en muchas organizaciones: nunca habíamos tenido tantos datos, tantos dashboards y tanta capacidad técnica… y, sin embargo, sigue siendo frecuente que las decisiones importantes se tomen por intuición, por jerarquía o por inercia. No porque falten gráficos, sino porque falta criterio.

La visualización es necesaria, pero no es el final del camino. En el mejor de los casos, la visualización hace visible un patrón. Lo que cuesta ,y lo que realmente aporta valor, es convertir ese patrón en una decisión defendible: qué hacemos, por qué lo hacemos, qué sacrificamos al hacerlo y cómo sabremos si funcionó.

Ese salto es el corazón del data storytelling serio. Y ese salto es también donde aparece un enemigo silencioso: el falso rigor.

El falso rigor: cuando parece que sabemos, pero solo estamos “presentando”

Llamo falso rigor a una sensación de certeza que se apoya en números y estética, pero no en un razonamiento sólido. Es el tipo de análisis que impresiona en una slide, pero se rompe en cuanto alguien pregunta: “¿Qué evidencia sería suficiente para cambiar de opinión?” o “¿Qué alternativa estamos descartando?”El falso rigor suele entrar por tres puertas.

La primera es la obsesión por la métrica. Cuando una medida se convierte en objetivo, deja de ser una buena medida. Es la idea conocida como Ley de Goodhart: optimizas el número y, sin darte cuenta, deformas el comportamiento del sistema. Puedes mejorar el KPI y empeorar el negocio. La historia está llena de ejemplos: desde políticas públicas hasta entornos corporativos, donde la organización aprende a “ganar el juego” del indicador, no el juego del valor. 

La segunda puerta es convertir correlaciones en causalidad. Nos encanta decir “esto pasó por culpa de X”, porque tranquiliza: simplifica un mundo complejo en una frase accionable. El problema es que muchas veces esa causalidad no está demostrada. Puede haber factores de contexto, cambios simultáneos, sesgos de selección o simples coincidencias temporales. En esos casos, el data story se convierte en un relato convincente… y frágil.

La tercera puerta es más técnica, pero más común de lo que parece: la flexibilidad analítica no declarada. En investigación se ha documentado ampliamente que, cuando se toman decisiones “a la carta” durante el análisis (qué excluir, qué segmentar, qué medir, cuándo parar), el riesgo de falsos positivos se dispara. No hace falta mala fe: basta con probar suficientes variaciones hasta que aparece el resultado que “encaja”. 

Y en la misma línea, la American Statistical Association ha insistido en que la significación estadística no puede usarse como un sello simplista de verdad: un p-value no te dice, por sí solo, ni importancia práctica, ni probabilidad de que la hipótesis sea cierta, ni calidad del diseño del estudio. 

Todo esto, en conjunto, produce una situación muy reconocible: informes que parecen impecables, pero que no ayudan a decidir mejor. Mucho “output”, poco “outcome”.

El cambio de mentalidad: de “mostrar datos” a “ingenierizar decisiones”

Un data story útil no empieza con un gráfico. Empieza con una decisión. Por eso me resulta especialmente valioso el enfoque de decision intelligence: entender y “diseñar” cómo se toman decisiones, cómo se evalúan sus resultados y cómo se mejora a partir de feedback. Dicho sin jerga: conectar evidencia con acción y aprendizaje, en lugar de quedarse en reporting.  Cuando trabajas así, cambia incluso la forma de mirar un dashboard. Ya no preguntas “¿qué podemos enseñar?”, sino “¿qué necesitamos decidir?”. Y eso reduce ruido, acorta discusiones y eleva el estándar de responsabilidad.

La prueba final: ¿tu análisis obliga a elegir?

Hay una pregunta simple que separa visualización de data storytelling:¿Después de ver esto, alguien puede tomar una decisión concreta sin inventarse el criterio? Si la respuesta es “no”, probablemente falta una pieza clave: el puente entre análisis y criterio. Porque decidir no es solo “saber”. Decidir es asumir un trade-off: elegir una opción y renunciar a otra, con una justificación explícita y un plan para comprobar si la apuesta era razonable.

En un artículo de blog, no voy a proponerte una lista de verificación interminable. Pero sí te propongo un gesto práctico que suele cambiarlo todo: la próxima vez que prepares un informe, escribe antes de nada una frase de una línea que empiece por un verbo: “Vamos a priorizar X”, “vamos a pausar Y”, “vamos a reasignar presupuesto de A a B”, “vamos a lanzar/posponer…”. Si no puedes completar esa frase de forma honesta con lo que sabes, el problema no es el gráfico. El problema es que todavía no tienes un criterio defendible (o no estás midiendo lo que hace falta para construirlo).

Y la IA generativa, ¿me ayuda?

La IA generativa puede ser un acelerador fantástico, precisamente en el tramo donde más fallamos: pasar del análisis a un memo de decisión claro. Puede ayudarte a redactar, a estructurar argumentos, a proponer alternativas, a señalar saltos lógicos, a identificar confusores plausibles. Pero también puede amplificar el falso rigor, porque escribe con autoridad incluso cuando la evidencia es débil. Por eso el principio es sencillo: úsala como copiloto de pensamiento y comunicación, no como árbitro de verdad. Si el estándar metodológico es bajo, la IA solo lo hará “más presentable”

Lo que diferencia a los equipos maduros

Los equipos maduros no son los que tienen más dashboards. Son los que han acordado, explícitamente, cómo se decide: qué umbrales importan, qué riesgos aceptan, qué métricas son guías y cuáles son objetivos, qué evidencia exigirán antes de escalar una acción, y cómo revisarán lo que pasó para aprender sin reescribir el pasado. Ese enfoque conecta con la idea de decision intelligence: mejorar la calidad de las decisiones entendiendo explícitamente cómo se toman y cómo se evalúan y mejoran con feedback. Eso es data storytelling más allá de la visualización: una disciplina para convertir análisis en criterio, y criterio en decisión. Sin trucos. Sin maquillaje. Sin seguridad injustificada

Si este planteamiento te resuena, lo más habitual es que no necesites “más reporting”, sino un estándar compartido que cierre el salto entre insight y acción: narrativa verificable, criterios explícitos y un método de revisión posterior que convierta cada decisión en aprendizaje. A veces, basta con formular bien el atasco para que empiece a resolverse. Si te apetece, cuéntame cuál es la decisión que más fricción genera en tu contexto, en una nota corta, no prometo recetas universales, pero sí una respuesta razonada y adaptada al caso.