Los datos incorrectos están mermando la productividad de su equipo
por Thomas C. Redman

En principio, las nuevas tecnologías ayudan a las empresas a aumentar la productividad: los sistemas logísticos garantizan que tienen las cantidades correctas de cosas que necesitan, los sistemas operativos ayudan a automatizar la producción y la entrega de bienes y servicios, y los sistemas de apoyo a la toma de decisiones proporcionan los análisis y previsiones que los gestores necesitan para tomar mejores decisiones. Además, durante la pandemia, muchas empresas se apresuraron a digitalizarse aún más rápido. La productividad debería estar aumentando. Por desgracia, no ha sucedido.
Si bien hay muchas explicaciones contrapuestas, creo que hay una explicación fundamental para las bajas ganancias de productividad y, lo que es más importante, una forma de impulsarlas: las tecnologías digitales se ven impulsadas por datos y demasiados datos son simplemente malos, ya que anulan las posibles ganancias de productividad. Las nuevas tecnologías han proliferado, pero la gestión de datos no ha seguido el ritmo, lo que ha añadido enormes costes y fricciones. La clave para aumentar la productividad está en eliminar las causas principales de los datos incorrectos.
¿Qué hace que los datos sean «buenos» o «malos»?
Por definición, los datos son de alta calidad si son apto para los usos previstos en operaciones, toma de decisiones, planificación y ciencia de datos. Hay mucho en esta definición. Cada uso tiene sus propios requisitos y el incumplimiento de los mismos reduce la productividad. Para ilustrarlo, considere tres escenarios.
En el primer escenario, el vendedor depende de lidera los datos del departamento de marketing para hacer su trabajo. Se necesitan relativamente pocos datos (unos 20 elementos de datos), pero el registro debe estar completo y ser correcto. Por lo tanto, cuando el nombre de contacto falta o es incorrecto, pero se ve fácilmente, el vendedor tiene que encontrarlo o corregirlo. Esto es difícil, en el mejor de los casos lleva bastante tiempo. Peor aún, si no detectan un error, pueden perder la venta. Ambos reducen la productividad. Y tenga en cuenta que podría reemplazar» conduce datos y ventas» con» ventas datos y operaciones», pedidos tramitados datos con Gestión de Inventario y Finanzas», o cualquiera de las cientos de formas en que un departamento depende de los datos de otro.
En el segundo escenario, el gerente necesita saber cuántos clientes nuevos ha adquirido la empresa en el último trimestre para fijar los presupuestos. Utilizan datos de los sistemas financiero y de gestión de relaciones con los clientes, porque ninguno de los dos arroja una respuesta en la que todos confíen. Surgen problemas adicionales porque Ventas se da crédito para un nuevo cliente cuando se firma la primera oferta, mientras que Finanzas espera a que se pague la primera factura. La mayoría de los trimestres las cifras están «lo suficientemente cerca», pero cuando la discrepancia es grande, el gerente debe pedir a su personal que analice a fondo ambos sistemas para solucionarlo. Aun así, nunca se confía plenamente en «la respuesta», por lo que, en la práctica, los nuevos presupuestos se basan más en conjeturas que en datos. Se desperdicia más dinero cuando los presupuestos son demasiado altos y se pierden oportunidades cuando son demasiado bajos. De nuevo, aunque los detalles son diferentes, la esencia de este escenario se desarrolla muchas veces al día.
El tercer escenario implica desarrollar un algoritmo para mejorar la retención de clientes mediante inteligencia artificial. El conjunto de datos de entrenamiento debe ser razonablemente preciso y las distintas fuentes de datos deben estar alineadas. Si no, los científicos de datos deben dedicar tiempo a poner en forma los datos. Además, estas fuentes deben estar libres de sesgos, lo que puede resultar especialmente complejo, ya que los sesgos solo se revelan una vez que se utiliza el nuevo algoritmo. Por último, hay requisitos de datos adicionales una vez que el algoritmo entre en funcionamiento. Si bien los costes de abordar todos estos problemas pueden ser considerables, los costes de oportunidad perdidos son aún más importantes. Los datos incorrectos dificultan el aprovechamiento de la inteligencia artificial y la transformación digital, lo que priva a las empresas de posibles aumentos de productividad.
Las empresas no registran estos costes en su sistema de contabilidad. Afortunadamente, las estimaciones lo suficientemente buenas para empezar se pueden obtener aplicando el» regla de los 10»: cuesta 10 veces más completar una unidad de trabajo cuando los datos tienen algún defecto que cuando los datos son buenos. En la práctica, esto significa que si los datos son buenos para el 90% de su trabajo, acabar con el 10% restante costará más debido a la fricción añadida. (90 x 1 = 90, 10 x 10 = 100.) Estos costes añadidos se pueden ver de varias maneras:
- el coste del trabajo «sin valor añadido» (ningún cliente informado paga más porque tiene que corregir datos incorrectos),
- el coste incurrido en la fábrica de datos oculta («oculta», porque el sistema de contabilidad no captura el coste; «fábrica de datos», porque la gente está reelaborando los datos),
- el coste de las ineficiencias,
- el «golpe a la productividad» o
- quizás de manera contradictoria, el tamaño de la oportunidad de mejorar la calidad y aumentar la productividad.
Un gerente o una empresa no necesitan eliminar por completo los errores. Incluso al reducir la tasa de errores a la mitad, reducen significativamente los costes y aumentan la productividad.
¿Cuánto le cuestan los datos de baja calidad?
Como deja claro la regla del 10, cuanto más bajo el calidad de los datos, menor es la productividad y mayor es el impuesto. Pero, ¿cómo pueden los líderes saber (o estimar) cuando se trata de datos de baja calidad?
Cuando dirijo las sesiones de educación ejecutiva, pido a los asistentes que hagan un ejercicio que llamo «Método del viernes por la tarde», en la que auditan una muestra de los datos de sus últimas 100 unidades de trabajo. Mediante una hoja de cálculo, revisan los elementos de datos de cada unidad de trabajo y buscan errores, marcando cada celda en la que encuentran un error. Luego, cuentan el número de unidades sin errores que tenían, lo que proporciona una puntuación de calidad de los datos en una escala del 0 al 100. (Por ejemplo, si tuviera 85 unidades con datos sin errores, obtendría un 85.) Por último, para completar la tarea, aplican la regla del 10 y estiman el impuesto para sus áreas.
Permítame ofrecer dos momentos destacados de estas sesiones:
- Solo el 8% informa de una puntuación de DQ de 90 o más.
- La mayor puntuación en el rango de 40 a 80, con una puntuación media de 61. A ese nivel, el impuesto es 3,5 veces mayor que el coste total si todos los datos fueran correctos. Del mismo modo, la productividad cae a menos de una cuarta parte de lo que sería.
Sin duda, cada empresa es diferente y también lo es su oportunidad de reducir el coste de los datos incorrectos y mejorar la productividad. Pero es importante, incluso para las firmas que consumen menos datos. Y para algunos, puede que represente su mejor oportunidad para mejorar el rendimiento general.
Qué pueden hacer las empresas
Entonces, ¿cómo deberían las empresas subir el listón de la calidad de los datos? Me parece que demasiados simplemente aceptan el impuesto asociado a la baja calidad de los datos como un coste más de hacer negocios. Pero esto es un despilfarro, pura y simple. Los líderes tienen que reconocer la oportunidad de mejorar y actuar.
Primero, adopte el lenguaje que mejor ayude a las personas a la causa y les ayude a entender el problema. He utilizado la palabra «impuestos» aquí, pero «trabajo sin valor añadido», «fábrica de datos oculta» o «oportunidad» pueden repercutir en otros.
En segundo lugar, desarrolle sus perfiles de calidad de los datos midiendo la calidad de los datos en todos los departamentos, funciones y tareas, utilizando la medición de los viernes por la tarde descrita anteriormente.
En tercer lugar, atacar sin descanso las fuentes del impuesto sobre la calidad de los datos. Crear los datos correctamente la primera vez es la mejor y más rápida forma de hacerlo. Esto significa eliminar las causas principales del error. He ayudado a las empresas a hacer esto durante mucho tiempo y, de lejos, las dos causas principales más frecuentes son:
- Los que crean datos simplemente no saben que otros tienen requisitos para sus datos, y
- Los clientes de datos (los que son víctimas de datos incorrectos) actúan por reflejo para corregir datos incorrectos e incurren inconscientemente en impuestos.
Ambas son relativamente fáciles de resolver: Clientes de datos debe acostumbrarse a buscar a los creadores y explicarles sus requisitos de calidad. Creadores de datos, a su vez, debe entender estos requisitos y encontrar y eliminar las causas principales del incumplimiento de los mismos. Si esto suena a gestión de calidad de la «vieja escuela», lo es. Lo más importante es que es increíblemente eficaz.
Por último, ignore el discurso de «la calidad de los datos es aburrida», porque simplemente no es cierto. Según mi experiencia, a la mayoría de las personas les gustan sus nuevas funciones como creadores y clientes de datos y, desde luego, aprecian dedicar menos tiempo a trabajar en temas de datos mundanos. Comience en áreas en las que los gerentes tengan una mente abierta y fíjese el objetivo inicial de reducir a la mitad la tasa de error en seis meses. Capacite a las personas, ayúdelas a lograr una o dos mejoras y, luego, liberarlas. Pase a la siguiente zona, cobrando impulso a medida que avanza.
La productividad no tiene por qué, de hecho, no debe estancarse. Muchos considerarán que la conexión entre la productividad y la calidad es contradictoria, pero ahí hay enormes oportunidades. Los datos incorrectos perjudican la productividad. Es hora de hacer que desaparezca.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.