Se suponía que la ciencia de datos iba a crear un nuevo auge de la productividad. Pero, para muchas empresas, ese auge nunca llegó. ¿Qué ha ido mal? Si bien las empresas han invertido en herramientas de datos, gran parte de los datos que se introducen en estos sistemas son de baja calidad, con información mal etiquetada, faltante o incorrecta, lo que a su vez genera más trabajo y más carga para el sistema. Para abordar este problema, las empresas deberían: 1) unir a los empleados a la causa y explicar por qué esto es importante, 2) medir la calidad de los datos en todos los departamentos, funciones y tareas, 3) atacar sin descanso las fuentes del impuesto sobre la calidad de los datos.

•••

En principio, las nuevas tecnologías ayudan a las empresas a aumentar la productividad: los sistemas logísticos garantizan que tienen la cantidad correcta de cosas que necesitan, los sistemas operativos ayudan a automatizar la producción y la entrega de bienes y servicios, y los sistemas de apoyo a la toma de decisiones ponen al alcance de sus manos los análisis y las previsiones que los directores necesitan para tomar mejores decisiones. Además, durante la pandemia, muchas empresas se apresuraron a digitalizarse aún más rápido. La productividad debería dispararse. Lamentablemente,no ha sucedido.

Si bien hay muchas explicaciones contrapuestas, creo que hay una explicación fundamental para los bajos aumentos de productividad y, lo que es más importante, una forma de impulsarlos: las tecnologías digitales están impulsadas por datos y demasiados datos son simplemente malos, lo que niega los posibles aumentos de productividad. Las nuevas tecnologías han proliferado, pero la gestión de datos no ha seguido el ritmo, lo que ha añadido enormes costes y fricciones. La clave para aumentar la productividad está en eliminar las causas fundamentales de los datos incorrectos.

¿Qué hace que los datos sean «buenos» o «malos»?

Por definición, los datos son de alta calidad si son apto para los usos previstos en operaciones, toma de decisiones, planificación y ciencia de datos. Hay mucho en esta definición. Cada uso tiene sus propios requisitos y, si no los cumple, la productividad se reduce. Para ilustrarlo, considere tres escenarios.

En el primer escenario, un vendedor depende de datos de leads del departamento de marketing para hacer su trabajo. Se necesitan relativamente pocos datos (unos 20 elementos de datos), pero el registro debe estar completo y ser correcto. Por lo tanto, cuando el nombre de contacto falta o es incorrecto, pero es fácil de detectar, el vendedor tiene que encontrarlo o corregirlo. Esto es difícil, en el mejor de los casos lleva un tiempo considerable. Peor aún, si no detectan un error, pueden perder la venta. Ambos reducen la productividad. Y tenga en cuenta que podría reemplazar» conduce datos y ventas» con» ventas datos y operaciones», pedidos procesados datos con gestión de inventario y finanzas», o cualquiera de las cientos de formas en que un departamento depende de los datos de otro.

En el segundo escenario, un gerente necesita saber cuántos clientes nuevos ha adquirido la empresa en el último trimestre para fijar los presupuestos. Utilizan datos del sistema financiero y de gestión de las relaciones con los clientes, porque ninguno de los dos arroja una respuesta en la que todos confíen. Surgen otros problemas porque Ventas se acredita para un nuevo cliente cuando se firma la primera oferta, mientras que Finanzas espera a que se pague la primera factura. La mayoría de los trimestres las cifras están «lo suficientemente cerca», pero cuando la discrepancia es grande, el gerente debe pedir a su personal que analice en profundidad ambos sistemas para solucionarla. Aun así, nunca se confía plenamente en «la respuesta», por lo que, en la práctica, los nuevos presupuestos se basan más en conjeturas que en datos. Se desperdicia más dinero cuando los presupuestos son demasiado altos y se pierden oportunidades cuando son demasiado bajos. De nuevo, aunque los detalles son diferentes, la esencia de este escenario se desarrolla muchas veces al día.

El tercer escenario implica el desarrollo de un algoritmo para mejorar la retención de clientes mediante inteligencia artificial. El conjunto de datos de entrenamiento debe ser razonablemente preciso y las distintas fuentes de datos deben estar alineadas. Si no, los científicos de datos deben dedicar tiempo a ordenar los datos para darles forma. Además, estas fuentes deben estar libres de sesgos, lo que puede resultar especialmente complejo, ya que los sesgos solo se revelan una vez que se utiliza el nuevo algoritmo. Por último, hay requisitos de datos adicionales una vez que el algoritmo entre en funcionamiento. Si bien los costes de abordar todos estos problemas pueden ser considerables, los costes de la pérdida de oportunidades son aún más importantes. Los datos incorrectos dificultan el aprovechamiento de la inteligencia artificial y la transformación digital, lo que priva a las empresas de posibles aumentos de productividad.

Las empresas no incluyen estos costes en su sistema de contabilidad. Afortunadamente, se pueden obtener estimaciones lo suficientemente buenas como para empezar aplicando el»regla del 10»: completar una unidad de trabajo cuesta 10 veces más cuando los datos son defectuosos de alguna manera que cuando los datos son buenos. En la práctica, esto significa que si los datos son válidos para el 90% del trabajo, terminar el 10% restante le costará más debido a toda la fricción añadida. (90 x 1 = 90, 10 x 10 = 100.) Estos costes adicionales se pueden ver de varias formas:

  • el coste del trabajo «sin valor añadido» (ningún cliente informado paga más porque tiene que corregir datos incorrectos),
  • el coste incurrido en la fábrica de datos ocultos («oculto», porque el sistema de contabilidad no captura el coste; «fábrica de datos», porque la gente reelabora los datos),
  • el coste de las ineficiencias,
  • el «golpe a la productividad», o
  • quizás de manera contradictoria, el tamaño de la oportunidad de mejorar la calidad y aumentar la productividad.

Un gerente o una empresa no necesitan eliminar por completo los errores. Al reducir incluso la tasa de error a la mitad, reducen significativamente los costes y aumentan la productividad.

¿Cuánto le cuestan los datos de baja calidad?

Como deja claro la regla del 10, cuanto más bajo el calidad de los datos, menor será la productividad y mayores serán los impuestos. Pero, ¿cómo pueden los líderes saber (o estimar) cuando se enfrentan a datos de baja calidad?

Cuando dirijo las sesiones de educación ejecutiva, pido a los asistentes que hagan un ejercicio que llamo«Método de los viernes por la tarde», en la que auditan una muestra de los datos de sus últimas 100 unidades de trabajo. Mediante una hoja de cálculo, revisan los elementos de datos de cada unidad de trabajo y buscan errores, marcando cada celda en la que encuentran un error. A continuación, cuentan el número de unidades libres de errores que tenían, lo que proporciona una puntuación de calidad de los datos en una escala de 0 a 100. (Por ejemplo, si tuviera 85 unidades con datos sin errores, obtendría una puntuación de 85.) Por último, para completar la tarea, aplican la regla del 10 y calculan los impuestos para sus áreas.

Permítame ofrecer dos puntos destacados de estas sesiones:

  • Solo el 8% informa una puntuación de DQ de 90 o más.
  • La mayoría puntúa en el rango de 40 a 80, con una puntuación media de 61. A ese nivel, el impuesto es 3,5 veces mayor que el coste total si todos los datos fueran correctos. Del mismo modo, la productividad cae a menos de una cuarta parte de lo que sería.

Sin duda, cada empresa es diferente y también lo es su oportunidad de reducir el coste de los datos incorrectos y mejorar la productividad. Pero es importante, incluso para las empresas que utilizan menos datos. Y para algunos, puede que represente su mejor oportunidad de mejorar el rendimiento general.

Qué pueden hacer las empresas

Entonces, ¿cómo deberían las empresas seguir elevando el listón de la calidad de los datos? Me parece que demasiados se limitan a aceptar el impuesto asociado a la baja calidad de los datos como otro coste de hacer negocios. Pero esto es un desperdicio, pura y simple. Los líderes tienen que reconocer la oportunidad de mejora y actuar.

En primer lugar, adopte el lenguaje que mejor reúna a las personas en favor de la causa y las ayude a entender el problema. He utilizado «impuestos» aquí, pero «el trabajo sin valor añadido», la «fábrica de datos ocultos» o la «oportunidad» pueden repercutir en otros.

En segundo lugar, desarrolle sus perfiles de calidad de los datos midiendo la calidad de los datos en toda la gama de departamentos, funciones y tareas, utilizando la medición de los viernes por la tarde descrita anteriormente.

En tercer lugar, ataque sin descanso las fuentes del impuesto sobre la calidad de los datos. Crear los datos correctamente la primera vez es la forma mejor y más rápida de hacerlo. Esto significa eliminar las causas fundamentales del error. He ayudado a las empresas a hacerlo durante mucho tiempo y, de lejos, las dos causas principales más frecuentes son:

  1. Los que crean datos simplemente no saben que otros tienen requisitos para sus datos, y
  2. Los clientes de datos (aquellos que son víctimas de datos incorrectos) actúan por reflejo para corregir datos incorrectos e inconscientemente incurren en el impuesto.

Ambas son relativamente fáciles de resolver: Clientes de datos debe acostumbrarse a buscar a los creadores y explicarles sus requisitos de calidad. Creadores de datos, a su vez, debe entender estos requisitos y encontrar y eliminar las causas fundamentales de los fallos para cumplirlos. Si esto suena a gestión de calidad de la «vieja escuela», lo es. Lo más importante es que es increíblemente eficaz.

Por último, ignore lo de «la calidad de los datos es aburrida», porque simplemente no es cierto. Según mi experiencia, a la mayoría de las personas les gustan sus nuevas funciones como creadores y clientes de datos y, desde luego, aprecian dedicar menos tiempo a trabajar en temas de datos mundanos. Empiece por las áreas en las que los directivos tengan la mente abierta y se fijen el objetivo inicial de reducir a la mitad la tasa de errores en seis meses. Capacite a las personas, ayúdelas a mejorar una o dos y, luego, a liberarlas. Pase a la siguiente zona, ganando impulso a medida que avanza.

La productividad no tiene por qué, de hecho no debe, estancarse. Muchos considerarán que la conexión entre la productividad y la calidad es contradictoria, pero ahí hay enormes oportunidades. Los datos incorrectos perjudican la productividad. Es hora de hacer que desaparezca.