por Thomas C. Redman

Se suponía que la ciencia de datos iba a crear un nuevo auge de la productividad. Pero, para muchas empresas, ese auge nunca llegó. ¿Qué ha ido mal? Si bien las empresas han invertido en herramientas de datos, gran parte de los datos que se introducen en estos sistemas son de baja calidad, con información mal etiquetada, faltante o incorrecta, lo que a su vez genera más trabajo y más obstáculos para el sistema. Para abordar esto, las empresas deberían: 1) unir a los empleados a la causa y explicar por qué esto es importante, 2) medir la calidad de los datos en toda la gama de departamentos, funciones y tareas, 3) atacar sin descanso las fuentes del impuesto sobre la calidad de los datos.

• • •

En principio, las nuevas tecnologías ayudan a las empresas a aumentar la productividad: los sistemas logísticos garantizan que tienen las cantidades adecuadas de cosas que necesitan, los sistemas operativos ayudan a automatizar la producción y la entrega de bienes y servicios, y los sistemas de apoyo a las decisiones aportan los análisis y pronósticos que los gerentes necesitan para tomar mejores decisiones. Además, durante la pandemia, muchas empresas se apresuraron a digitalizar aún más rápido. La productividad debería estar aumentando. Lamentablemente, no ha sucedido.

Si bien hay muchas explicaciones contrapuestas, creo que hay una explicación fundamental para las bajas ganancias de productividad y, lo que es más importante, una forma de impulsarlas: las tecnologías digitales se ven impulsadas por datos y demasiados datos son simplemente malos, lo que niega las posibles ganancias de productividad. Las nuevas tecnologías han proliferado, pero la gestión de datos no ha seguido el ritmo, lo que ha supuesto enormes costes y fricciones. La clave para impulsar la productividad reside en eliminar las causas fundamentales de los datos incorrectos.

¿Qué hace que los datos sean «buenos» o «malos»?

Por definición, los datos son de alta calidad si lo son adecuado para los usos previstos en operaciones, toma de decisiones, planificación y ciencia de datos. Hay mucho en esta definición. Cada uso tiene sus propios requisitos y el incumplimiento de ellos reduce la productividad. Para ilustrarlo, considere tres escenarios.

En el primer escenario, un vendedor depende de conduce los datos del departamento de marketing para hacer su trabajo. Se requieren relativamente pocos datos (unos 20 elementos de datos), pero el registro debe estar completo y correcto. Por lo tanto, cuando el nombre de contacto falta o es incorrecto, pero se ve fácilmente, el vendedor tiene que encontrarlo o corregirlo. Esto es difícil, en el mejor de los casos lleva un tiempo considerable. Peor aún, si no detectan un error, pueden perder la venta. Ambos reducen la productividad. Y tenga en cuenta que podría reemplazar» conduce datos y ventas» con» ventas datos y operaciones», pedidos procesados datos con gestión de inventario y finanzas», o cualquiera de las cientos de formas en que un departamento depende de los datos de otro.

En el segundo escenario, el gerente necesita saber cuántos clientes nuevos ha adquirido la empresa en el último trimestre para fijar los presupuestos. Utilizan datos de los sistemas financiero y de gestión de relaciones con los clientes, porque ninguno de los dos arroja una respuesta en la que todos confíen. Surgen problemas adicionales porque Ventas se acredita a un nuevo cliente cuando se firma la primera oferta, mientras que Finanzas espera hasta que se pague la primera factura. La mayoría de los trimestres las cifras están «lo suficientemente cerca», pero cuando la discrepancia es grande, el gerente debe pedir a su personal que profundice en ambos sistemas para solucionarlo. Aun así, nunca se confía plenamente en «la respuesta», por lo que, como realidad práctica, los nuevos presupuestos se basan más en conjeturas que en datos. Se desperdicia más dinero cuando los presupuestos son demasiado altos y se pierden oportunidades cuando son demasiado bajos. De nuevo, aunque los detalles son diferentes, la esencia de este escenario se desarrolla muchas veces al día.

El tercer escenario implica desarrollar un algoritmo para mejorar la retención de clientes mediante inteligencia artificial. El conjunto de datos de entrenamiento debe ser razonablemente preciso y las distintas fuentes de datos deben alinearse. Si no, los científicos de datos deben dedicar tiempo a analizar los datos para darles forma. Además, estas fuentes deben estar libres de sesgos, lo que puede resultar especialmente complejo, ya que los sesgos solo se revelan una vez que se utiliza el nuevo algoritmo. Por último, hay requisitos de datos adicionales una vez que se active el algoritmo. Si bien los costes de tratar todos estos temas pueden ser considerables, los costes de pérdida de oportunidades son aún más importantes. Los datos incorrectos dificultan el aprovechamiento de la inteligencia artificial y la transformación digital, lo que priva a las empresas de posibles aumentos de productividad.

Las empresas no incluyen estos costes en su sistema de contabilidad. Afortunadamente, se pueden obtener estimaciones lo suficientemente buenas para empezar aplicando el» regla del 10»: cuesta 10 veces más completar una unidad de trabajo cuando los datos tienen algún defecto que cuando los datos son buenos. En la práctica, esto significa que si los datos son buenos para el 90% de su trabajo, terminar el 10% restante costará más debido a toda la fricción añadida. (90 x 1 = 90, 10 x 10 = 100.) Estos costes añadidos se pueden ver de varias maneras:

  • el coste del trabajo «sin valor añadido» (ningún cliente informado paga más porque tiene que corregir datos incorrectos),
  • el coste incurrido en la fábrica de datos ocultos («oculto», porque el sistema de contabilidad no capta el coste; «fábrica de datos», porque la gente reelabora los datos),
  • el coste de las ineficiencias,
  • el «golpe a la productividad», o
  • tal vez de manera contraria a la intuición, el tamaño de la oportunidad para mejorar la calidad y aumentar la productividad.

Un gerente o una empresa no necesitan eliminar por completo los errores. Al reducir incluso la tasa de error a la mitad, reducen significativamente los costes y aumentan la productividad.

¿Cuánto le cuestan los datos de baja calidad?

Como deja claro la regla del 10, cuanto más bajo el calidad de los datos, menor es la productividad y mayor es el impuesto. Pero, ¿cómo pueden los líderes saber (o estimar) cuando se enfrentan a una baja calidad de datos?

Cuando dirijo las sesiones de educación ejecutiva, pido a los asistentes que hagan un ejercicio y llamo al «Método del viernes por la tarde», en la que auditan una muestra de los datos de sus últimas 100 unidades de trabajo. Con una hoja de cálculo, revisan los elementos de datos de cada unidad de trabajo y buscan errores, marcando cada celda donde encuentran un error. Luego, cuentan el número de unidades libres de errores que tenían, lo que proporciona una puntuación de calidad de los datos en una escala del 0 al 100. (Por ejemplo, si tuviera 85 unidades con datos sin errores, obtendría una puntuación de 85). Por último, para completar la tarea, aplican la regla del 10 y estiman el impuesto para sus áreas.

Permítame ofrecer dos momentos destacados de estas sesiones:

  • Solo el 8% informa de una puntuación de DQ de 90 o más.
  • La mayor puntuación en el rango de 40 a 80, con una puntuación media de 61. En ese nivel, el impuesto es 3,5 veces mayor que el coste total si todos los datos son correctos. Del mismo modo, la productividad disminuye a menos de una cuarta parte de lo que sería.

Sin duda, cada empresa es diferente y también lo es su oportunidad de reducir el coste de los datos incorrectos y mejorar la productividad. Pero es importante, incluso para las empresas que consumen menos datos. Y para algunos, puede que represente su mejor oportunidad de mejorar su rendimiento general.

Qué pueden hacer las empresas

Entonces, ¿cómo deberían las empresas esforzarse por elevar el nivel de calidad de los datos? Me parece que demasiados simplemente aceptan el impuesto asociado a la baja calidad de los datos como otro coste de hacer negocios. Pero esto es un desperdicio, simple y llanamente. Los líderes deben reconocer la oportunidad de mejorar y actuar.

Primero, adopte el lenguaje que mejor acerque a la gente a la causa y les ayude a entender el problema. He utilizado «impuestos» aquí, pero «trabajo sin valor añadido», «fábrica de datos ocultos» u «oportunidad» pueden tener éxito en otros.

En segundo lugar, desarrolle sus perfiles de calidad de los datos midiendo la calidad de los datos en toda la gama de departamentos, funciones y tareas, mediante la medición del viernes por la tarde descrita anteriormente.

En tercer lugar, ataque sin descanso las fuentes del impuesto sobre la calidad de los datos. Crear los datos correctamente la primera vez es la forma mejor y más rápida de hacerlo. Esto significa eliminar las causas principales del error. Llevo mucho tiempo ayudando a las empresas a hacerlo y, de lejos, las dos causas principales más frecuentes son:

  1. Quienes crean datos simplemente no saben que los demás tienen requisitos para sus datos, y
  2. Los clientes de datos (los que son víctimas de datos incorrectos) actúan de forma reflexiva para corregir los datos incorrectos e incurren inconscientemente en el impuesto.

Ambos son relativamente fáciles de resolver: Clientes de datos debe acostumbrarse a buscar a los creadores y explicarles sus requisitos de calidad. Creadores de datos, a su vez, debe entender estos requisitos y encontrar y eliminar las causas fundamentales del incumplimiento para cumplirlos. Si esto suena a una gestión de calidad de la «vieja escuela», lo es. Lo más importante es que es increíblemente eficaz.

Por último, ignore el discurso de «la calidad de los datos es aburrida», porque simplemente no es cierto. Según mi experiencia, a la mayoría de las personas les gustan sus nuevas funciones como creadores de datos y clientes de datos y, desde luego, aprecian dedicar menos tiempo a trabajar en problemas de datos mundanos. Empiece por áreas en las que los gerentes tengan una mente abierta y fíjese la meta inicial de reducir a la mitad la tasa de error en seis meses. Capacite a las personas, ayúdelas a mejorar una o dos y, luego, libérelas. Pase a la siguiente zona y gane impulso a medida que avanza.

La productividad no tiene por qué, ni debe, estancarse. Muchos encontrarán que la conexión entre la productividad y la calidad es contradictoria, pero ahí hay una enorme oportunidad. Los datos incorrectos perjudican la productividad. Es hora de hacer que desaparezca.

Leave a comment