Si quiere que su equipo utilice la IA de generación, céntrese en la confianza
por Ashley Reichheld, Aniket Bandekar, Ian Thompson, Lauren Teegarden

Entre los llamativos titulares que anuncian billones de dólares en valor potencial y miles de millones de dólares gastadas por las organizaciones para darse cuenta de ese valor, puede suponer que las herramientas de IA de la generación se han convertido en una parte vital del lugar de trabajo. Los datos cuentan una historia diferente.
Según el reciente de Deloitte Informe sobre el estado de la IA generativa, solo el 11% de las organizaciones que han proporcionado herramientas de IA a los empleados afirman que la IA de generación se ha incorporado correctamente en las rutinas diarias de sus empleados (el éxito en este contexto significa que más del 60% de la organización utiliza la IA de generación a diario). De las organizaciones con un menor uso (menos del 20% de los empleados declaran su uso diario), aproximadamente la mitad informa de que su iniciativa de IA de generación más avanzada está por debajo de las expectativas. Por el contrario, de las organizaciones que han tenido más éxito a la hora de impulsar la adopción, el 86% afirma que cumple o supera las expectativas de ROI.
Entonces, ¿por qué los empleados de algunas organizaciones no adoptan la IA de la generación? Creemos que la respuesta se reduce a la falta de confianza.
Medimos la confianza mediante una plataforma que tenemos sobre lo que ya había escrito en HBR, que mide la confianza de las personas midiendo su opinión sobre la fiabilidad, la capacidad, la transparencia y la humanidad de una organización o tecnología, lo que llamamos los «cuatro factores de la confianza». Piénselo de esta manera: si va a un restaurante y descubre que no es fiable (perdió su reserva), carece de capacidad (su comida está mal preparada), no es transparente (incluye recargos ocultos en el cheque) y el personal no expresa humanidad (ignoran las necesidades de discapacidad de su acompañante), no confiará en ello y no regresará. Lo mismo se aplica a una tecnología como la IA de generación. Si no cumple con estas medidas, la gente no confiará en ello. Y cuando los usuarios no confían en una tecnología, no se sentirán cómodos utilizándola —o incluso pueden rechazarla por completo— sin darse cuenta de su verdadero potencial.
¿Qué es lo que causa esta desconfianza? Si bien las herramientas de IA de generación ya están demostrando ser útiles, ya que colaboran con el personal en la investigación, la redacción de propuestas, el diseño de presentaciones, la selección de los candidatos y más, los empleados suelen mostrarse escépticos y preocupados por la tendencia de la tecnología a inventar cosas o a «alucinar». A muchos también les preocupa que, a medida que la IA de generación asuma más tareas y funciones más amplias, el personal humano pierda su valor o incluso pase a ser redundante. No debería sorprender, entonces, que muchos empleados aborden la IA de la generación con cierta desconfianza e incluso ansiedad.
La buena noticia es que generar confianza en la IA de la generación es posible y, si se hace bien, puede acelerar la adopción por parte de los empleados y aumentar su comodidad con la tecnología. Ofrecemos algunas formas de generar confianza basándonos en un proyecto piloto para fomentar la adopción que llevamos a cabo recientemente en nuestra empresa.
Presentamos nuestro asistente de IA de generación
Como muchas otras firmas, nuestra organización, Deloitte, vio el potencial de una generación de asistentes de IA para mejorar el rendimiento de los empleados de docenas de maneras, desde realizar tareas rutinarias, como escribir notas de reuniones, hasta colaborar activamente en trabajos analíticos y creativos, como la investigación de mercado y la generación de ideas. Nuestro equipo de transformación lanzó una generación de asistentes de IA personalizada para abordar algunas de estas tareas en otoño de 2023.
Deloitte llevó a cabo una serie de actividades educativas y de formación para familiarizar a la organización con la IA de la generación y promover el uso del nuevo asistente. Durante los meses siguientes, vimos una adopción alentadora en toda la organización. Sin embargo, nuestro objetivo es que nuestra generación de asistentes de IA sea acogida e integrada plenamente en el trabajo de todos. Sabiendo que la falta de confianza suele ser un impedimento para la adopción de la IA generacional, decidimos poner nuestra confianza en la investigación científica a trabajar como parte de un proyecto piloto para aumentar el uso de la herramienta por parte de las personas.
Nueve meses después del lanzamiento inicial, seleccionamos un grupo de prueba de 750 consultores, desde analistas jóvenes hasta directivos, y hicimos una medición de referencia de los cuatro factores de confianza en la herramienta antes de que comenzaran nuestros esfuerzos centrados en fomentar la confianza. También hicimos una serie de preguntas para averiguar las razones por las que los empleados puntuaron la herramienta de IA de la generación como lo hicieron en cada uno de los factores de confianza. De esta manera, si observáramos puntuaciones notablemente bajas en uno u otro factor, sabríamos hacia dónde tenemos que centrar nuestros esfuerzos de fomento de la confianza.
De hecho, la encuesta de referencia reveló que los usuarios no entendían la amplia gama de formas en que la herramienta podía ayudarlos. Como nuevos usuarios, nuestros consultores todavía estaban aprendiendo la mejor manera de interactuar e impulsar la IA de generación en una variedad de casos de uso, por lo que le dieron puntuaciones bajas en el aspecto de fiabilidad. También descubrimos que los usuarios no tenían claro qué fuentes de datos utilizaba la herramienta ni cómo protegía los datos. Así que, el asistente de IA de la generación también obtuvo puntuaciones bajas en el elemento de transparencia.
Al entender dónde estaban las brechas de confianza, modificamos los materiales educativos y las actividades que se habían lanzado al principio. Diseñamos estos cambios específicamente para mejorar la percepción de los consultores sobre la fiabilidad y la transparencia de la herramienta y, esperábamos, aumentar su uso y animar a los no usuarios a probarla. Estas son cuatro de las intervenciones que diseñamos:
- Perfiles de usuario inteligentes: Breves artículos sobre los superusuarios que destacan la variedad de formas en las que utilizan la herramienta en su trabajo diario y los beneficios que obtienen de ella. Hemos dado ejemplos reales de consultores de Deloitte que lo utilizan para abordar el amplio conjunto de aplicaciones para las que está diseñado.
- Pregúntele al equipo de la generación de IA: Sesiones públicas de preguntas y respuestas sobre los aspectos técnicos de la herramienta, que incluyen explicaciones claras de cómo se entrena y cómo se utilizan los datos. Utilizamos estos foros para abordar específicamente las ideas erróneas que surgieron en la encuesta de referencia.
- Prompt-A-Thons: Eventos interactivos en directo en los que los participantes aprenden a hacer que el chatbot genere ideas que puedan utilizar para resolver desafíos específicos, demostrando su aplicación práctica y las diversas formas en que pueden utilizarla. En estos ejercicios adoptamos un enfoque de formación del formador, centrándonos en cómo generar confianza en la herramienta y no simplemente en cómo utilizarla.
- Foros comunitarios: Además, organizamos convocatorias comunitarias de IA y análisis para fomentar el intercambio de conocimientos y la participación de la comunidad, complementadas con actualizaciones periódicas a través de nuestro boletín y canales de práctica. En estos foros, compartimos nuestra confianza, ideas y soluciones, promovimos el aprendizaje y la mejora continuos y demostramos que nos centramos en la transparencia y la fiabilidad. Estas comunicaciones repetidas y coherentes ayudaron a que las intervenciones anteriores se mantuvieran.
Cuando volvimos a medir los niveles de confianza al final de nuestro proyecto piloto, vimos que las puntuaciones de confianza aumentaron un 16% en general para los usuarios de la herramienta. Y, cuando analizamos las puntuaciones de una serie de declaraciones más detalladas que utilizamos para profundizar en la transparencia y la fiabilidad, observamos mejoras particularmente drásticas en dos de las que nos dirigimos específicamente con nuestras intervenciones: un aumento del 49% en la percepción de la calidad y la coherencia de los resultados de la herramienta (una medida de fiabilidad) y un aumento del 52% en la comprensión de la protección de la privacidad de la herramienta y las barreras que impiden el uso de los datos personales y de los clientes (un indicador de transparencia). También vimos mejoras prometedoras en la adopción, como un aumento del 14% en los nuevos usuarios, un aumento del 13% en los usuarios habituales y un enorme aumento del 65% en el número medio de visitas por usuario.
A medida que repitamos las encuestas y obtengamos más información sobre qué elementos de nuestra generación de IA son más poderosos para generar confianza, refinaremos aún más las interacciones con nuestros consultores y con la propia generación de IA. Por ejemplo, la próxima versión del asistente virtual se alimentará con los datos de nuestro índice de confianza, de modo que los consultores podrán pedir al chatbot que proporcione las puntuaciones de confianza de los clientes y el personal para nuestros clientes más importantes, con el objetivo de aumentar capacidad puntuaciones para la herramienta. A través de este proceso iterativo, esperamos que nuestras intervenciones mejoren continuamente y que veamos crecer la confianza en la herramienta. En última instancia, esperamos que cada vez más miembros de nuestra organización vean la herramienta como un colaborador de confianza, que trabajen con ella de manera que les simplifique la vida y les ayude a hacer su mejor trabajo.
Generar confianza desde el principio
Las empresas se apresuran a aprovechar la IA de la generación y los empleados son, en cierto sentido, los sujetos de prueba, los usuarios de primera línea. Estas empresas pueden aprender de nuestra experiencia e incorporar la creación de confianza en sus programas de IA de generación orientados a los empleados. Para hacer esto:
En primer lugar, no espere a lanzar la IA de generación en el lugar de trabajo para empezar a pensar en la confianza. Ponga las necesidades humanas en el centro e incorpore las consideraciones de confianza de los empleados en el diseño desde el principio. Empiece por los problemas humanos que la generación de IA debe abordar. ¿El objetivo es ayudar a los empleados a trabajar de manera más eficiente? ¿Eliminar las tareas que consumen mucho tiempo? ¿Impulsar la creatividad? ¿Las herramientas que ofrece ayudan realmente a satisfacer estas necesidades?
En segundo lugar, priorice los elementos de diseño que generen la confianza de los empleados, centrándose en los cuatro factores. Los empleados deben sentir que la IA de generación es capaz, confiable, transparente y tiene «humanidad», en el sentido de que satisface sus necesidades individuales y les ayuda a hacer su mejor trabajo. Pruebe estos elementos que mejoran la confianza durante el entrenamiento preguntando a los usuarios, por ejemplo: «¿La herramienta se comunica con usted en un lenguaje sencillo y directo? ¿Cree que sus resultados son precisos e imparciales?» Si los usuarios dan una mala puntuación en alguna de estas preguntas básicas de confianza, averigüe por qué y esfuércese para solucionar el problema.
Proponemos evaluar la confianza empezando por el entrenamiento de la IA de la generación. A través de nuestra investigación, hemos modificado las principales afirmaciones de la herramienta de encuestas de confianza que utilizamos para que sean relevantes a la hora de juzgar a una persona no humana, pidiéndole que califique el nivel de acuerdo con las siguientes afirmaciones:
- “[La herramienta de IA de la generación] apoya directamente mis necesidades específicas y mejora mi rendimiento laboral» (un indicador de humanidad)
- «Los resultados de [la herramienta de IA de la generación] son explicables y utilizan un lenguaje sencillo y sencillo para compartir la información clave, su propósito, el uso de los datos y las políticas de uso» (transparencia)
- «[La herramienta de IA de la generación] produce materiales/resultados precisos e imparciales alineados con su propósito (capacidad) declarado
- «[La herramienta de IA de la generación] cumple su propósito de forma constante y confiable» (fiabilidad)
En tercer lugar, anticipe y aborde las posibles preocupaciones de los empleados sobre la confiabilidad de la IA de la generación como parte de sus esfuerzos de cambio y adopción, materiales de creación y formación que aborden los cuatro factores, por ejemplo, la forma en que la IA utiliza y protege sus datos.
En cuarto lugar, realizar encuestas de seguimiento periódicas sobre la confianza de los empleados en la generación de IA, identificar las áreas en las que la confianza sigue siendo débil y modificar o desarrollar nuevos materiales de formación y otras intervenciones para abordar el problema. Las encuestas continuas son esenciales para saber qué funciona y qué no y garantizar una mejora continua.
Y, por último, evalúe la confianza general de los empleados en su organización y trabaje con diligencia para mejorarla también. Las empresas líderes en fideicomisos superan significativamente a las rezagadas en términos de valor total de mercado — hasta 4 veces — y ver una mayor adopción de las nuevas tecnologías. Ya hemos descrito anteriormente cómo medir la confianza de los empleados y las innumerables formas en que se benefician las organizaciones de alta confianza. Nuestras últimas investigaciones muestran que los empleados están mucho más dispuestos a utilizar la IA de la generación y la IA si confían en su organización: los empleados de estas empresas de «alta confianza» son 2,6 veces más probabilidades para sentirse cómodo utilizando las herramientas de IA que ofrece su empleador que el personal de empresas con puntuaciones de confianza bajas.
Quizás lo que es aún más importante, generar confianza es lo correcto. Ganarse la confianza crea los tipos de relaciones que queremos construir, el tipo de organizaciones a las que queremos pertenecer y el tipo de mundo en el que queremos vivir.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.