Los sistemas automatizados de servicio al cliente que utilizan herramientas como formularios en línea, chatbots y otras interfaces digitales se han hecho cada vez más comunes en una amplia gama de sectores. Estas herramientas ofrecen muchas ventajas tanto a las empresas como a sus clientes, pero una nueva investigación sugiere que también tienen un coste: mediante dos sencillos experimentos, los investigadores descubrieron que las personas tienen más del doble de probabilidades de mentir cuando interactúan con un sistema digital que cuando hablan con un humano. Esto se debe a que una de las principales fuerzas psicológicas que nos anima a ser honestos es el deseo intrínseco de proteger nuestra reputación, e interactuar con una máquina supone fundamentalmente un riesgo menor para la reputación que hablar con un humano de verdad. La buena noticia es que los investigadores también descubrieron que los clientes que tienen más probabilidades de hacer trampa suelen optar por utilizar un sistema de comunicación digital (en lugar de humano), lo que da a las empresas una forma de identificar a los usuarios que tienen más probabilidades de hacer trampa. Por supuesto, no se puede eliminar la deshonestidad digital. Pero con una mejor comprensión de la psicología que hace que las personas sean más o menos propensas a mentir, las organizaciones pueden crear sistemas que desalienten el fraude, identifiquen los posibles casos de trampa y empujen a las personas de forma proactiva a ser más honestas.
•••
Imagine que acaba de hacer un pedido en línea en Amazon. ¿Qué le impide afirmar que la entrega nunca llegó y solicitar un reembolso, aunque realmente haya llegado según lo prometido? O supongamos que acaba de comprar un teléfono nuevo e inmediatamente lo deja caer, rompiendo la pantalla. Envía una solicitud de sustitución y el sistema automático pregunta si el producto ha llegado roto o si los daños son su culpa. ¿Qué dice? Deshonestidad está lejos de ser un fenómeno nuevo. Pero a medida que los chatbots, los formularios en línea y otras interfaces digitales se hacen cada vez más comunes enamplia gama de las aplicaciones de servicio al cliente, falsear la verdad para ahorrar dinero se ha vuelto más fácil que nunca. ¿Cómo pueden las empresas animar a sus clientes a ser honestos y, al mismo tiempo, aprovechar las ventajas de las herramientas automatizadas? Para explorar esta cuestión, mis coautores y yo dirigimosdos experimentos sencillos eso nos permitió medir el comportamiento honesto de una manera discreta. En primer lugar, un investigador pidió a los participantes que lanzaran una moneda diez veces y les dijo que se llevarían un premio en metálico según los resultados. Hicimos que algunos participantes informaran de sus resultados al lanzar una moneda al investigador mediante videollamada o chat, mientras que otros informaron de sus resultados a través de un formulario en línea o un bot de asistente de voz. Lanzaron las monedas en privado, así que no había forma de saber si algún participante individual mintió, pero pudimos estimar la tasa de trampas de un grupo de participantes (ya que, en general, solo el 50% de las monedas lanzadas deberían tener éxito). ¿Qué hemos encontrado? De media, cuando los participantes denunciaron a un humano, dijeron que habían lanzado una moneda con un 54,5% de éxito, lo que corresponde a una tasa estimada de trampas del 9%. Por el contrario, cuando denunciaban a una máquina, hacían trampa el 22% de las veces. En otras palabras, es de esperar un poco de trampa de todos modos, pero nuestros participantes tenían más del doble de probabilidades de hacer trampa cuando hablaban con un sistema digital que cuando hablaban con un humano. También descubrimos que hacer trampa descarada, que definíamos como reportar una tasa de éxito inverosímilmente alta de nueve o diez lanzamientos de monedas exitosos, era más de tres veces más común cuando se denunciaba a una máquina que cuando se denunciaba a un humano. Luego, mediante una encuesta de seguimiento, determinamos que el principal mecanismo psicológico que impulsaba este efecto era el nivel de preocupación de los participantes por su reputación personal. Hicimos una serie de preguntas diseñadas para medir la preocupación de los participantes por la forma en que los veía el investigador y descubrimos que quienes habían denunciado sus lanzamientos de monedas a una máquina se sentían mucho menos cerca del investigador y, como resultado, estaban mucho menos preocupados por su reputación personal que los que rendían cuentas al investigador. Por lo tanto, planteamos la hipótesis de que antropomorfizar el sistema de informes digitales (en nuestro caso, dándole una voz humana en lugar de una interfaz de solo texto) podría hacer que pareciera más humano y, por lo tanto, hacer que los participantes se preocuparan más por mantener su reputación y fueran menos propensos a mentir. Sin embargo, descubrimos que los participantes seguían haciendo igual de trampa, lo que sugiere que si las personas saben que están interactuando con una máquina, es poco probable que darle a esa máquina rasgos humanos marque una gran diferencia. Sin duda, es posible que los avances sean convincentessistemas de IA parecidos a los humanos podría hacer de esta una estrategia más eficaz en el futuro. Pero por ahora, está claro que las herramientas digitales hacen que las trampas sean mucho más frecuentes y no existe una solución rápida obvia. La buena noticia es que nuestro segundo experimento identificó una estrategia que puede ayudar a las empresas a abordar este problema: si bien no se puede eliminar la deshonestidad, es posible predecir quién es más probable que le mienta a un robot y, luego, obligue a esos usuarios a utilizar un canal de comunicación humano en su lugar. En este experimento, primero evaluamos la tendencia general de los participantes a hacer trampa pidiéndoles que lanzaran una moneda diez veces y declararan los resultados a través de un formulario en línea, y luego los clasificamos en consecuencia como «probables tramposos» y «probables que digan la verdad». En la siguiente parte del experimento, les ofrecimos la posibilidad de elegir entre denunciar el lanzamiento de una moneda a una persona o mediante un formulario en línea. En general, aproximadamente la mitad de los participantes preferían un formulario humano y la otra mitad prefería el formulario en línea, pero si lo analizamos más de cerca, descubrimos que los «probables tramposos» tenían muchas más probabilidades de elegir el formulario en línea, mientras que «los que probablemente dicen la verdad» preferían denunciar a un humano. Esto sugiere que las personas que tienen más probabilidades de hacer trampa de forma proactiva tratan de evitar situaciones en las que tienen que hacerlo a una persona (en lugar de a una máquina), presumiblemente debido a que son conscientes o subconscientes de que mentirle a un humano sería más desagradable psicológicamente. Por lo tanto, si las personas deshonestas tienden a seleccionar por sí mismas los canales de comunicación digital, esto podría ofrecer una forma de detectar y reducir mejor el fraude. En concreto, recopilar datos sobre si los clientes optan por utilizar canales de comunicación virtuales en lugar de humanos podría complementar los esfuerzos actuales de las empresas para identificar a los usuarios que tienen más probabilidades de hacer trampa, lo que permitiría a estas organizaciones centrar sus recursos de detección de fraudes de manera más eficaz. Por supuesto, los clientes pueden darse cuenta de lo que hacen las empresas e intentar jugar con el sistema eligiendo hablar con un agente de verdad, evitando así que los señalen como de mayor riesgo, pero esto es realmente beneficioso para todos, ya que, según nuestra investigación, es mucho más probable que se comporten con honestidad si hablan con un humano. En última instancia, no hay cura para la deshonestidad digital. Después de todo, mentirle a un robot no es tan malo como mentirle a la cara de un humano de verdad. Las personas están preparadas para proteger su reputación y, fundamentalmente, las máquinas no representan la misma amenaza para la reputación que los humanos. Pero con una mejor comprensión de la psicología que hace que las personas sean más o menos propensas a mentir, las organizaciones pueden crear sistemas que puedan identificar los posibles casos de trampa e, idealmente, empujar a las personas a ser más honestas.