Pathbooks

¿Sin tiempo para aprender?

Nuestros Audioresúmenes te mantienen al dia con los artículos y libros de negocio, cada día

(puedes darte de baja cuando quieras)

¿Los clientes le mienten a su chatbot?

Los sistemas automatizados de atención al cliente que utilizan herramientas como formularios online, chatbots y otras interfaces digitales se han vuelto cada vez más comunes en una amplia gama de sectores.

¿Los clientes le mienten a su chatbot?

¿No tienes tiempo de leer?

Nuestros Audioresúmenes, te mantienen al día con los mejores artículos y libros de negocios; aún y cuando no tienes tiempo para leer.

Resumen.

Estas herramientas ofrecen muchas ventajas tanto a las empresas como a sus clientes, pero una investigación reciente sugiere que también pueden tener un coste: a través de dos sencillos experimentos, los investigadores descubrieron que las personas tienen más del doble de probabilidades de mentir cuando interactúan con un sistema digital que cuando hablan con un humano.

Esto se debe a que una de las principales fuerzas psicológicas que nos anima a ser honestos es el deseo intrínseco de proteger nuestra reputación, y la interacción con una máquina, fundamentalmente, supone un riesgo menor para la reputación que hablar con un humano de verdad. La buena noticia es que los investigadores también encontraron que los clientes que tienen más probabilidades de hacer trampa suelen optar por utilizar un sistema de comunicación digital (en lugar de humano), lo que da a las empresas una vía para identificar a los usuarios que tienen más probabilidades de hacer trampa.

Por supuesto, no se puede eliminar la deshonestidad digital. Pero con una mejor comprensión de la psicología que hace que las personas sean más o menos propensas a mentir, las organizaciones pueden crear sistemas que desalienten el fraude, identifiquen posibles casos de trampas y animar de forma proactiva a la gente a ser más honesta.

• • •

Imagine que acaba de hacer un pedido en línea de Amazon. ¿Qué le impide afirmar que la entrega nunca llegó y pedir un reembolso, incluso si realmente llegó según lo prometido? O digamos que acaba de comprar un teléfono nuevo y se le cayó inmediatamente, rompiendo la pantalla. Envía una solicitud de reemplazo y el sistema automatizado le pregunta si el producto ha llegado roto o si los daños son su culpa. ¿Qué dice?

Deshonestidad está lejos de ser un fenómeno nuevo. Pero a medida que los chatbots, los formularios en línea y otras interfaces digitales se vuelven cada vez más comunes en un amplia gama de las aplicaciones de servicio al cliente, distorsionar la verdad para ahorrar dinero se ha vuelto más fácil que nunca. ¿Cómo pueden las empresas animar a sus clientes a ser honestos sin dejar de aprovechar las ventajas de las herramientas automatizadas?

Para explorar esta pregunta, mis coautores y yo realizamos dos experimentos sencillos eso nos permitió medir el comportamiento honesto de una manera discreta. Primero, un investigador pidió a los participantes que lanzaran una moneda diez veces y les dijo que recibirían un premio en efectivo según los resultados. Hicimos que algunos participantes informaran de los resultados de sus lanzamientos de moneda al investigador mediante videollamada o chat, mientras que otros informaron de sus resultados a través de un formulario en línea o un bot asistente de voz. Lanzaban las monedas en privado, así que no había forma de saber si algún participante individual mintió, pero pudimos estimar la tasa de trampas para un grupo de participantes (ya que, en general, solo el 50% de los lanzamientos de moneda deberían tener éxito).

¿Qué encontramos? De media, cuando los participantes informaron a un humano, informaron del 54,5% de lanzamientos de moneda con éxito, lo que corresponde a una tasa de trampas estimada del 9%. Por el contrario, cuando informaban a una máquina, hacían trampa el 22% de las veces. En otras palabras, se espera un poco de trampa de todos modos, pero nuestros participantes tenían más del doble de probabilidades de hacer trampa cuando hablaban con un sistema digital que cuando hablaban con un humano. También descubrimos que las trampas descaradas, que definimos como informar de una tasa de éxito increíblemente alta de nueve o diez lanzamientos de moneda con éxito, eran más de tres veces más comunes cuando se informaba a una máquina que cuando se informaba a un humano.

A continuación, determinamos mediante una encuesta de seguimiento que el principal mecanismo psicológico que impulsaba este efecto era el nivel de preocupación de los participantes por su reputación personal. Hicimos una serie de preguntas diseñadas para medir la preocupación de los participantes por la forma en que los veía el investigador y descubrimos que quienes habían informado de sus lanzamientos de monedas a una máquina se sentían mucho menos cercanos al investigador y, como resultado, estaban mucho menos preocupados por su reputación personal que aquellos que informó al investigador. Como tal, planteamos la hipótesis de que antropomorfizar el sistema de informes digitales (en nuestro caso, darle una voz humana en lugar de una interfaz de solo texto) podría hacer que pareciera más humano y, por lo tanto, hacer que los participantes se preocuparan más por mantener su reputación y fueran menos propensos a mentir. Sin embargo, descubrimos que los participantes seguían haciendo trampa con la misma cantidad, lo que sugiere que si la gente sabe que está interactuando con una máquina, es poco probable que darle características humanas a esa máquina haga una gran diferencia.

Sin duda, es posible que avance de manera convincente Sistemas de IA similares a los humanos podría hacer de esta una estrategia más eficaz en el futuro. Pero por ahora, está claro que las herramientas digitales hacen que las trampas sean mucho más frecuentes y no hay una solución rápida obvia.

La buena noticia es que nuestro segundo experimento identificó una estrategia que podía ayudar a las empresas a abordar este problema: Si bien no se puede eliminar la deshonestidad, es posible predecir quién es más probable que le mienta a un robot y luego presione a esos usuarios para que usen un canal de comunicación humana en su lugar.

En este experimento, primero evaluamos la tendencia general de los participantes a hacer trampa pidiéndoles que lanzaran una moneda diez veces e informaran de los resultados a través de un formulario en línea, y luego los categorizamos en consecuencia como «probables tramposos» y «probables que digan la verdad». En la siguiente parte del experimento, les ofrecimos la posibilidad de informar de sus lanzamientos de moneda a un humano o mediante un formulario en línea. En general, aproximadamente la mitad de los participantes prefería un humano y la otra mitad prefería el formulario en línea, pero cuando echamos un vistazo más de cerca, descubrimos que los «probables tramposos» tenían muchas más probabilidades de elegir el formulario en línea, mientras que los «probables que dicen la verdad» preferían denunciar a un humano. Esto sugiere que las personas que son más propensas a hacer trampa de forma proactiva traten de evitar situaciones en las que tienen que hacerlo a una persona (en lugar de a una máquina), presumiblemente debido a una conciencia consciente o subconsciente de que mentir a un humano sería más desagradable psicológicamente.

Por lo tanto, si las personas deshonestas tienden a autoseleccionarse en los canales de comunicación digital, esto podría ofrecer una vía para detectar y reducir mejor el fraude. Específicamente, la recopilación de datos sobre si los clientes optan por utilizar canales de comunicación virtuales en lugar de humanos podría complementar los esfuerzos actuales de las empresas por identificar a los usuarios que tienen más probabilidades de hacer trampa, lo que permitiría a estas organizaciones centrar sus recursos de detección de fraudes de manera más eficaz. Por supuesto, los clientes pueden averiguar lo que están haciendo las empresas e intentar engañar al sistema eligiendo hablar con un agente real, evitando así que los marquen como de mayor riesgo, pero esto es realmente beneficioso para todos, ya que según nuestras investigaciones, será mucho más probable que se comporten honestamente si hablan con un humano.

En última instancia, no hay cura para la deshonestidad digital. Después de todo, mentirle a un robot no se siente tan mal como mentirle a un humano de verdad. Las personas están programadas para proteger su reputación y, fundamentalmente, las máquinas no representan la misma amenaza para la reputación que los humanos. Pero con una mejor comprensión de la psicología que hace que las personas sean más o menos propensas a mentir, las organizaciones pueden crear sistemas que puedan identificar posibles casos de trampas e, idealmente, animar a la gente a ser más honesta.

por Alain Cohn

Pathbooks

¿Sin tiempo para aprender?

Nuestros Audioresúmenes te mantienen al dia con los artículos y libros de negocio, cada día

(puedes darte de baja cuando quieras)

Scroll al inicio