PathMBA Vault

Customer experience

Para que los pacientes confíen en la IA médica, tienen que entenderla

por Chiara Longoni, Romain Cadario, Carey K. Morewedge

Para que los pacientes confíen en la IA médica, tienen que entenderla

Las aplicaciones de salud para el diagnóstico basadas en la inteligencia artificial están cada vez más disponibles para los consumidores; incluso se puede acceder a algunas a través de teléfonos inteligentes. Google, por ejemplo, anunciado recientemente su entrada en este mercado con una herramienta basada en la IA que ayuda a las personas a identificar las afecciones de la piel, el cabello y las uñas. Sin embargo, un obstáculo importante para la adopción de estas tecnologías es que los consumidores tienden a confiar menos en la IA médica que en los proveedores de atención médica humana. Creen que la IA médica no satisfacer sus necesidades únicas y funciona peor que los proveedores humanos comparables, y piensan que no pueden hacer que la IA rinda cuentas por los errores de la misma manera que podrían hacerlo con un humano.

Esta resistencia a la IA en el ámbito de la medicina representa un desafío para los responsables políticos que desean mejorar la atención médica y para las empresas que venden servicios de salud innovadores. Nuestra investigación proporciona información que podría utilizarse para superar esta resistencia.

En un artículo publicado recientemente en Naturaleza Comportamiento humano, mostramos que la adopción de la IA médica por parte de los consumidores tiene tanto que ver con su percepción negativa de los proveedores de cuidados con IA como con su visión poco realista y positiva de los proveedores de cuidados humanos. Los consumidores se muestran reacios a confiar en los proveedores de cuidados de la IA porque no creen que entiendan o entiendan objetivamente cómo la IA toma las decisiones médicas; ven su toma de decisiones como una caja negra. Los consumidores también se muestran reacios a utilizar la IA médica porque creen erróneamente que entienden mejor la forma en que los humanos toman las decisiones médicas.

Nuestra investigación, que consta de cinco experimentos en línea con representantes nacionales y muestras de conveniencia de 2.699 personas y un estudio de campo online sobre Google Ads: muestra lo poco que los consumidores entienden cómo la IA médica llega a sus conclusiones. Por ejemplo, analizamos cuánto sabían muestras representativas a nivel nacional de estadounidenses sobre la forma en que los proveedores de cuidados de la IA toman las decisiones médicas, por ejemplo, si un lunar en la piel es maligno o benigno. Los participantes no obtuvieron mejores resultados de lo que lo habrían hecho si lo hubieran adivinado; les habría ido igual de bien si hubieran elegido las respuestas al azar. Pero los participantes reconocieron su ignorancia: calificaron como baja su comprensión de la forma en que los proveedores de cuidados de la IA toman las decisiones médicas.

Por el contrario, los participantes sobreestimaron lo bien que entendían la forma en que los médicos humanos toman las decisiones médicas. A pesar de que los participantes en nuestros experimentos tenían un conocimiento fáctico similar de las decisiones que tomaban la IA y los proveedores de cuidados humanos, afirmaron entender mejor cómo funcionaba la toma de decisiones en los seres humanos.

En un experimento, pedimos a una muestra en línea representativa a nivel nacional de 297 residentes de los EE. UU. que nos dijera cuánto sabían sobre cómo un médico o un algoritmo examinaría las imágenes de su piel para identificar lesiones cutáneas cancerosas. Luego les pedimos que nos explicaran los procesos de toma de decisiones del proveedor humano o algorítmico. (Este tipo de intervención que ha sido usado antes para acabar con las creencias ilusorias sobre lo bien que se entienden los procesos causales. La mayoría de las personas, por ejemplo, creen que entienden cómo funciona un helicóptero. Solo cuando les pide que expliquen cómo funciona, se dan cuenta de que no tienen ni idea.)

Después de que los participantes trataran de dar una explicación, volvieron a calificar su comprensión del proceso de toma de decisiones médicas humanas o algorítmicas. Descubrimos que obligar a las personas a explicar los procesos de toma de decisiones del proveedor humano o algorítmico reducía la medida en que los participantes pensaban que entendían las decisiones que tomaban los proveedores humanos, pero no decisiones tomadas por los proveedores algorítmicos. Esto se debe a que su comprensión subjetiva de la forma en que los médicos toman las decisiones se había exagerado y su comprensión subjetiva de la forma en que los proveedores de IA tomaban las decisiones no se vio afectada por el hecho de tener que dar una explicación, posiblemente porque ya habían pensado que esta última era una caja negra.

En otro experimento, con una muestra representativa a nivel nacional de 803 estadounidenses, medimos qué tan bien las personas subjetivamente consideraron que entendían los procesos de toma de decisiones humanos o algorítmicos para diagnosticar el cáncer de piel y, luego, los pusieron a prueba para comprobar qué tan bien los entendían realmente. Para ello, creamos un cuestionario con la ayuda de expertos médicos: un equipo de dermatólogos de una escuela de medicina de los Países Bajos y un equipo de desarrolladores de una popular aplicación de detección del cáncer de piel en Europa. Descubrimos que, aunque los participantes declararon tener una comprensión subjetiva más deficiente de las decisiones médicas tomadas por los algoritmos que de las decisiones tomadas por los proveedores humanos, poseían una comprensión real igualmente limitada de las decisiones tomadas por los proveedores humanos y algorítmicos.

¿Qué pueden hacer los responsables políticos y las empresas para fomentar la adopción de la IA médica por parte de los consumidores?

Descubrimos dos intervenciones exitosas y ligeramente diferentes que consistían en explicar cómo los proveedores, tanto algorítmicos como humanos, toman las decisiones médicas. En un experimento, explicamos cómo ambos tipos de proveedores utilizan el marco ABCD (asimetría, borde, color y diámetro) para examinar las características de un lunar y evaluar el riesgo de malignidad. En otro experimento, explicamos cómo ambos tipos de proveedores examinan la similitud visual entre un lunar objetivo y otros lunares que se sabe que son malignos.

Estas intervenciones redujeron con éxito la diferencia en la comprensión percibida de la toma de decisiones algorítmica y humana, al aumentar la comprensión percibida de la primera. A su vez, las intervenciones aumentaron las intenciones de los participantes de utilizar proveedores de cuidados algorítmicos sin reducir sus intenciones de utilizar proveedores humanos.

La eficacia de estas intervenciones no se limita al laboratorio. En un estudio de campo sobre Google Ads, hicimos que los usuarios vieran uno de los dos anuncios diferentes de una aplicación de detección del cáncer de piel en los resultados de búsqueda. Un anuncio no ofrecía ninguna explicación y el otro explicaba brevemente cómo funciona el algoritmo. Tras una campaña de cinco días, el anuncio en el que se explicaba cómo funciona el algoritmo generó más clics y un porcentaje de clics más alto.

Los servicios de salud basados en la IA son fundamentales para la misión de brindar servicios asequibles y de alta calidad a los consumidores de países desarrollados y en desarrollo. Nuestros hallazgos muestran cómo una mayor transparencia (abrir la caja negra de la IA) puede ayudar a cumplir esta misión fundamental.

Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología

Arreglar los chatbots requiere psicología, no tecnología

Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.