Tres formas en las que la IA se está volviendo más emocional
por Sophie Kleber

Imágenes de Wunderfool/Getty
En enero de 2018, Annette Zimmermann, vicepresidenta de investigación de Gartner, proclamado: «Para 2022, su dispositivo personal sabrá más sobre su estado emocional que su propia familia». Solo dos meses después, un estudio histórico de la Universidad de Ohio afirmó que su algoritmo era ahora mejor detectando las emociones que las personas son.
Los sistemas y dispositivos de IA pronto reconocerán, interpretarán, procesarán y simularán las emociones humanas. Una combinación de análisis facial, análisis de patrones de voz y aprendizaje profundo ya puede decodificar las emociones humanas para investigación de mercado y votación política propósitos. Con empresas como Afectiva, Más allá de lo verbal y Sensay proporcionando un software de análisis de sentimientos listo para usar, el computación afectiva se estima que el mercado crecerá hasta 41 000 millones de dólares para 2022, como firmas como Amazon, Google, Facebook, y Manzana corren por decodificar las emociones de sus usuarios.
Centro Insight
Adopción de la IA
Patrocinado por SAS
Cómo utilizan las empresas la inteligencia artificial en sus operaciones comerciales.
Las aportaciones emocionales provocarán un cambio de las interacciones basadas en datos y con un alto coeficiente intelectual a experiencias profundas guiadas por el coeficiente intelectual, lo que dará a las marcas la oportunidad de conectarse con los clientes de una forma mucho más profunda, personal nivel. Pero leer las emociones de las personas es un delicado negocios. Las emociones son muy personales y a los usuarios les preocupa el miedo, la invasión y la manipulación de la privacidad. Antes de que las empresas se sumerjan, los líderes deberían tener en cuenta preguntas como:
- ¿Qué ofrece? ¿Su propuesta de valor se presta naturalmente a la participación de las emociones? ¿Y puede justificar de manera creíble la inclusión de pistas emocionales para mejorar la experiencia de usuario?
- ¿Cuáles son las intenciones emocionales de sus clientes cuando interactúan con su marca? ¿Cuál es la naturaleza de la interacción?
- ¿El usuario le ha dado permiso explícito para analizar sus emociones? ¿El usuario mantiene el control de sus datos y puede revocar su permiso en cualquier momento?
- ¿Su sistema es lo suficientemente inteligente como para leer y reaccionar con precisión ante las emociones del usuario?
- ¿Cuál es el peligro en una situación dada si el sistema falla? ¿Peligro para el usuario o peligro para la marca?
Teniendo en cuenta esas preocupaciones, los líderes empresariales deberían conocer las aplicaciones actuales de la IA emocional. Se dividen aproximadamente en tres categorías:
Sistemas que utilizan el análisis emocional para ajustar su respuesta.
En esta solicitud, el servicio de IA reconoce las emociones y las tiene en cuenta en su proceso de toma de decisiones. Sin embargo, la salida del servicio está completamente libre de emociones.
IVR conversacionales (respuesta de voz interactiva) y chatbots prometen dirigir a los clientes al flujo de servicio correcto de forma más rápida y precisa si se tienen en cuenta las emociones. Por ejemplo, cuando el sistema detecta que un usuario está enfadado, se le dirige a un flujo de escalada diferente o a un humano.
Autoemotivo, Afectiva IA automotriz , y Ford se apresuran a preparar el mercado de software de coches emocionales para detectar las emociones humanas, como el enfado o la falta de atención, y luego tomar el control o detener el vehículo, evitando accidentes o actos de furia en la carretera.
El sector de la seguridad también incursiona en Emotion AI para detectar personas estresadas o enojadas. El Gobierno británico, por ejemplo, monitorea los sentimientos de sus ciudadanos sobre ciertos temas en las redes sociales.
En esta categoría, las emociones desempeñan un papel en el proceso de toma de decisiones de la máquina. Sin embargo, la máquina sigue reaccionando como una máquina, básicamente, como una centralita gigante que dirige a las personas en la dirección correcta.
Sistemas que proporcionan un análisis emocional específico con fines de aprendizaje.
En 2009, Philips se asoció con un banco holandés para desarrollar la idea de un pulsera «rationalizer» para evitar que los operadores tomen decisiones irracionales mediante el control de sus niveles de estrés, que mide mediante el control del pulso del usuario. Hacer que los operadores se dieran cuenta de su estado emocional elevado les hizo hacer una pausa y pensar antes de tomar decisiones impulsivas.
Las gafas inteligentes de Brain Power ayudar a las personas con autismo a entender mejor las emociones y las señales sociales. El usuario de este dispositivo tipo Google Glass ve y oye comentarios especiales orientado a la situación, por ejemplo, entrenamiento sobre las expresiones faciales de las emociones, cuándo mirar a las personas e incluso comentarios sobre el propio estado emocional del usuario.
Estos sistemas de análisis emocional específicos reconocer e interpretar las emociones. La información se comunica al usuario con fines de aprendizaje. A nivel personal, estas aplicaciones segmentadas actuarán como un Fitbit para el corazón y la mente, ya que ayudarán a la atención plena, al autoconocimiento y, en última instancia, a la superación personal, a la vez que mantienen una relación máquina-persona que mantiene al usuario al mando.
Este artículo también aparece en:
Inteligencia artificial: la información que necesita de la Harvard Business Review
Tecnología y operaciones Libro
22.95
Los sistemas de aprendizaje emocional específicos también se están poniendo a prueba para entornos grupales, por ejemplo, analizando las emociones de los estudiantes para profesores, o trabajadores de gerentes. Escalar a entornos grupales puede tener una sensación orwelliana: la preocupación por la privacidad, la creatividad y la individualidad hace que estos experimentos jueguen al borde de la aceptación ética. Y lo que es más importante, se necesita una formación psicológica adecuada para las personas en el poder para interpretar los resultados emocionales y hacer los ajustes adecuados.
Sistemas que imitan y, en última instancia, sustituyen las interacciones de persona a persona.
Cuándo altavoces inteligentes entró en la sala de estar estadounidense en 2014, empezamos a acostumbrarnos a escuchar que los ordenadores se hacían llamar «yo». Llámalo error humano o atajo evolutivo, pero cuando las máquinas hablan, la gente asume relaciones.
Ahora hay productos y servicios que utilizan interfaces de usuario conversacionales y el concepto de» los ordenadores como actores sociales» para tratar de aliviar salud mental preocupaciones. Estas aplicaciones tienen como objetivo ayudar a los usuarios a superar las crisis mediante técnicas de la terapia conductual. Ellie ayuda a tratar a los soldados con TEPT. Karim ayuda a los refugiados sirios a superar el trauma. Los asistentes digitales incluso tienen la tarea de ayudar a aliviar soledad entre los ancianos.
Aplicaciones informales como las de Microsoft Xiao Ice, el Asistente de Google o Alexa de Amazon utilizan las señales sociales y emocionales con un propósito menos altruista: su objetivo es garantizar la lealtad de los usuarios actuando como nuevas mejores amigas de la IA. El futurista Richard van Hooijdonk bromea: «Si un vendedor puede hacer que llore, puede hacer que compre».
La discusión en torno a tecnología adictiva está empezando a examinar las intenciones detrás asistentes de voz. ¿Qué significa para los usuarios que los asistentes personales estén conectados a los anunciantes? En una filtración Nota de Facebook, por ejemplo, la empresa de redes sociales se jactó ante los anunciantes de que podía detectar y, posteriormente, dirigirse a los sentimientos de «inutilidad» e «inseguridad» de los adolescentes, entre otras emociones.
Judith Masthoff de la Universidad de Aberdeen dice, «Me gustaría que las personas tuvieran su propio ángel guardián que pudiera apoyarlas emocionalmente durante todo el día». Pero para alcanzar ese ideal, será necesario realizar una serie de experimentos (acordados colectivamente) para guiar a los diseñadores y las marcas hacia el nivel de intimidad adecuado, y una serie de fracasos determinarán las reglas para mantener la confianza, la privacidad y los límites emocionales.
El mayor obstáculo para encontrar el equilibrio adecuado puede no ser lograr formas más eficaces de IA emocional, sino encontrar humanos emocionalmente inteligentes que las construyan.
Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología
Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?
Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.