Por qué no debería insultar a Siri
por Michael Schrage

Deje de insultar a Siri. Deje de maldecir a Cortana. A medida que los dispositivos digitales se hacen más inteligentes, ser bárbaro con los bots podría costarle el trabajo.
A medida que proliferan las capacidades de aprendizaje automático e inteligencia artificial, la sensibilidad del diseño de las interfaces digitales comienza a acelerarse desde eseuomórfico a antropomórfico. Considere cómo Slack y Hipchat ahora utilizan bots que van más allá de la automatización de las interfaces para facilitar experiencias de usuario más inteligentes y atractivas. Eso es Chatbot 1.0. La continua innovación algorítmica garantiza que los bots de la próxima generación sean mucho más nítidos y más empático.
Para Apple, Google, Amazon, Microsoft, Tencent y Facebook, hacer que los bots y los asistentes de software sean más humanos (y más humanos) se ha convertido en un imperativo estratégico de la experiencia de usuario. Ser afectivo importa tanto como ser eficaz.
Pero como los humanos no adjuntan (todavía) agencia o inteligencia a sus dispositivos, están notablemente desinhibidos a la hora de abusar de ellos. Tanto la investigación académica como la observación anecdótica sobre las interfaces hombre/máquina sugieren que las voces en alto y los comentarios vulgares son más comunes que no. Se estima que entre el 10 y el 50% de las interacciones son abusivas, según la Dra. Sheryl Brahnam en una entrevista con TechEmergence a finales del año pasado.
Estos comportamientos simplemente no son sostenibles. Si los robots adaptativos aprenden de cada interacción humana significativa que tienen, el maltrato y el abuso se convierten en toxinas tecnológicas. El mal comportamiento puede envenenar el comportamiento de los robots. Eso socava la eficiencia, la productividad y la cultura empresarial.
Por eso ser malo con los bots se convertirá en un tabú profesional y social en el lugar de trabajo del mañana. Cuando los dispositivos de «aprendizaje profundo» impactan emocionalmente en sus usuarios, maltratarlos se parece menos a romper el teléfono móvil que a patear a un gatito. El primero se gana una reprimenda; el segundo hace que lo despidan.
Así como no se patearía al gato de la oficina ni ridiculizaría a un subordinado, la sola idea de maltratar cada vez más los dispositivos inteligentes se hace inaceptable. Si bien no están vivos (biológicamente), estos objetos inanimados están entrenados explícitamente para anticipar y responder a las necesidades del lugar de trabajo. Abusar verbal o textualmente de ellos en el transcurso del trabajo parece injustificadamente poco profesional y contraproducente.
Dicho crudamente, romper su iPhone significa que tiene mal genio; llamar inapropiados a su Siri en apuros hace que lo llamen antes que Recursos Humanos. Usar malos modales con las tecnologías inteligentes puede llevar a una mala gestión.
Su grosería incita a su bajo rendimiento. El abuso refleja un entorno de trabajo hostil que socava la forma en que aprenden los bots. Etiqueta de Microsoft ofrece un estudio de caso real tremendamente magnífico (y magníficamente doloroso) sobre cómo el abuso en red da forma a la experiencia de usuario. Menos de un día después de que Microsoft Research publicara su bot de Twitter de aprendizaje automático sin supervisión, Tay se convirtió en un «chatbot del infierno» y tuiteó una serie de comentarios cada vez más desagradables, racistas y homófobos hasta Microsoft lo desconectó.
«El problema era que Microsoft no dejaba ningún volante y no hacía que el bot fuera autorreflexivo», dijo Brandon Wirtz en un reciente Artículo de LinkedIn acerca de la situación. «[Tay] no sabía que debía simplemente ignorar a las personas que actúan como nazis, por lo que ella misma pasó a serlo».
Por el contrario, observe cómo el chatbot de Microsoft prosperó en el entorno digital más regulado e inhibido de China. Xiaoice pudo evitar los problemas de Tay porque la cultura digital china sanciona de manera efectiva ciertas formas de expresión. Donde Tay ya no está, Xiaoice disfruta más de 40 millones de usuarios en China y Japón.
Comprometer y compensar digitalmente a los clientes groseros y abusivos es una cosa, pero hacer que los bots estén en deuda con los empleados groseros y abusivos es otra muy distinta. Por mucho que ciertos tipos de comportamientos se hicieran groseros, vulgares y anacrónicos cuando las mujeres ingresaron masivamente a la fuerza laboral, la idea de que maldecir a las máquinas inteligentes es aceptable mientras se insulta a sus colegas tontos no parece condenada a desaparecer.
No piense ni por un momento que no habrá registros digitales inmaculados de las malas conductas empresariales. Puede estar seguro de que Apple tiene una visión excelente de la frecuencia con la que insultan y maltratan a Siri. ¿De verdad cree que Amazon no instrumentaliza a Alexa de manera similar? Podemos apostar con confianza a que los administradores de sistemas registran los intercambios de chatbots para saber qué acciones (y qué usuarios) inspiran críticas. Los teléfonos inteligentes en red podrían rastrear fácilmente las malas acciones. De hecho, en muchos sistemas de aprendizaje automático (si no en la mayoría), los insultos y los abusos podrían fácilmente formar parte del entrenamiento en el mundo real. Quizás incluso se les pueda programar o entrenar para que se quejen de los malos tratos.
La visión profunda del «aprendizaje profundo» será que es absurdo faltarle el respeto a la inteligencia adaptativa independientemente de su origen. Por supuesto, no faltan excelentes historias y escenarios de ciencia ficción que advierten que el abuso de las máquinas inteligentes puede ser peligroso para la salud humana. Ningún chatbot conocido obedece actualmente al de Asimov Tres leyes de la robótica.
Sin embargo, la conclusión más seria y práctica es que este irresistible auge de máquinas cada vez más inteligentes en todo el mundo exige que los líderes y los directivos se conviertan en mejores personas. Arremeter de manera autocomplaciente contra los bots y agentes de software con bajo rendimiento representa un mal liderazgo con el ejemplo y, lo que es peor, una mala educación.
Más pronto que tarde, las organizaciones tendrán que reconocer que para sacar lo mejor de sus tecnologías inteligentes es necesario sacar lo mejor de sí mismas.
Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología
Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?
Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.