El asistente de IA de Google es un recordatorio de que la privacidad y la seguridad no son lo mismo
por Ajay Agrawal, Joshua Gans, Avi Goldfarb

Jonathan Kitchen/Getty Images
A principios de este mes, Google presentó nuevas y destacables funciones para su asistente automático. Se basan en la creciente experiencia de Google en inteligencia artificial (IA).
Quizás la demostración más dramática y, por ver la avalancha de comentarios, preocupante, fue la habilidad de la IA de Google para hacer llamadas de teléfono que imitan a un humano. Si no ha visto la demo, aquí hay un enlace. Si bien aún no lo hemos hecho, en poco tiempo podrá dar instrucciones a una IA para que utilice una tecnología antigua (llamadas de voz) para concertar citas y gestionar otras interacciones en su nombre, interactuando con otras personas o, si el receptor lo desea, con otras IA. Baste con decir que eso tiene valor.
Entonces, ¿cuál es el problema? Una IA que suene humana compromete tanto la privacidad como la seguridad. Aunque suelen estar agrupadas, la privacidad y la seguridad son diferentes.
La privacidad incluye el derecho a que lo dejen en paz. Las personas que llaman con IA lo infringen por su potencial de entrometerse. Los problemas de privacidad también surgen cuando se utiliza la información fuera de contexto (por ejemplo, por chismes, discriminación de precios o publicidad segmentada). Las personas que llaman por IA y que suenan humanas pueden violar la privacidad, ya que pueden engañar a la gente haciéndoles creer que el contexto de la llamada es de persona a persona, cuando en realidad es de persona a máquina. Es posible que obtengan información de usted y luego la utilicen de formas que no anticipa. Esto podría suceder si habla con la IA usted mismo o, en el futuro, si la IA habla en su nombre.
Sin embargo, cuando la gente habla de problemas de privacidad, a menudo se preocupa mucho por la seguridad. El tema no es la publicidad segmentada ni los chismes, es el robo y la seguridad. La seguridad es el estado de estar libre de peligros. Los problemas de seguridad surgen cuando se extrae información y, luego, se utiliza de forma ilegal. El más obvio de ellos es el robo de identidad. Imagine que una persona que llama por IA puede hacerse pasar por su voz. Puede que quiera eso como parte de un servicio que usted controle, pero, al mismo tiempo, alguien podría replicarlo para engañar a los demás haciéndoles creer que están hablando con usted.
El problema es que mejorar la seguridad puede no ayudar a la privacidad. Por ejemplo, aumentar la vigilancia podría aumentar la seguridad frente a los malos actores, pero a expensas de la privacidad.
Resolver la privacidad puede no ayudar a la seguridad. Las normas de privacidad que restringen el flujo de información pueden dificultar que la policía sepa lo que hacen los malos y, por lo tanto, hacer que esté menos seguro.
Para los asistentes de IA, podemos declarar ilegal la suplantación de identidad y añadir nuevas capas a los controles de identidad para que el robo de identidad sea difícil. Esto ayuda a la seguridad, pero no a la privacidad. Las personas que llaman por IA y la información que usted dice que una IA podría utilizarse para segmentar la publicidad.
Muchos comentaristas pidió que Google (y otros) identificara cuando una máquina llama en lugar de una persona. Google respondió que proporcionarían esa identificación. Sin embargo, una persona empeñada en robarle la identidad no seguirá estas reglas cortésmente.
Incluso si el gobierno exige que un asistente de IA tenga que identificarse, solo servirá para protegerlo si los malos actores también se identifican. Después de todo, si se puede imitar su voz, también se puede imitar un anuncio de voz. La autoidentificación ayuda a la privacidad, pero no a la seguridad.
Ha llegado el momento de considerar los protocolos de comunicación de la IA en todos los dominios con el fin de mejorar tanto la privacidad como la seguridad. Las redes sociales tienen sus propias formas internas de autenticar quién envía mensajes a quién. Sin embargo, no tenemos buenos métodos de verificación en todas las redes. Seguimos viviendo en un mundo analógico y el reconocimiento de voz, un autenticador analógico clásico, ya no es suficiente.
El objetivo está claro. Queremos las ventajas de los asistentes de IA sin problemas importantes de privacidad y seguridad. Necesitamos que las personas que llaman por IA puedan identificarse de manera verificable y protocolos sobre cómo deben gestionarse las llamadas de IA. El reconocimiento de voz ya no funciona para la verificación; es hora de una solución que dé prioridad a lo digital.
Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología
Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?
Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.