Cómo el aprendizaje automático puede ayudar a identificar las cibervulnerabilidades
por Ravi Srinivasan

Pedro Pestana/Eyeem/Getty Images
Las personas son, sin duda, el activo más valioso de su empresa. Pero si pregunta a los expertos en ciberseguridad si comparten esa opinión, la mayoría le diría que las personas son su mayor responsabilidad.
Históricamente, no importa cuánto dinero gaste una organización en ciberseguridad, normalmente hay un problema que la tecnología no puede resolver: los humanos son humanos. Gartner espera que el gasto mundial en seguridad de la información alcance los 86 400 millones de dólares en 2017 y aumente hasta alcanzar los 93 000 millones de dólares en 2018, todo ello en un esfuerzo por mejorar los programas generales de seguridad y educación para evitar que las personas socaven los planes de seguridad mejor trazados. Pero aún no es suficiente: el error humano sigue reinando como una de las principales amenazas.
Según el índice de inteligencia de ciberseguridad de IBM, una asombrosa El 95% de todos los incidentes de seguridad implican un error humano. Es una estadística impactante y, en su mayor parte, se debe a que los empleados hacen clic en enlaces maliciosos, a la pérdida o el robo de sus dispositivos móviles o ordenadores, o a que los administradores de red cometen simples errores de configuración. Recientemente hemos visto una serie de este último problema con más de mil millones de registros expuestos en lo que va del año debido a una mala configuración de los servidores. Las organizaciones pueden contar con que se cometerán errores y que los ciberdelincuentes estarán de brazos cruzados, dispuestos a aprovechar esos errores.
Centro Insight
El elemento humano de la ciberseguridad
Patrocinado por Varonis
Refuerce la primera línea de defensa de su empresa.
Entonces, ¿cómo supervisan las organizaciones no solo las actividades sospechosas que vienen del mundo exterior, sino que también analizan el comportamiento de sus empleados para determinar los riesgos de seguridad? Como dice el refrán, «errar es humano», la gente comete errores. Así que tenemos que encontrar formas de entender mejor a las personas y anticiparnos a los errores o comportamientos fuera de lo común, no solo para protegernos mejor de los riesgos de seguridad, sino también para atender mejor a las partes interesadas internas.
Hay una disciplina emergente en la seguridad centrada en el análisis del comportamiento de los usuarios que se muestra prometedora para ayudar a abordar las amenazas externas y, al mismo tiempo, proporciona la información necesaria para resolver el problema de las personas. Utiliza nuevas tecnologías que aprovechan una combinación de macrodatos y aprendizaje automático, lo que permite a los equipos de seguridad conocer mejor a sus empleados e identificar rápidamente cuando están sucediendo cosas que están fuera de lo normal.
Para empezar, se pueden recopilar y supervisar puntos de datos contextuales y conductuales, como la ubicación típica de la dirección IP de un empleado, la hora del día en que suele iniciar sesión en las redes, el uso de varios equipos o direcciones IP, los archivos y la información a los que suelen acceder y más para establecer un perfil de comportamientos comunes. Por ejemplo, si un empleado del equipo de recursos humanos intenta acceder repentinamente a las bases de datos de ingeniería cientos de veces por minuto, se lo puede avisar rápidamente al equipo de seguridad para evitar un incidente.
El verdadero valor aquí es cuando las empresas aplican estos conocimientos para crear un sistema de autenticación basado en los riesgos que dé al personal acceso a los datos o los sistemas. Básicamente, significa personalizar el nivel de acceso que se da a los empleados en función de la puntuación de riesgo de sus comportamientos anteriores, en comparación con la comprensión de los datos o sistemas a los que solicitan acceso. Este tipo de autenticación basada en el riesgo permite una mejor visibilidad de los usuarios propensos a errores o de aquellos que en el pasado han abierto oportunidades a los ciberdelincuentes, lo que ayuda a resolver el problema «humano» de la ciberseguridad.
Para lograrlo, primero debemos entender que no todos los usuarios están en el mismo campo de juego. Hay muchos niveles diferentes de «conocimiento» en lo que respecta a cada persona de una empresa: algunos tienen un gran conocimiento de la tecnología y de la implementación de medidas de seguridad, como la biometría y la autenticación multifactorial. Puede que otros no tengan tanto cuidado o que hagan cosas como reciclar las contraseñas (estremecen) de las cuentas comunes, que se pueden filtrar o infringir fácilmente, o descargar documentos de una dirección de correo electrónico sospechosa.
Además, cada empresa tiene muchas funciones y necesidades diferentes, desde los usuarios con entornos informáticos básicos hasta los que pueden necesitar hasta cinco máquinas diferentes para hacer su trabajo. Por estas razones, no existe un enfoque de «talla única» para abordar el elemento humano de la seguridad, y las organizaciones ya no pueden confiar en las tecnologías automatizadas tradicionales que adoptan la mentalidad de «configúrelo y olvídese».
Si bien puede ir en contra de los instintos tradicionales en torno a la seguridad, que normalmente se centran en el control y las restricciones para combatir los errores humanos, es mejor dejar que los empleados sean ellos mismos y diseñar sus sistemas para hacer frente a eso. La combinación de entender las interacciones diarias de los empleados con la TI y tener la capacidad de analizar todos los escenarios posibles en tiempo real puede ayudar a los equipos de seguridad a definir niveles de autenticación más adecuados para toda la fuerza laboral, desde los desarrolladores expertos en tecnología hasta los luditas de la sala de juntas. Esto proporciona el equilibrio adecuado entre seguridad, privacidad y experiencia de usuario y, al mismo tiempo, protege a las organizaciones (y a las personas que las integran) de sí mismas.
Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología
Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?
Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.