Los argumentos a favor del seguro de IA

Cuando las organizaciones sitúan los sistemas de aprendizaje automático en el centro de sus negocios, aumentan el riesgo de fallos […]

Los argumentos a favor del seguro de IA

¿No tienes tiempo de leer?

Nuestros Audioresúmenes, te mantienen al día con los mejores artículos y libros de negocios; aún y cuando no tienes tiempo para leer.

Cuando las organizaciones sitúan los sistemas de aprendizaje automático en el centro de sus negocios, aumentan el riesgo de fallos que podrían provocar una violación de datos, daños a la marca, daños a la propiedad, interrupción de la actividad empresarial y, en algunos casos, lesiones corporales. Incluso cuando las empresas están facultadas para abordar los modos de fallo de la IA, es importante reconocer que es más difícil ser el defensor que el atacante, ya que el primero necesita protegerse contra todos los escenarios posibles, mientras que el segundo solo necesita encontrar un punto débil que aprovechar. Introduzca el seguro de IA. Los autores creen que las empresas pueden esperar requisitos estrictos cuando se introduzca el seguro de IA para limitar la responsabilidad del proveedor de seguros, y las tarifas se van reduciendo a medida que el mercado de seguros de IA vaya madurando. Ofrecen una guía sobre cómo prepararse para la introducción de estos planes de seguro.

•••

La mayoría de las principales empresas, incluidasGoogle, Amazon, Microsoft,Uber, y Tesla, han tenido sus sistemas de inteligencia artificial (IA) y aprendizaje automático (ML) engañados, evadidos o engañados involuntariamente. Sin embargo, a pesar de estos importantes fracasos, la mayoría de los líderes de las organizaciones desconocen en gran medida el riesgo que corren al crear y utilizar las tecnologías de IA y aprendizaje automático. Esto no es del todo culpa de las empresas. Las herramientas técnicas para limitar y reparar los daños no se han creado tan rápido como la propia tecnología de aprendizaje automático, los ciberseguros existentes generalmente no cubren completamente los sistemas de aprendizaje automático y es posible que las soluciones legales (por ejemplo, las leyes de derechos de autor, responsabilidad y antihackeo) no cubran estas situaciones. Una solución emergente es el seguro específico para la IA y la ML. Pero quién lo necesitará y qué cubrirá exactamente siguen siendo preguntas abiertas.

Comprender los riesgos

Los acontecimientos recientes han demostrado que los sistemas de IA y aprendizaje automático son frágiles y sus fallos pueden provocar desastres en el mundo real.Nuestra investigación, en el que estudiamos sistemáticamente los fallos de la IA publicados por la comunidad académica, reveló que los sistemas de aprendizaje automático pueden fallar de dos maneras: intencionalmente y no intencionalmente.

  • En caso de error intencionado, un adversario activo intenta subvertir el sistema de IA para lograr sus objetivos de inferir datos de entrenamiento privados, robar el algoritmo subyacente o obtener el resultado deseado del sistema de IA. Por ejemplo, cuando Tumblr anunció su decisión de dejar de publicar contenido pornográfico, los usuariospasó por alto el filtro coloreando de verde las imágenes corporales y añadiendo una imagen de un búho, un ejemplo de «ataque de perturbación».
  • En caso de fallos involuntarios, los sistemas de aprendizaje automático fallan por sí solos sin ningún tipo de manipulación adversa. Por ejemplo, OpenAI enseñó a un sistema de aprendizaje automático ajugar a un juego de navegación premiando sus acciones por conseguir una puntuación alta. Sin embargo, el sistema ML hacía círculos y alcanzaba los mismos objetivos y acumulaba más puntos en lugar de terminar la carrera. Una de las principales causas del fracaso involuntario son las suposiciones erróneas de los desarrolladores de aprendizaje automático que producen un resultado formalmente correcto, pero prácticamente inseguro.

En su informe sobre los ataques a los modelos de aprendizaje automático, Gartner publicó unterrible advertencia a los ejecutivos: «Los líderes de aplicaciones deben anticipar y prepararse para mitigar los posibles riesgos de corrupción de datos, robo de modelos y muestras adversas». Pero las organizaciones están muy poco preparadas. Como nos dijo el jefe de seguridad de uno de los bancos más grandes de los Estados Unidos: «Queremos proteger la información de los clientes que se utiliza en los modelos de aprendizaje automático, pero no sabemos cómo hacerlo». El banco no está solo. Cuando nosotros entrevistó informalmente a 28 organizaciones abarcando la lista Fortune 500, pequeñas y medianas empresas, organizaciones sin fines de lucro y organizaciones gubernamentales, descubrimos que 25 de ellas no tenían un plan establecido para hacer frente a los ataques adversos a sus modelos de aprendizaje automático. Había tres razones.

En primer lugar, dado que los modos de fallo de la IA siguen siendo un área de investigación activa y en evolución, no es posible ofrecer mitigaciones tecnológicas prescriptivas. Por ejemplo,investigadores recientes mostró cómo 13 defensas para los ejemplos contradictorios que se publicaron en las principales revistas académicas son ineficaces. En segundo lugar, las leyes estadounidenses vigentes sobre derechos de autor, responsabilidad por productos defectuosos y «antihackeo»puede que no aborde todos los modos de fallo de la IA . Por último, dado que la principal modalidad mediante la que los sistemas de aprendizaje automático e IA manipulan los datos es código y software, un lugar natural al que acudir en busca de respuestas es el ciberseguro clásico. Sin embargo, las conversaciones con expertos en seguros muestran que algunos fallos de IA pueden estar cubiertos por el ciberseguro existente, pero puede que otros no.

Comprender las diferencias entre el seguro cibernético y el seguro de inteligencia artificial y aprendizaje automático

Para entender mejor la relación entre el ciberseguro tradicional y el fracaso de la IA, hablamos con varios expertos en seguros. En términos generales, el ciberseguro cubre la responsabilidad por la seguridad y la privacidad de la información y la interrupción de la actividad empresarial. Por ejemplo, lo más probable es que los ciberseguros actuales cubran las fallas de la IA que provocan la interrupción de la actividad empresarial y la violación de la información privada, pero las fallas de la IA que provoquen daños a la marca, lesiones corporales y daños a la propiedad probablemente no estén cubiertas por el ciberseguro existente. Así es como se desglosa esto.

El seguro cibernético normalmente cubre los siguientes fallos comunes:

  • Modele ataques de robo: Por ejemplo, OpenAI creó recientemente un sistema de IA para generar texto automáticamente, peroinicialmente no reveló completamente el modelo subyacente con el argumento de que podría utilizarse indebidamente para difundir desinformación. Sin embargo, dos investigadorespudieron recrear el algoritmo y lo publicaron, antes de OpenAI publicó el modelo completo. Ataques como estos demuestran cómo las empresas podrían sufrir daños a la marca y pérdidas de propiedad intelectual debido a la falibilidad de los sistemas de IA. En este caso, el ciberseguro podría cubrir hipotéticamente el escenario, ya que se produjo una violación de información privada.
  • Fuga de datos: por ejemplo, los investigadores pudieronreconstruir rostros con solo el nombre de una persona y acceso a un sistema de reconocimiento facial. Fue tan eficaz que la gente pudo utilizar la foto reconstruida para identificar a una persona de una cola con una precisión de hasta un 87%. Si esto ocurriera en la vida real, el ciberseguro podría ayudar, ya que podría tratarse de una violación de la información privada, que en este caso son los datos privados de entrenamiento.

Sin embargo, el ciberseguro no suele cubrir estos fallos reales de IA o aprendizaje automático:

  • Daño corporal:El coche autónomo de Uber mató a un peatón en Arizona porque su sistema de aprendizaje automático no tenía en cuenta el cruce imprudente. Es probable que este caso no lo cubra el ciberseguro, ya que sus raíces están en los seguros de líneas financieras, que históricamente han evitado esas responsabilidades. Cuando se produce una lesión corporal a causa de un fallo de la IA, ya sea por un dron que entrega paquetes o, en el caso de los coches autónomos, cuando los sistemas de reconocimiento de imágenesno funciona en condiciones de nieve, niebla o escarcha, no es probable que el ciberseguro cubra los daños (aunque puede cubrir las pérdidas por la interrupción de la actividad empresarial que se produzca a causa de este tipo de eventos). Tras este suceso, Uber dejó de probar coches autónomos en Arizona, Pensilvania y California. Para cualquier tipo de pérdida en la que incurra Uber a causa de una interrupción de la actividad empresarial, se puede aplicar un seguro cibernético, aunque es poco probable que se aplique por daños corporales.
  • Daño a la marca: piense en una situación en la que la empresa A utiliza un bot de conversación inteligente diseñado por la empresa B para promocionar la marca de la empresa A en Internet. Si el bot sale mal, al igual que elataque de envenenamiento contra el bot de tuiteo Tay de Microsoft, y provoca un enorme daño a la marca de la empresa A, es menos probable que las formulaciones actuales de ciberseguro cubran las pérdidas de la empresa A. En otro caso, los investigadores engañaron el motor antivirus basado en la IA de Cylance pensar que una pieza maliciosa de ransomware era benigna. Si la empresa hubiera sufrido algún daño a la marca como parte de este ataque, es probable que el ciberseguro no lo cubra.
  • Daños a la propiedad física: Aartículo de investigadores de Google plantea el escenario en el que un robot de limpieza utiliza el aprendizaje por refuerzo para explorar su entorno y aprender el diseño. Como parte de este proceso de exploración, inserta una mopa húmeda en una toma de corriente, lo que provoca un incendio. Si este ejemplo se diera en la vida real, lo más probable es que el seguro cibernético del fabricante del robot de limpieza no cubra la pérdida.

¿Ha llegado el momento de que su empresa compre un seguro de ML/IA?

Cuando las organizaciones sitúan los sistemas de aprendizaje automático en el centro de sus negocios, aumentan el riesgo de fallos que podrían provocar una violación de datos, daños a la marca, daños a la propiedad, interrupción de la actividad empresarial y, en algunos casos, lesiones corporales. Incluso cuando las empresas están facultadas para abordar los modos de fallo de la IA, es importante reconocer que es más difícil ser el defensor que el atacante, ya que el primero necesita protegerse contra todos los escenarios posibles, mientras que el segundo solo necesita encontrar un punto débil que aprovechar. Como dijo un director de seguridad de uno de los cuatro grandes grupos de consultoría en una entrevista con nosotros: «Los ataques de software tradicionales son una incógnita conocida. Los ataques a nuestros modelos de aprendizaje automático son incógnitas desconocidas».

Las compañías de seguros son conscientes de esta brecha y están intentando conciliar activamente las diferencias entre los seguros al estilo del software tradicional y el aprendizaje automático. Hoy en día, el ciberseguro es elel mercado de seguros de más rápido crecimiento dirigido a pequeñas y medianas empresas y las aseguradoras quieren mantener el impulso.

Dado que la adopción de la IA hatriplicado en los últimos 3 años, los proveedores de seguros ven este como el próximo gran mercado. Además, dos importantes aseguradoras señalaron que las organizaciones de normalización, comoISO yNIST están formulando marcos de IA confiables. Además, los países están considerando estrategias de IA y, hasta ahora, están haciendo hincapié en la protección, la seguridad y la privacidad de los sistemas de aprendizaje automático, conLa UE lidera el esfuerzo — toda esta actividad podría desembocar en reglamentos en el futuro.

Para conseguir las mejores tarifas posibles cuando se estrene el seguro de IA, es importante que comprenda las opciones y empiece a prepararse ya. Creemos que los seguros de IA estarán disponibles primero a través de las principales compañías de seguros, ya que es posible que las aseguradoras personalizadas no tengan suficientes redes de seguridad para invertir en nuevas áreas. Desde la perspectiva de los precios, utilizando el anterior mercado de ciberseguros como plantilla, las empresas pueden esperar requisitos estrictos cuando se introduzca el seguro de IA para limitar la responsabilidad del proveedor de seguros y las tarifas se van enfriando a medida que el mercado de seguros de IA vaya madurando.

Cómo empezar

Para ayudar a los directivos a empezar, creamos unplan de acción para iniciar la conversación sobre la protección y el seguro de los modelos de aprendizaje automático.

Para la semana que viene:

  • Empiece a hablar con su proveedor de seguros sobre lo que cubrirá y lo que no, para que no opere con suposiciones incorrectas.
  • Dada la proliferación de sistemas de IA en las empresas, especialmente en las grandes organizaciones, es importante evaluar primero el posible impacto del fracaso. Le recomendamos hacer un balance de todos los sistemas de IA de la organización y agruparlos en función de un índice de criticidad alto, medio y bajo y, a continuación, implementar las medidas de seguro y protección en consecuencia.

Para el mes que viene:

  • Asigne la supervisión humana a las decisiones fundamentales para la empresa, en lugar de confiar únicamente en los sistemas automatizados.
  • Realice ejercicios de mesa para tener en cuenta los fallos en los sistemas de IA y evaluar los resultados. Le recomendamos que evalúe su organización según el borradorDirectrices de IA confiable de la UE especialmente la sección 2 (Solidez técnica y seguridad) y la sección 3 (Lista de verificación de la privacidad y la gobernanza de los datos).

Para el año que viene:

  • Asigne un oficial de seguridad para que evalúe la seguridad de los sistemas de IA. Sería una estrecha colaboración entre el director de seguridad de la información y el personal del director de datos.
  • Renueve las prácticas de seguridad para la era del aprendizaje automático contradictorio: actualice las estrategias de respuesta a los incidentes y considere la posibilidad de contratar un equipo rojo para poner a prueba sus sistemas de aprendizaje automático.

Los sistemas de IA y aprendizaje automático pueden ayudar a crear grandes cantidades de valor para muchas organizaciones. Sin embargo, como ocurre con cualquier tecnología nueva, hay que entender (y mitigar) los riesgos antes de que la tecnología se integre plenamente en el proceso de creación de valor de la organización.

Nota del editor: Este artículo se ha actualizado para aclarar el calendario de publicación del algoritmo de OpenAI.

Scroll al inicio