PathMBA Vault

AI and machine learning

Se acerca la regulación de la IA

por François Candelon, Rodolphe Charme di Carlo, Midas De Bondt, Theodoros Evgeniou

Se acerca la regulación de la IA

Durante la mayor parte de la última década, la preocupación del público por la tecnología digital se ha centrado en el posible abuso de los datos personales. La gente no estaba cómoda con la forma en que las empresas podían rastrear sus movimientos en Internet, ya que a menudo recopilaban números de tarjetas de crédito, direcciones y otros datos importantes. Les pareció espeluznante que los siguieran en la Web anuncios que claramente habían sido activados por sus búsquedas ociosas, y les preocupaba el robo de identidad y el fraude.

Esas preocupaciones llevaron a la aprobación de medidas en los Estados Unidos y Europa que garantizaban a los usuarios de Internet cierto nivel de control sobre sus datos e imágenes personales, sobre todo, el Reglamento General de Protección de Datos (GDPR) de 2018 de la Unión Europea. Por supuesto, esas medidas no pusieron fin al debate en torno al uso de los datos personales por parte de las empresas. Algunos sostienen que frenarlo obstaculizará el desempeño económico de Europa y los Estados Unidos en comparación con los países menos restrictivos, especialmente China, cuyos gigantes digitales han prosperado con la ayuda de un acceso fácil y ligeramente regulado a todo tipo de información personal. (Sin embargo, recientemente, el gobierno chino ha empezado a limitar la la libertad de las empresas digitales—como lo demuestran las cuantiosas multas impuestas a Alibaba.) Otros señalan que hay abundantes pruebas de que una regulación más estricta ha puesto a las pequeñas empresas europeas en una desventaja considerable frente a sus rivales estadounidenses más acaudalados, como Google y Amazon.

Pero el debate entra en una nueva fase. A medida que las empresas incorporan cada vez más la inteligencia artificial en sus productos, servicios, procesos y toma de decisiones, la atención se centra en la forma en que el software utiliza los datos, especialmente mediante algoritmos complejos y en evolución que pueden diagnosticar un cáncer, conducir un automóvil o aprobar un préstamo. La UE, que vuelve a liderar el camino (en su libro blanco de 2020 «Sobre la inteligencia artificial: un enfoque europeo de la excelencia y la confianza» y su propuesta de 2021 de un marco jurídico para la IA), considera que la regulación es esencial para el desarrollo de herramientas de IA en las que los consumidores puedan confiar.

¿Qué significará todo esto para las empresas? Hemos estado investigando cómo regular Algoritmos de IA y cómo implementar Sistemas de IA que se basan en los principios clave en los que se basan los marcos reguladores propuestos, y hemos estado ayudando a empresas de todos los sectores a lanzar y ampliar iniciativas impulsadas por la IA. En las páginas siguientes nos basamos en este trabajo y en el de otros investigadores para explorar los tres desafíos principales a los que se enfrentan los líderes empresariales al integrar la IA en sus procesos y decisiones, al tiempo que tratan de garantizar que es segura y confiable para los clientes. También presentamos un marco para guiar a los ejecutivos en esas tareas, basándonos en parte en conceptos aplicados a la gestión de los riesgos estratégicos.

Resultados injustos: los riesgos del uso de la IA

Los sistemas de IA que producen resultados sesgados han estado en los titulares. Un ejemplo muy conocido es el de Apple algoritmo de tarjetas de crédito, que ha sido acusada de discriminar a las mujeres, lo que ha provocado una investigación por parte del Departamento de Servicios Financieros de Nueva York.

Pero el problema surge de muchas otras formas: por ejemplo, en los omnipresentes algoritmos de publicidad en Internet, que pueden dirigirse a los espectadores por raza, religión o género, y en el filtro automático de currículums de Amazon, que filtra a las candidatas femeninas. UN estudio reciente publicado en Ciencia mostró que las herramientas de predicción del riesgo utilizadas en la atención médica, que afectan a millones de personas en los Estados Unidos cada año, muestran un sesgo racial significativo. Otro estudio, publicado en Revista de Medicina Interna General, descubrió que el software utilizado por los principales hospitales para dar prioridad a los receptores de trasplantes de riñón discriminaba a los pacientes negros.

La IA aumenta la posible escala de sesgo: cualquier defecto podría afectar a millones de personas y exponer a las empresas a demandas colectivas.

En la mayoría de los casos, el problema se debe a los datos utilizados para entrenar a la IA. Si esos datos están sesgados, la IA adquirirá e incluso amplificará el sesgo. Cuando Microsoft usó los tuits para entrenar a un chatbot para que interactuara con los usuarios de Twitter, por ejemplo, tuvo que eliminar el bot al día siguiente de su publicación debido a sus mensajes incendiarios y racistas. Pero no basta con eliminar la información demográfica como la raza o el género de los datos de entrenamiento, ya que en algunas situaciones esos datos son necesarios para correcto por sesgos.

En teoría, podría ser posible codificar algún concepto de equidad en el software, que exija que todos los resultados cumplan ciertas condiciones. Amazon está experimentando con un métrica de equidad llamado disparidad demográfica condicional, y otras empresas están desarrollando métricas similares. Pero un obstáculo es que no existe una definición acordada de equidad, ni es posible ser categórico en cuanto a las condiciones generales que determinan los resultados equitativos. Es más, las partes interesadas en una situación dada pueden tener nociones muy diferentes de lo que constituye equidad. Como resultado, cualquier intento de diseñarlo en el software será difícil.

Al hacer frente a los resultados sesgados, los reguladores han recurrido en su mayoría a la legislación antidiscriminación estándar. Eso es viable mientras haya personas a las que se pueda hacer responsables de las decisiones problemáticas. Sin embargo, con la creciente participación de la IA, la responsabilidad individual se ve socavada. Peor aún, la IA aumenta la posible escala de sesgo: cualquier defecto podría afectar a millones de personas, exponer a las empresas a demandas colectivas de proporciones históricas y poner en riesgo su reputación.

¿Qué pueden hacer los ejecutivos para evitar esos problemas?

Como primer paso, antes de tomar cualquier decisión, deberían profundizar en su comprensión de lo que está en juego mediante el análisis de cuatro factores:

El impacto de los resultados.

Algunos algoritmos toman decisiones o afectan a ellas con consecuencias directas e importantes en la vida de las personas. Diagnostican afecciones médicas, por ejemplo, seleccionan a los candidatos para un puesto de trabajo, aprueban préstamos hipotecarios o recomiendan penas de cárcel. En esas circunstancias, sería prudente evitar el uso de la IA o, al menos, subordinarla al juicio humano.

Sin embargo, este último enfoque aún requiere una reflexión detenida. Supongamos que un juez concede la libertad anticipada a un infractor en contra de una recomendación de la IA y, a continuación, esa persona comete un delito violento. La jueza se vería presionada para que explicara por qué ignoró la IA. Por lo tanto, el uso de la IA podría aumentar la responsabilidad de los responsables humanos de la toma de decisiones, lo que podría hacer que las personas recurran a los algoritmos con más frecuencia de la que deberían.

Eso no quiere decir que la IA no tenga sus usos en contextos de alto impacto. Las organizaciones que dependen de los responsables humanos de la toma de decisiones seguirán teniendo que controlar los prejuicios inconscientes entre esas personas, que la IA puede ayudar a revelar. Al final, Amazon decidió no aprovechar la IA como herramienta de contratación, sino utilizarla para detectar defectos en su contratación actual enfoque. La conclusión es que hay que tener en cuenta la imparcialidad de los algoritmos en relación con la toma de decisiones humanas a la hora de elegir si se utiliza la IA.

La naturaleza y el alcance de las decisiones.

Las investigaciones sugieren que el grado de confianza en la IA varía según el tipo de decisiones a las que se utilice. Cuando una tarea se percibe como relativamente mecánica y limitada (piense en optimizar un calendario o analizar imágenes), se considera que el software es al menos tan confiable como los humanos.

Pero cuando se piensa que las decisiones son subjetivas o las variables cambian (como en las sentencias legales, donde las circunstancias atenuantes de los infractores pueden ser diferentes), se confía más en el juicio humano, en parte debido a la capacidad de empatía de las personas. Esto sugiere que las empresas tienen que comunicar con mucho cuidado la naturaleza y el alcance específicos de las decisiones a las que aplican la IA y por qué es preferible al juicio humano en esas situaciones. Se trata de un ejercicio bastante sencillo en muchos contextos, incluso en aquellos con graves consecuencias. Por ejemplo, en el diagnóstico automático de las tomografías médicas, las personas pueden aceptar fácilmente la ventaja que tiene el software formado en miles de millones de puntos de datos bien definidos sobre los humanos, que solo pueden procesar unos pocos miles.

Li Sun considera que las «criaturas» de sus fotografías encarnan la contradicción entre la sensación de libertad que sentía de niño al crecer en el campo y las cámaras de vigilancia que siente que lo ven en cada esquina de las ciudades modernas. Li Sun

Por otro lado, aplicar la IA para hacer un diagnóstico de salud mental, en el que los factores pueden ser conductuales, difíciles de definir y específicos de cada caso, probablemente no sea apropiado. Es difícil para la gente aceptar que las máquinas pueden procesar situaciones muy contextuales. E incluso cuando las variables críticas se han identificado con precisión, a menudo no se entiende del todo la forma en que se diferencian entre las poblaciones, lo que nos lleva al siguiente factor.

Complejidad operativa y límites de la escala.

Un algoritmo puede no ser justo en todas las geografías y mercados. Por ejemplo, seleccionar a los consumidores para obtener descuentos puede parecer equitativo para toda la población estadounidense, pero aun así mostrar un sesgo cuando se aplica a, por ejemplo, los residentes de Manhattan si el comportamiento y las actitudes de los consumidores en Manhattan no se corresponden con las medias nacionales y no se reflejan en la formación del algoritmo. Las estadísticas medias pueden ocultar la discriminación entre regiones o subpoblaciones y, para evitarla, puede ser necesario personalizar los algoritmos para cada subconjunto. Eso explica por qué cualquier reglamento destinado a reducir los sesgos locales o de grupos pequeños probablemente reduzca las posibles ventajas de escala de la IA, lo que suele ser la motivación para utilizarla en primer lugar.

Ajustarse a las variaciones entre los mercados añade capas a los algoritmos, lo que aumenta los costes de desarrollo. La personalización de los productos y servicios para mercados específicos también aumenta significativamente los costes de producción y supervisión. Todas esas variables aumentan la complejidad y los gastos de la organización. Si los costes aumentan demasiado, es posible que las empresas incluso abandonen algunos mercados. Debido al RGPD, por ejemplo, algunos desarrolladores, como Gravity Interactive (el creador de los juegos Ragnarok y Dragon Saga), decidieron dejar de vender sus productos en la UE durante algún tiempo. Aunque la mayoría ya habrá encontrado la manera de cumplir con el reglamento (Dragon Saga se relanzó el pasado mes de mayo en Europa), los costes incurridos y las oportunidades perdidas son importantes.

Capacidades de cumplimiento y gobierno.

Para cumplir con las normas de IA más estrictas que están en el horizonte (al menos en Europa y los Estados Unidos), las empresas necesitarán nuevas procesos y herramientas: auditorías de sistemas, protocolos de documentación y datos (para la trazabilidad), monitorización de la IA y formación sobre sensibilización sobre la diversidad. Varias empresas ya están probando cada nuevo algoritmo de IA con diversas partes interesadas para evaluar si su producción está alineada con los valores de la empresa y es poco probable que plantee problemas reglamentarios.

Google, Microsoft, BMW y Deutsche Telekom están desarrollando políticas formales de IA con compromisos con la seguridad, la equidad, la diversidad y la privacidad. Algunas compañías, como la Corporación Federal de Préstamos Hipotecarios ( Freddie Mac), incluso han nombrado directores de ética para supervisar la introducción y la aplicación de dichas políticas y, en muchos casos, los han apoyado con juntas de gobierno ético.

Transparencia: explicar lo que salió mal

Al igual que el juicio humano, la IA no es infalible. Inevitablemente, los algoritmos tomarán decisiones injustas (o incluso inseguras).

Cuando la gente comete un error, normalmente hay una investigación y una asignación de responsabilidad, lo que puede imponer sanciones legales al responsable de la toma de decisiones. Eso ayuda a la organización o la comunidad a entender y corregir las decisiones injustas y a generar confianza entre las partes interesadas. Entonces, ¿deberíamos necesitar (y podemos esperar) que la IA también explique sus decisiones?

No cabe duda de que los reguladores están avanzando en esa dirección. El GDPR ya describe «el derecho… a obtener una explicación de la decisión tomada» mediante algoritmos, y la UE ha identificado la explicabilidad como un factor clave para aumentar la confianza en la IA en su libro blanco y su propuesta de reglamento sobre la IA.

Pero, ¿qué significa obtener una explicación de las decisiones automatizadas, para las que nuestro conocimiento de la causa y el efecto suele ser incompleto? Fue Aristóteles quien señaló que, cuando esta es la situación, la capacidad de explicar cómo se obtienen los resultados puede ser menos importante que la capacidad de reproducir los resultados y verificar empíricamente su precisión, algo que las empresas pueden hacer comparando las predicciones de la IA con los resultados.

Los líderes empresariales que estén pensando en aplicar la IA también deben reflexionar sobre dos factores:

El nivel de explicación requerido.

Con los algoritmos de IA, las explicaciones se pueden clasificar a grandes rasgos en dos grupos, según las diferentes circunstancias.

Explicaciones globales son explicaciones completas de todos los resultados de un proceso determinado y describen las reglas o fórmulas que especifican las relaciones entre las variables de entrada. Por lo general, se exigen cuando la imparcialidad procesal es importante, por ejemplo, en las decisiones sobre la asignación de los recursos, ya que las partes interesadas necesitan saber de antemano cómo se tomarán.

¿Deberíamos necesitar (y podemos esperar) que la IA explique sus decisiones? No cabe duda de que los reguladores están avanzando en esa dirección.

Dar una explicación global para un algoritmo puede parecer sencillo: todo lo que tiene que hacer es compartir su fórmula. Sin embargo, la mayoría de las personas carecen de las habilidades avanzadas en matemáticas o ciencias de la computación necesarias para entender esa fórmula, y mucho menos para determinar si las relaciones especificadas en ella son apropiadas. Y en el caso del aprendizaje automático, en el que el software de IA crea algoritmos para describir las relaciones aparentes entre las variables de los datos de entrenamiento, los defectos o sesgos en esos datos, no en el algoritmo, pueden ser la causa principal de cualquier problema.

Además, es posible que las empresas ni siquiera tengan una visión directa del funcionamiento de sus algoritmos y, para responder a las restricciones reglamentarias en busca de explicaciones, pueden tener que ir más allá de sus departamentos de datos y TI y, quizás, acudir a expertos externos. Tenga en cuenta que las ofertas de los grandes proveedores de software como servicio, como Oracle, SAP y Salesforce, suelen combinar varios componentes de IA de proveedores externos. Y sus clientes a veces eligen y combinan soluciones habilitadas para la IA. Pero tendrán que explicarse todos los componentes del producto final y la forma en que se combinan e interconectan.

Explicaciones locales ofrecer la razón de ser de un producto específico, por ejemplo, por qué a un solicitante (o clase de solicitantes) se le denegó un préstamo y a otro se le concedió uno. A menudo los proporcionan los llamados algoritmos de IA explicables que tienen la capacidad de decirle al destinatario de un resultado el motivo del mismo. Se pueden utilizar cuando las personas solo necesitan saber por qué se tomó una decisión determinada sobre ellas y no tienen o no pueden acceder a las decisiones sobre otras.

Li Sun

Las explicaciones locales pueden adoptar la forma de afirmaciones que respondan a la pregunta: ¿Cuáles son las características clave del cliente que, de haber sido diferentes, habrían cambiado el resultado o la decisión de la IA? Por ejemplo, si la única diferencia entre dos solicitantes es que uno tiene 24 años y el otro 25, la explicación sería que al primer solicitante se le habría concedido un préstamo si hubiera tenido más de 24 años. El problema aquí es que las características identificadas pueden por sí mismas ocultar sesgos. Por ejemplo, puede resultar que el código postal del solicitante sea lo que marque la diferencia, y que se penalice a los solicitantes que, por lo demás, serían sólidos de barrios negros.

Las compensaciones implicadas.

Los algoritmos más potentes son opacos por naturaleza. Mire el Grupo Ant de Alibaba en China, cuya unidad de MyBank utiliza la IA para aprobar préstamos para pequeñas empresas en menos de tres minutos sin intervención humana. Para ello, combina datos de todo el ecosistema de Alibaba, incluida la información sobre las ventas de sus plataformas de comercio electrónico, con el aprendizaje automático para predecir los riesgos de impago y mantener las calificaciones crediticias en tiempo real.

Porque El software de Ant utiliza más de 3000 entradas de datos, por lo que es prácticamente imposible articular con claridad cómo llega a las evaluaciones específicas (y mucho menos ofrecer una explicación global). Muchas de las aplicaciones de IA más interesantes requieren entradas algorítmicas a una escala similar. Las condiciones de pago personalizadas en los mercados B2B, la suscripción de seguros y los coches autónomos son solo algunas de las áreas en las que los estrictos requisitos de explicabilidad de la IA pueden obstaculizar la capacidad de las empresas de innovar o crecer.

Las empresas se enfrentarán a desafíos al introducir un servicio como el de Ant en los mercados en los que los consumidores y los reguladores valoran mucho los derechos individuales, en particular, en la Unión Europea y los Estados Unidos. Para implementar esa IA, las empresas deberán poder explicar cómo un algoritmo define las similitudes entre los clientes, por qué determinadas diferencias entre dos clientes potenciales pueden justificar tratamientos diferentes y por qué los clientes similares pueden recibir diferentes explicaciones sobre la IA.

Las expectativas de explicación también varían según la zona geográfica, lo que presenta desafíos para los operadores globales. Podrían simplemente adoptar los requisitos de explicabilidad más estrictos del mundo, pero hacerlo podría ponerlos claramente en desventaja con respecto a los actores locales de algunos mercados. Los bancos que sigan las normas de la UE tendrían dificultades para producir algoritmos tan precisos como los de Ant a la hora de predecir la probabilidad de que los prestatarios incumplan y, en consecuencia, podrían tener que ser más rigurosos con respecto a los requisitos crediticios. Por otro lado, lo más probable es que aplicar varios estándares de explicabilidad sea más complejo y caro, ya que una empresa, en esencia, crearía diferentes algoritmos para diferentes mercados y probablemente tendría que añadir más IA para garantizar la interoperabilidad.

Sin embargo, hay algunas oportunidades. Los requisitos de explicabilidad podrían ofrecer una fuente de diferenciación: las empresas que puedan desarrollar algoritmos de IA con capacidades explicativas más sólidas estarán en mejores condiciones de ganarse la confianza de los consumidores y los reguladores. Eso podría tener consecuencias estratégicas. Si Citibank, por ejemplo, pudiera crear una IA explicable para el crédito de las pequeñas empresas que fuera tan poderosa como el de Ant, sin duda dominaría los mercados de la UE y EE. UU., e incluso podría hacerse un hueco en el propio territorio de Ant. La capacidad de comunicar la imparcialidad y la transparencia de las decisiones de las ofertas también es un posible diferenciador para las empresas de tecnología. IBM ha desarrollado un producto que ayuda a las empresas a hacerlo: Watson OpenScale, una plataforma de análisis de datos para empresas basada en la IA.

La conclusión es que, si bien exigir a la IA que dé explicaciones de sus decisiones puede parecer una buena manera de mejorar su imparcialidad y aumentar la confianza de las partes interesadas, tiene un precio elevado, que puede que no siempre valga la pena pagar. En ese caso, la única opción es volver a lograr un equilibrio entre los riesgos de obtener algunos resultados injustos y los beneficios de una producción más precisa en general, o dejar de usar la IA.

Aprender y evolucionar: un terreno cambiante

Una de las características distintivas de la IA es su capacidad de aprendizaje; cuantas más imágenes etiquetadas de vacas y cebras utilice un algoritmo de reconocimiento de imágenes, más probabilidades habrá de que reconozca una vaca o una cebra. Pero hay inconvenientes en aprendizaje continuo: Aunque la precisión puede mejorar con el tiempo, las mismas entradas que generaron un resultado ayer podrían registrar uno diferente mañana, ya que los datos que recibió entretanto han cambiado el algoritmo.

Al averiguar cómo gestionar los algoritmos que evolucionan (y si permiten el aprendizaje continuo en primer lugar), los líderes empresariales deben centrarse en tres factores:

Riesgos y recompensas.

Las actitudes de los clientes ante la evolución de la IA probablemente se determinen mediante un cálculo personal de riesgo-rentabilidad. En los precios de los seguros, por ejemplo, lo más probable es que los algoritmos de aprendizaje proporcionen resultados que se adapten mejor a las necesidades de los clientes que cualquier cosa que puedan ofrecer los humanos, por lo que es probable que los clientes tengan una tolerancia relativamente alta a ese tipo de IA. En otros contextos, el aprendizaje puede no ser motivo de preocupación en absoluto. La IA que genera recomendaciones de películas o libros, por ejemplo, podría evolucionar con bastante seguridad a medida que lleguen más datos sobre las compras y las opciones de visualización del cliente.

Pero cuando el riesgo y el impacto de un resultado injusto o negativo son altos, la gente acepta menos la evolución de la IA. Ciertos tipos de productos, como los dispositivos médicos, podrían ser perjudiciales para sus usuarios si se alteraran sin ningún tipo de supervisión. Por eso algunos reguladores, especialmente la Administración de Alimentos y Medicamentos de los Estados Unidos, han autorizado el uso de únicamente algoritmos «bloqueados»—que no aprenden cada vez que se usa el producto y, por lo tanto, no cambian, en ellos. Para estas ofertas, una empresa puede ejecutar dos versiones paralelas del mismo algoritmo: una que se utiliza solo en I+D, que aprende de forma continua, y una versión bloqueada para uso comercial que está aprobada por los reguladores. La versión comercial podría sustituirse con cierta frecuencia por una nueva versión basada en una versión que mejora continuamente, tras la aprobación reglamentaria.

A los reguladores también les preocupa que el aprendizaje continuo pueda provocar que los algoritmos discriminen o pasen a ser inseguros de formas nuevas y difíciles de detectar. En los productos y servicios en los que la injusticia es una de las principales preocupaciones, también puede esperar que se centre más en la capacidad de evolución.

Complejidad y coste.

Implementar el aprendizaje de la IA puede aumentar los costes operativos. En primer lugar, las empresas pueden encontrarse ejecutando varios algoritmos en diferentes regiones, mercados o contextos, cada uno de los cuales ha respondido a los datos y entornos locales. Es posible que las organizaciones tengan que crear nuevas funciones y procesos de centinela para asegurarse de que todos estos algoritmos funcionan correctamente y dentro de los rangos de riesgo autorizados. Es posible que los directores de riesgos tengan que ampliar sus mandatos para incluir la supervisión de los procesos autónomos de IA y la evaluación del nivel de riesgo legal, financiero, reputacional y físico que la empresa está dispuesta a asumir ante la IA evolutiva.

Las empresas también deben equilibrar la descentralización con las prácticas estandarizadas que aumentan la tasa de aprendizaje de la IA. ¿Pueden crear y mantener una red troncal de datos global para impulsar las soluciones digitales y de IA de la empresa? ¿Qué tan preparados están sus propios sistemas para el almacenamiento y el procesamiento descentralizados? ¿Qué tan preparados están para responder a las amenazas de ciberseguridad? ¿La producción tiene que acercarse a los clientes finales o eso expondría las operaciones a nuevos riesgos? ¿Pueden las empresas atraer a suficientes talentos expertos en IA en los puestos de liderazgo correctos en los mercados locales? Hay que responder a todas esas preguntas con cuidado.

Aportación humana.

Los nuevos datos o los cambios en el entorno también pueden provocar que las personas ajusten sus decisiones o incluso alteren sus modelos mentales. Un director de contratación, por ejemplo, podría tomar decisiones diferentes sobre el mismo solicitante de empleo en dos momentos diferentes si la calidad de los candidatos que compiten cambia, o incluso porque está cansada la segunda vez. Como no hay ningún reglamento que impida que eso suceda, se podría argumentar que se permite que la IA evolucione como resultado de los nuevos datos. Sin embargo, se necesitaría un poco de convencimiento para convencer a la gente con ese punto de vista.

A los reguladores les preocupa que el aprendizaje continuo pueda provocar que los algoritmos discriminen o pasen a ser inseguros de formas nuevas y difíciles de detectar.

Lo que la gente podría aceptar más fácilmente es que la IA se complemente de manera inteligente con la toma de decisiones humanas. Como se describe en el artículo de HBR de 2020» Una forma mejor de incorporar la IA» (en coautoría con Theodoros Evgeniou), los sistemas de IA se pueden implementar como «entrenadores», lo que proporciona comentarios y opiniones a los empleados (por ejemplo, a los operadores de valores financieros de una empresa de gestión de activos). Pero no es una calle de sentido único: gran parte del valor de la colaboración proviene de los comentarios que los humanos dan a los algoritmos. Facebook, de hecho, ha adoptado un enfoque interesante para monitorear y acelerar el aprendizaje de la IA con su Plataforma Dynabench. Encarga a los expertos humanos la búsqueda de formas de engañar a la IA para que produzca un resultado incorrecto o injusto mediante algo llamado recopilación dinámica de datos contradictorios.

Cuando los humanos mejoran activamente la IA, pueden liberar valor con bastante rapidez. En una charla TED reciente, de BCG Sylvain Duranton describió cómo un minorista de ropa ahorró más de 100 millones de dólares en solo un año con un proceso que permitía a los compradores humanos aportar su experiencia a la IA para pronosticar las tendencias de la ropa.

. . .

Dado que la creciente dependencia de la IA (especialmente del aprendizaje automático) aumenta significativamente los riesgos estratégicos a los que se enfrentan las empresas, las empresas deben participar activamente en la redacción de un reglamento para los algoritmos. A medida que la analítica se aplica a decisiones como la aprobación de préstamos o la evaluación de la reincidencia delictiva, siguen aumentando las reservas sobre los sesgos ocultos. La opacidad inherente de la compleja programación que subyace al aprendizaje automático también está causando consternación, y aumenta la preocupación por si las herramientas habilitadas para la IA desarrolladas para una población pueden tomar decisiones de forma segura sobre otras poblaciones. A menos que todas las empresas (incluidas las que no participan directamente en el desarrollo de la IA) se enfrenten pronto a estos desafíos, corren el riesgo de erosionar la confianza en los productos compatibles con la IA y de provocar una regulación innecesariamente restrictiva, lo que socavaría no solo los beneficios empresariales, sino también el valor potencial que la IA podría ofrecer a los consumidores y a la sociedad.