Con decenas de miles de millones invertidos en IA el año pasado y jugadores líderes como OpenAI buscando trillones más, la industria tecnológica está compitiendo para aumentar la acumulación de modelos de IA generativa. El objetivo es demostrar un mejor rendimiento y, al hacerlo, cerrar la brecha entre lo que los humanos pueden hacer y lo que se puede lograr con IA.

Sin embargo, hay otra brecha que debe recibir igual, si no mayor, prioridad al pensar en estas nuevas herramientas y sistemas: la brecha de confianza en la IA. Esta brecha se cierra cuando una persona está dispuesta a confiar en una máquina para hacer un trabajo que de otro modo se habría confiado a humanos calificados. Es esencial invertir en analizar esta segunda brecha subestimada y en lo que se puede hacer al respecto si se quiere que la IA sea ampliamente adoptada.

La brecha de confianza en la IA puede entenderse como la suma de los riesgos persistentes (tanto reales como percibidos) asociados con la IA; dependiendo de la aplicación, algunos riesgos son más críticos. Estos abarcan tanto el aprendizaje automático predictivo como la IA generativa. Según la Comisión Federal de Comercio, los consumidores están expresando preocupaciones sobre la IA, mientras que las empresas están preocupadas por varios problemas a corto y largo plazo. Considera 12 riesgos de IA que son de los más comúnmente citados entre ambos grupos:

  • Desinformación
  • Seguridad
  • El problema de la caja negra
  • Cuestiones éticas
  • Sesgo
  • Inestabilidad
  • Alucinaciones en los modelos de lenguaje
  • Desconocidos desconocidos
  • Pérdida de empleo e inequidades sociales
  • Impacto ambiental
  • Concentración industrial
  • Exceso de control estatal

En conjunto, el efecto acumulativo de estos riesgos contribuye al escepticismo general del público y a las preocupaciones empresariales sobre el despliegue de la IA. Esto, a su vez, disuade la adopción. Por ejemplo, los radiólogos dudan en aceptar la IA cuando la naturaleza de caja negra de la tecnología impide una comprensión clara de cómo el algoritmo toma decisiones sobre segmentación de imágenes médicas, análisis de supervivencia y pronósticos. Asegurar un nivel de transparencia en el proceso de toma de decisiones algorítmico es crítico para que los radiólogos sientan que están cumpliendo con sus obligaciones profesionales de manera responsable, pero esa transparencia necesaria todavía está lejos de alcanzarse. Y el problema de la caja negra es solo uno de los muchos riesgos a considerar. Dado que existen problemas similares en diferentes situaciones de aplicación e industrias, deberíamos esperar que la brecha de confianza en la IA sea permanente, incluso a medida que mejoremos en la reducción de los riesgos.

Esto tiene tres implicaciones principales. Primero, no importa cuánto mejoremos el rendimiento de la IA, los adoptantes de la IA —usuarios en casa y en empresas, tomadores de decisiones en organizaciones, formuladores de políticas— deben atravesar una brecha de confianza persistente. Segundo, las empresas necesitan invertir en comprender los riesgos más responsables de la brecha de confianza que afecta la adopción de sus aplicaciones y trabajar para mitigar esos riesgos. Y tercero, emparejar a los humanos con la IA será la herramienta de gestión de riesgos más esencial, lo que significa que siempre necesitaremos a humanos que nos guíen a través de la brecha —y esos humanos necesitan estar adecuadamente entrenados.

Considera los 12 riesgos. Para cada uno de ellos, hay cuatro preguntas: ¿Cómo socavan la confianza en la IA? ¿Cuáles son las opciones —iniciadas por la industria o requeridas por los reguladores— para mitigar o gestionar el riesgo? ¿Por qué las opciones ofrecen a lo sumo un remedio parcial que permite que el riesgo persista? ¿Cuáles son las lecciones aprendidas y las implicaciones? En conjunto, estos ayudan a desglosar la brecha de confianza en la IA, por qué se puede esperar que persista y qué se puede hacer al respecto.

1. Desinformación

La desinformación en línea no es nueva, pero las herramientas de IA la han superpotenciado. Las deepfakes asistidas por IA han acompañado elecciones desde Bangladesh (donde se representó a un líder de la oposición en bikini) hasta Moldavia (donde un clip falso del presidente apoyando a un partido prorruso circuló antes de las elecciones), dando a los votantes una razón para desconfiar de la información esencial para el funcionamiento de las democracias. A finales de 2023, el 85% de los usuarios de internet se preocupaban por su incapacidad para detectar contenido falso en línea, un problema serio dado las elecciones importantes de 2024 en todo el mundo.

Las compañías de redes sociales están fallando en gran medida en abordar la amenaza, ya que la mayoría ha reducido drásticamente a los moderadores de contenido humano que son la defensa más efectiva contra la desinformación. Meta, por ejemplo, redujo drásticamente los equipos de moderación de contenido, archivó una herramienta de verificación de hechos que estaba en desarrollo y canceló contratos con moderadores de contenido externos como parte de su “año de eficiencia” en 2023. Ahora, la plataforma está lidiando con una avalancha de contenido generado por IA impulsado por publicidad, un recordatorio de que los algoritmos de recomendación de redes sociales son otra forma de IA que puede ser manipulada. Estas retiradas fueron reflejadas en YouTube, que recortó su equipo de moderación de contenido, y en X, con un desmantelamiento aún más drástico. Aunque TikTok no ha experimentado el mismo nivel de recortes en sus equipos de moderación de contenido, tiene que defenderse de un conjunto diferente de preocupaciones: problemas de seguridad y privacidad de los datos de los usuarios. La moderación de contenido algorítmica/automatizada a menudo ofrecida en lugar de la moderación humana está lejos de ser adecuada.

En ausencia de medidas de mitigación iniciadas por las empresas, la responsabilidad recae en los reguladores, que están interviniendo para obligar a las empresas a actuar. En los EE. UU., varios estados han introducido proyectos de ley dirigidos a la desinformación relacionada con las elecciones y las deepfakes. La Casa Blanca tiene una orden ejecutiva que requiere el “marcado de agua” o etiquetado claro del contenido creado por IA, lo que también es requerido por la reciente regulación de la IA de la UE. En otros lugares, el gobierno de la India responsabiliza a las compañías de redes sociales por el contenido señalado como dañino que no ha sido eliminado.

Sin embargo, estas bien intencionadas medidas de gestión de riesgos pueden tener consecuencias no deseadas, ya que las plataformas pueden simplemente asignar recursos limitados de moderación a mercados con la mayor presión regulatoria en lugar de invertir en más moderación. EE. UU. o la UE recibirán una asignación excesiva a expensas del resto del mundo —particularmente en los países en desarrollo donde las demandas regulatorias y comerciales son menores— a pesar de que hay muchos más usuarios en estas ubicaciones. Hay evidencia de que esto ya estaba sucediendo antes de los recortes recientes: en 2020, el 87% del tiempo de moderación de contenido de Facebook se dedicaba a publicaciones en los EE. UU., a pesar de que el 90% de los usuarios de Facebook no eran de EE. UU.

La lección es que debemos aceptar la dura realidad de que la desinformación será difícil de eliminar. Dependiendo de dónde te encuentres en el mundo, podría incluso aumentar en volumen y —con la creciente sofisticación de las deepfakes asistidas por IA— en el grado de engaño. La vigilancia humana y la educación en “higiene digital” serán esenciales.

2. Seguridad

El panorama para los riesgos de seguridad de la IA es desalentador. En la encuesta más grande realizada a expertos en IA y aprendizaje automático, entre el 37.8% y el 51.4% de todos los encuestados estimaron al menos un 10% de probabilidad de escenarios tan graves como la extinción humana, con incluso el 48% de los optimistas netos situando esa probabilidad en el 5%. Es difícil pensar en evaluaciones tan graves siendo consideradas aceptables para cualquier otra tecnología actualmente en uso generalizado. Por supuesto, hay riesgos menos apocalípticos: usos maliciosos de las herramientas de IA en ciberataques, ser “jailbroken” para seguir comandos ilegales, etc. En la misma encuesta, situaciones como la probabilidad de que la IA sea “jailbroken” se calificaron con una probabilidad relativamente alta —la mayoría de los encuestados la calificaron como “probable” o “muy probable”— incluso en el año 2043.

Una vez más, las regulaciones son críticas para mitigar estos riesgos. La orden ejecutiva de la Casa Blanca y las regulaciones de la UE requieren que los modelos de IA generativa por encima de un cierto umbral de riesgo publiquen resultados de ataques simulados de “red-team” para identificar vulnerabilidades. Dicho esto, no está claro que tales requisitos puedan ser efectivos para eliminar el riesgo. Lo que es peor es que medidas como los requisitos de red-team pueden estar fomentando una mera “teatralidad de seguridad”. Hay pocos estándares sobre métodos y criterios infalibles de red-team, y aunque las regulaciones obliguen a cierta transparencia, es difícil confirmar que tales esfuerzos fueron exhaustivos. Las startups probablemente no tendrán los recursos para hacer este trabajo internamente o garantizar pruebas de fuentes externas, introduciendo nuevas fuentes de vulnerabilidad a medida que sus productos se conecten al ecosistema de IA más grande o que el costo disuada a las startups desde el principio.

La lección más amplia —como creen muchos expertos— es que los riesgos de seguridad de la IA son imposibles de eliminar en el futuro previsible. Esto significa que la conciencia y la preparación serán clave y, para las aplicaciones más críticas y de vida o muerte —desde la seguridad nacional hasta la atención médica— será importante mantener a los humanos en el circuito, asegurando que las decisiones nunca sean completamente automatizadas; por ejemplo, en negociaciones altamente sensibles entre naciones con armas nucleares, los acuerdos tendrían que garantizar que las decisiones relacionadas con el lanzamiento de pruebas o misiles permanezcan en manos de los humanos.

3. El Problema de la Caja Negra

La transparencia es esencial para construir confianza. Con la IA, eso puede incluir informar a los usuarios cuando están interactuando con un modelo de IA, ser capaz de explicar cómo produjo un resultado particular y ser consciente de qué información necesitan los interesados y entregarla en términos que puedan entender. Las regulaciones clave, como la Ley de IA de la UE, harán cumplir ciertos estándares de transparencia, pero el desafío siempre presente es que los incentivos para las compañías de IA les alientan a minimizar la transparencia —para preservar la ventaja competitiva y la propiedad intelectual, para prevenir ataques maliciosos y reducir la exposición a demandas sobre derechos de autor. Como tal, la IA a menudo es una caja negra —no está claro por qué produce el resultado que produce.

Un enfoque liderado por la industria hacia la transparencia es parte del atractivo del desarrollo de IA de código abierto. Pero esto también tiene limitaciones. Hay demasiadas entradas en los modelos de IA —desde los datos de entrenamiento hasta el código usado para preprocesar y gobernar el proceso de entrenamiento, la arquitectura del modelo, etc.— tanto que los expertos no pueden ponerse de acuerdo sobre lo que realmente constituye “código abierto”. Las compañías usan esta ambigüedad como cobertura para inventar sus propias definiciones y ocultar el componente clave —los datos de entrenamiento, incluidos los datos “sintéticos”— del escrutinio público. Incluso las compañías como Meta, que defienden los modelos de código abierto, se están volviendo menos “abiertas” con el tiempo: su modelo Llama 2 es mucho menos transparente que Llama 1. Y incluso Llama 2, un estándar de la industria en transparencia, solo califica 54 de 100 en el puntaje de transparencia del Centro de Investigación de Modelos Fundamentales de Stanford. Compañías como IBM han ofrecido “fichas técnicas” para mecanismos de seguimiento y transparencia, pero las auto-declaraciones no auditadas no son mecanismos ideales para construir confianza.

Una vez más, se espera que las regulaciones jueguen un papel en la mitigación de los riesgos de los sistemas de caja negra. La regulación podría obligar a las compañías a someterse a auditorías externas de los modelos de IA y publicar los resultados, pero eso requeriría criterios de auditoría, estándares, auditores creíbles y una verdadera capacidad de aplicación regulatoria. Una ley de Nueva York que requiere que los empleadores que utilizan herramientas de decisión automatizadas para empleo las auditen para detectar sesgos de raza y género fue encontrada ineficaz por un estudio reciente de Cornell. El Instituto Nacional de Estándares y Tecnología tiene un Marco de Gestión de Riesgos de IA, pero sin certificación, estándares o una metodología de auditoría, es, hasta ahora, ineficaz.

La lección aquí es que, si bien habrá progreso en transparencia, el problema de la caja negra de la IA permanecerá. Cada área de aplicación deberá desarrollar iniciativas orientadas a construir transparencia, lo que ayudará a facilitar el proceso de adopción. Por ejemplo, para ayudar a generar confianza entre los radiólogos mencionados anteriormente, la “interpretabilidad” de la IA —es decir, ser capaz de entender la causa de una decisión tomada por un algoritmo— con aplicaciones radiológicas es un campo de investigación crucial y en crecimiento para apoyar la práctica clínica y la adopción.

4. Cuestiones Éticas

La mayoría de los usuarios están de acuerdo en que es crítico asegurarse de que los algoritmos vayan más allá de las matemáticas y los datos y se combinen con directrices que aseguren principios éticos, por ejemplo, que respeten los derechos y valores humanos, sin importar lo que sugieran las matemáticas. Ha habido varios intentos de lograr que los desarrolladores de IA se unan en torno a criterios éticos universalmente aceptados: los principios de IA de Asilomar, por ejemplo, abrazan “valores humanos”, “libertad y privacidad”, “bien común”, entre otros ideales en el desarrollo y uso de modelos de IA. Pero hay tres obstáculos para tales esfuerzos.

Primero, los ideales éticos no son universales. Las dos naciones predominantes en IA, EE. UU. y China, interpretan “libertad y privacidad” de manera diferente: la libertad de expresión es primordial en EE. UU., mientras que en China, el discurso no moderado entra en conflicto con el “bien común”. Incluso dentro de EE. UU., con sus amargas guerras culturales y polarización, los grupos pro-vida y pro-elección difieren en “valores humanos”. Algunos quieren que la IA sea anti-“woke”, mientras que otros quieren la “descolonización” de la IA.

Segundo, los organismos transnacionales apolíticos tienen poderes limitados. La ONU tiene principios éticos de IA consistentes con su carta y la UNESCO ha reunido a compañías para comprometerse a construir una IA más ética. Dado que la mayor parte del desarrollo de IA ocurre en el sector privado, la influencia de la ONU es limitada.

Tercero, los incentivos organizacionales de las compañías de IA exacerban las tensiones entre la ética y otras consideraciones. Por ejemplo, con una fuerza laboral que generalmente se inclina a la izquierda políticamente, hay una necesidad de diversidad política en la supervisión ética. Esto es difícil de hacer en la práctica: los esfuerzos de Google para ensamblar un consejo asesor de ética en IA fracasaron cuando los empleados se opusieron al nombramiento del presidente de la Fundación Heritage, de derecha. El drama de la sala de juntas contra Sam Altman en OpenAI, el intento fallido de separar DeepMind de la estructura empresarial estándar de Google después de su adquisición y el colapso del liderazgo de Stability AI son recordatorios recurrentes de la batalla por las prioridades en las compañías pioneras de IA: repetidamente, los objetivos comerciales ganan sobre los ideales de “bien común” de la IA.

La lección aquí es que los dilemas éticos son dependientes del contexto y serán una característica permanente de los sistemas de IA; son especialmente críticos si dan lugar a decisiones excluyentes o peligrosas. Mantener a los humanos, incluidos aquellos ensamblados como juntas de gobierno o supervisión y equipos de vigilantes externos, en el circuito será esencial.

5. Sesgo

Los sesgos en la IA provienen de muchas fuentes: datos de entrenamiento sesgados o limitados, las limitaciones de las personas involucradas en el entrenamiento e incluso el contexto de uso. Pueden erosionar la confianza en los modelos de IA cuando aparecen en aplicaciones críticas, por ejemplo, cuando se descubre que los prestamistas son más propensos a negar préstamos hipotecarios a personas de color por un porcentaje aún mayor cuando se usa IA para aprobaciones de hipotecas. Hay varias acciones de mitigación que se pueden tomar, como imponer restricciones de equidad en los modelos de IA, agregar más fuentes diversas de datos, capacitar a los desarrolladores de IA en el reconocimiento de sesgos, diversificar el grupo de talento de IA, usar herramientas y métricas para probar sesgos, etc.

A pesar de estas medidas correctivas, la IA puede nunca estar libre de sesgos de manera confiable por varias razones. Por un lado, porque las herramientas de IA se entrenan en entornos cerrados y pueden encontrarse con entornos de aplicación desconocidos, pueden producir sesgos sorprendentes debido a su exposición limitada a datos del mundo real. Además, los procesos para probar la presencia de sesgos son difíciles. Las definiciones de lo que constituye sesgo e injusticia pueden variar ampliamente con contextos tan diferentes como Occidente, China, India —la idea de “equidad”, por ejemplo, se presta a 21 definiciones diferentes, lo que dificulta llegar a un consenso sobre cuándo un resultado se considera verdaderamente imparcial. Incluso “desaprender” los sesgos puede ser peligroso, ya que podría introducir nuevas asociaciones impredecibles aprendidas por el modelo de IA, empeorando las cosas en general; la producción de imágenes ahistóricas defectuosas por parte de Google y Meta ofrece un claro ejemplo de tales riesgos. Además, los modelos de IA también corren el riesgo de quedarse sin nuevos datos de alta calidad para entrenarse y neutralizar los sesgos que surgen de conjuntos de datos limitados o de baja calidad.

La lección aquí es que debemos aceptar que los modelos de IA se entrenarán con limitaciones, ya sea de datos o de los propios entrenadores operando con límites humanos, y los sesgos serán inevitables. Será esencial aplicar juicio humano y vigilancia junto con una acción correctiva rápida antes de que causen daño.

6. Inestabilidad

En algunos contextos, las decisiones de IA pueden cambiar drásticamente cuando se cambia ligeramente la entrada y no de una manera significativa, lo que lleva a errores y diferencias pequeñas a catastróficas en los resultados. Por ejemplo, los vehículos autónomos pueden ser confiables para muchas funciones, pero a veces fallan: por ejemplo, cuando una pequeña obstrucción en una señal de alto hace que un automóvil asistido por IA pase de largo. Si bien los modelos de IA se están mejorando constantemente al agregar datos de entrenamiento, mejorar los protocolos de prueba y el aprendizaje automático continuo, la investigación académica sobre la “estabilidad” de la IA ha encontrado que, más allá de los problemas básicos, es matemáticamente imposible desarrollar algoritmos de IA universalmente estables. Esto significa que nunca podemos estar seguros de que la IA tome decisiones correctas cuando hay incluso un pequeño ruido en los datos de entrada.

La lección aquí es que los sistemas de IA pueden ser sensibles a pequeños cambios, que son inevitables en el mundo real más allá del conjunto de datos de entrenamiento. La presencia de humanos alertas para realizar una corrección manual o una anulación será crítica en estas situaciones.

7. Alucinaciones en Modelos de Lenguaje

Las alucinaciones de IA han llevado a los modelos a hacer cosas extrañas, desde profesar estar enamorados de sus usuarios hasta afirmar haber espiado a empleados de la empresa. Muchos productores de IA han desarrollado una gama de técnicas de mitigación. Por ejemplo, IBM recomienda usar datos de entrenamiento de alta calidad, establecer límites claros en el uso del modelo de IA, usar plantillas de datos para facilitar la consistencia de la salida y realizar pruebas y refinamientos continuos. Independientemente de las acciones tomadas, la investigación sugiere que hay un límite inferior estadístico en las tasas de alucinación, lo que significa que siempre habrá una posibilidad de que aparezcan alucinaciones. Una vez más, como es lógico para los modelos probabilísticos, independientemente de la calidad de la arquitectura del modelo o del conjunto de datos, se espera que los incidentes de alucinación disminuyan pero nunca se eliminen.

La lección es nunca confiar o poner en uso público cualquier producto de un modelo de IA generativa —especialmente en escenarios de alto riesgo, como la documentación legal— sin que profesionales capacitados lo revisen minuciosamente. Esto puede ayudar a evitar situaciones como la de ChatGPT que inventó media docena de casos judiciales falsos con citas y referencias ficticias al preparar un informe legal.

8. Desconocidos Desconocidos

La IA puede actuar de maneras que los humanos no pueden anticipar. Los modelos pueden tener puntos ciegos, sus datos de entrenamiento pueden no alinearse con el entorno en el que se están aplicando y pueden cometer errores que los desarrolladores no pueden entender. Los modelos de reconocimiento de imágenes identifican elementos con confianza, pero pueden, inexplicablemente, estar completamente equivocados. Entrenar continuamente los modelos con nuevos conjuntos de datos ayuda a reducir las probabilidades, pero incluso a medida que el modelo mejora, siempre habrá más información fuera de su alcance, y los riesgos creados por tales elementos faltantes se acumulan y pueden evolucionar de maneras inesperadas.

La lección es que aplicar la IA sin cuestionamientos, que en sí misma tiene puntos ciegos, es una receta para el desastre; es crítico asegurar la mano humana en la guía de decisiones con una conciencia del contexto de aplicación.

9. Pérdida de Empleo e Inequidades Sociales

Las economías con aumento de productividad deberían experimentar rápidos aumentos salariales. Las expectativas del impacto de la IA en la productividad varían: McKinsey ha proyectado un optimista aumento del 3.3% anual para 2040 debido al uso de IA generativa. El ex CEO de Google, Eric Schmidt, espera que la IA duplique la productividad de todos. El presidente de la Reserva Federal de EE. UU., Jerome Powell, es más medido al predecir el impacto de la IA en la productividad y espera poco cambio en el corto plazo.

Una forma natural de tener una idea más clara del impacto es recurrir a la historia. Desafortunadamente, en este caso, la historia ofrece poca orientación. El crecimiento de la productividad de los trabajadores en EE. UU., de hecho, disminuyó cuando se introdujeron las primeras tecnologías digitales. Incluso cuando se duplicó a finales de la década de 1990, en el momento del lanzamiento de la World Wide Web, el aumento fue de corta duración, con aumentos posteriores en 2009 durante la Gran Recesión, después del comienzo de la pandemia en 2020, y luego nuevamente hasta el 4.7% en el tercer trimestre de 2023, demasiado temprano para atribuirlo a la IA. Esto ofrece evidencia insuficiente para ser optimistas sobre el impacto de la IA en la productividad y los salarios en las economías.

Sin embargo, las empresas individuales son más optimistas, lo que podría traducirse en pérdidas de empleo a medida que la IA asuma tareas realizadas por humanos. Pero eso significaría que la IA aumentaría los salarios de los empleados, mientras que conduciría a pérdidas salariales para aquellos cuyos trabajos son desplazados, empeorando las inequidades sociales. Para contrarrestar tales temores, algunos expertos anticipan que la IA generativa puede reducir las inequidades al dar acceso a herramientas de movilidad ascendente a los trabajadores menos calificados. La historia es más útil aquí, ya que sugiere que las inequidades aumentarán: la desigualdad salarial tendía a aumentar más en los países en los que las empresas ya dependían de la automatización; los trabajadores negros e hispanos estaban sobrerrepresentados en las 30 ocupaciones con mayor exposición a la automatización y subrepresentados en las 30 ocupaciones con menor exposición; y se esperaba que las mujeres se vieran desproporcionadamente afectadas negativamente, con el 79% de las mujeres trabajadoras en ocupaciones vulnerables al desplazamiento laboral por la IA generativa, en comparación con el 58% de los hombres trabajadores vulnerables al desplazamiento.

La lección general es que la sombra de la pérdida de empleos y el aumento de las inequidades sociales se cierne sobre la adopción de la IA. Incluso reconocer la adopción de la IA puede ser problemático: el mayor despido de UPS en su historia fue debido a la IA reemplazando a los humanos, según el CEO en una llamada de resultados, pero un portavoz luego negó cualquier conexión entre los despidos y la IA. Claramente, el CEO deseaba señalar a los inversores que la compañía estaba adoptando la IA para beneficiarse de las eficiencias de costos de la reducción de personal, pero también tuvo una repercusión negativa en las relaciones públicas; esto sugiere que el impacto en los empleos crea fricción para aceptar plenamente la IA. Con múltiples preocupaciones de los interesados a equilibrar, las empresas esperanzadamente adoptarán la IA de manera juiciosa.

10. Impacto Ambiental

Se espera que la participación de la IA en el uso de energía de los centros de datos a nivel mundial crezca al 10% para 2025. Para 2027, con el agua necesaria para la refrigeración, el uso de la IA en los centros de datos podría eliminar el equivalente a la mitad del agua consumida en el Reino Unido cada año. Se necesitan chips cada vez más potentes para la IA, y están contribuyendo a una de las corrientes de desechos de más rápido crecimiento. Ninguna de estas tendencias muestra signos de desaceleración. El uso creciente de la IA generativa, especialmente para la producción de imágenes, empeorará aún más las cosas. Un estudio encuentra que 1,000 imágenes utilizando Stable Diffusion XL emiten tanto dióxido de carbono como un automóvil a gasolina conduciendo 4.1 millas.

Una consideración importante es que las aplicaciones asistidas por IA pueden reemplazar otras actividades costosas para el medio ambiente y pueden ayudar a reducir las emisiones y el uso de recursos. Sin embargo, es necesario estar consciente de su impacto. Acciones específicas, como la Ley de Impactos Ambientales de la Inteligencia Artificial de 2024, introducida en el senado de EE. UU., son loables pero serán desafiantes sin estándares para medir o verificar las emisiones relacionadas con la IA. Otro enfoque para mitigar los riesgos es que los nuevos centros de datos se alimenten con energía renovable, pero la demanda de ellos está creciendo demasiado rápido para ser completamente alimentada por energía renovable. Incluso con iniciativas de reciclaje en marcha, solo el 13.8% de los desechos electrónicos documentados se recolectan y reciclan formalmente, con un estimado del 16% fuera del sistema formal en países de ingresos altos y medianos altos. En el futuro previsible, el impacto ambiental negativo de la IA es ineludible.

La lección aquí es que, al igual que varias industrias, como la industria de combustibles fósiles o los fabricantes de vehículos que consumen mucha gasolina, han perdido la confianza de muchos consumidores debido a su impacto ambiental, la IA podría correr riesgos similares. Se necesita juicio humano para evaluar si los beneficios de, por ejemplo, incorporar mejoras de IA a productos con alternativas suficientemente buenas valen los costos ambientales.

11. Concentración Industrial

A pesar de la alta prioridad en la IA por parte del liderazgo político, su desarrollo está liderado por la industria. Las razones son estructurales: el desarrollo de IA requiere varios insumos críticos, como talento, datos, poder computacional y capital, y el sector privado está mejor posicionado para tener acceso a ellos. Además, estos recursos están concentrados en unas pocas empresas.

Hay dos puntos principales de concentración en la cadena de valor de la IA. Un puñado de innovadores dinámicos que desarrollan modelos de IA se apoyan en otro puñado de grandes empresas para insumos críticos. Nvidia, Salesforce, Amazon, Google y Microsoft son los mayores inversores en los principales innovadores de IA, mientras que Meta es una fuente importante de modelos de código abierto.

Además del capital, los desarrolladores de modelos de IA recurren a Nvidia para unidades de procesamiento gráfico, a proveedores de nube como Amazon y Microsoft para ejecutar los modelos, mientras que Google, Meta y Microsoft están integrando la IA para defender sus productos principales. Incluso con una capa más competitiva de aplicaciones y servicios de IA adaptados a usos específicos, la base de la industria claramente permanecerá concentrada. La desconfianza que los usuarios sienten hacia el control de Big Tech se revisitará de maneras aún más poderosas a medida que la tecnología se vuelva más intensiva en IA.

La acción habitual para mitigar los riesgos de concentración industrial, es decir, el escrutinio regulatorio, ha llegado tarde. La Comisión Federal de Comercio solo recientemente lanzó una investigación sobre este creciente riesgo de concentración. Mientras tanto, las tendencias continúan: desde que se lanzó la investigación, Microsoft, ya el mayor inversor en OpenAI, absorbió al equipo principal de Inflection y Amazon invirtió $2.75 mil millones en Anthropic. Y estos —OpenAI, Inflection y Anthropic— son los tres innovadores de IA más significativos en EE. UU. actualmente.

La lección es que la concentración de poder en unas pocas empresas erosiona la confianza porque los consumidores se sienten atrapados, se preocupan por pagar de más y tienen preocupaciones sobre la privacidad de sus datos acorralados por empresas poderosas que pueden explotarlos en otras áreas.

12. Exceso de Control Estatal

Las tendencias apuntan hacia un mayor uso de la IA y herramientas relacionadas para ejercer control sobre los ciudadanos por parte de los gobiernos de todo el mundo. Además, la proporción de poblaciones que viven en entornos políticos designados como “libres” por Freedom House ha disminuido en la última década y media. Las libertades en internet a nivel mundial han estado disminuyendo durante 13 años consecutivos, según Freedom House, y la IA ha estado facilitando ese declive de muchas maneras: difundiendo propaganda estatal, habilitando una censura más eficiente, creando perfiles de comportamiento de los ciudadanos y desarrollando análisis predictivos y vigilancia. Como evidencia de este último desarrollo, considera que al menos 75 de 176 países a nivel mundial están utilizando activamente tecnologías de IA para fines de vigilancia, incluyendo el 51% de las democracias avanzadas. Con los datos de los ciudadanos cada vez más en posesión de los gobiernos, especialmente con el crecimiento de los sistemas de identidad digital, las posibilidades de abuso de poder son aún mayores. Expertos preocupados han propuesto varios posibles controles y equilibrios, pero no han sido adoptados ampliamente.

La lección más amplia es que la preocupación por el exceso de control estatal puede llevar a rechazar el uso de la IA incluso cuando puede ser beneficiosa para la sociedad si se usa con salvaguardas. Probar la disposición a aceptar las compensaciones será crítico para asegurar que los ciudadanos estén cómodos con que los estados usen la IA. Considera el uso de la tecnología de reconocimiento facial por parte de la policía: ciudades como San Francisco la han prohibido.

• • •

Si bien gran parte de la atención se ha centrado en los impresionantes avances en el rendimiento de la IA, los estadounidenses también son cada vez más pesimistas sobre el impacto de la IA. A nivel mundial, la confianza en las empresas de IA ha disminuido, y en EE. UU., la caída ha sido aún más dramática. Concedido, muchas empresas tecnológicas y comentaristas sugieren que se puede construir confianza en la IA rápida y fácilmente, pero no nos engañemos; una brecha de confianza en la IA obstinada persiste. Y está aquí para quedarse.

Incluso si la brecha de confianza se reduce, es importante recordar que la confianza no necesariamente sigue de un cálculo matemático o lógico: incluso un solo enchufe de puerta que se sale de un avión sacude nuestra confianza en todo el sistema de aviación, estadísticamente uno de los modos de transporte más seguros. El déficit de confianza afectará la adopción, especialmente para aplicaciones altamente sensibles, como la atención médica, las finanzas, el transporte o la seguridad nacional. Los líderes deben reconocer cuáles de los 12 riesgos son más críticos para una aplicación y monitorear el progreso en la reducción de la brecha.

Incluso a medida que la tecnología avanza y madura, el emparejamiento de la IA con los humanos seguirá siendo la señal más grande para los usuarios potenciales preocupados de que las empresas que implementan esta tecnología merecen confianza. Pero los humanos que acompañan a la IA deben estar preparados, ya sea teniendo conversaciones basadas en evidencia, participando en una ciudadanía activa para escrutar los resultados asistidos por la IA o asegurando la diversidad entre los equipos que producen la IA.

Actualmente, el enfoque está en entrenar a los modelos de IA para que se parezcan más a nosotros. No olvidemos que también debemos entrenar a los humanos. Deben aprender a reconocer qué causa el déficit de confianza en la IA, aceptar que permanecerá y entender cómo intervenir mejor para llenar el vacío. Dicho de otra manera, la industria ha gastado decenas de miles de millones en crear productos de IA, como Microsoft Copilot. Es hora de invertir también en el humano al lado: el piloto.


por Bhaskar Chakravorti