El problema de la alineación

Inteligencia Artificial, Aprendizaje Automático y Valores Humanos

¿No tienes tiempo de leer?

Nuestros Audioresúmenes, te mantienen al día con los mejores artículos y libros de negocios; aún y cuando no tienes tiempo para leer.

IA: Un espejo inesperado de los prejuicios humanos

Todo el mundo tiene una opinión sobre la IA. «Revolucionará el trabajo». «Nos arrebatará nuestros puestos de trabajo». «La IA será la precursora de la paz mundial». «Nos deletreará el día del juicio final». La incertidumbre envuelve el futuro de la IA, sus usuarios y las aplicaciones que se les ocurrirán. Pero no podemos negar su desarrollo a la velocidad del rayo y su despliegue algo precipitado, sin pruebas rigurosas. En el proceso, la IA está demostrando ser un inquietante reflejo de nuestros propios defectos.

Quizá la faceta más inquietante de la IA sea su sesgo y racismo aparentemente arraigados. Las raíces de este inquietante comportamiento se remontan al siglo XIX y a Frederick Douglass, el individuo más fotografiado de su época. Viajaremos desde allí hasta la década de 2010, cuando una joven desarrolladora descubrió que su robot de IA sólo reconocía su presencia cuando se ponía una máscara blanca. Estos episodios, del pasado al presente, nos envían claras señales de precaución y esperanza.

El prejuicio invisible en la IA

En 2015, el desarrollador web Jacky Alciné recibió una notificación sobre una foto compartida por un amigo en Google Fotos. Para su sorpresa, la aplicación tenía una interfaz de usuario renovada, y la IA estaba clasificando las fotos en «graduación», «la playa» y similares.

Un selfie de Alciné y su mejor amigo, ambos negros, se etiquetó como «gorilas». La carpeta se llenó sólo con sus fotos. Atónito y disgustado, Alciné acudió a Twitter para desafiar a Google Fotos. En un par de horas, Google reconoció el problema y se puso manos a la obra. En 2023, su mejor solución será eliminar la categoría «gorilas» de la interfaz de usuario, ya que el algoritmo sigue etiquetando erróneamente a las personas de raza negra.

La semilla de este problema se encuentra en el siglo XIX con el prolíficamente fotografiado Frederick Douglass.

Douglass, célebre abolicionista, vio en la fotografía una oportunidad para una representación más justa de los individuos negros. Antes de la fotografía, la representación de los negros era a menudo caricaturizada en dibujos de artistas blancos, con rasgos exagerados hasta la deshumanización. Douglass defendió la fotografía y animó a los negros a adoptar este medio.

Sin embargo, la representación era sólo una parte del problema. La propia tecnología era inherentemente sesgada. La película se trataba con un revestimiento químico específico optimizado para diferentes condiciones de iluminación. Para afinar este revestimiento, Hollywood empleó a una mujer blanca (la primera fue Shirley) como estándar. Así pues, el revestimiento químico se adaptó para realzar a Shirley, descuidando en el proceso a las personas con tonos de piel más oscuros.

Este sesgo fue rectificado por Kodak en los años 70. No debido al activismo por los derechos civiles, sino porque los fabricantes de muebles y dulces deseaban una mejor representación fotográfica de sus productos. Como resultado, Kodak perfeccionó su película para captar un espectro de colores más amplio. Sin darse cuenta, esto les permitió acceder a un nuevo grupo demográfico. ¿El inconveniente? Décadas de medios visuales carecían de una representación precisa de los individuos no blancos.

Ahora, si avanzamos rápidamente hasta la era de Alciné, somos testigos de cómo la IA deshumaniza a los negros o ignora por completo su presencia.

Una vez comprendido el legado racista de la tecnología, en la siguiente sección analizaremos por qué la IA moderna sigue luchando con este problema y qué se está haciendo para rectificarlo.

Forjar un futuro de IA con inclusión

A principios de la década de 2010, la estudiante de posgrado Joy Buolamwini se embarcó en un proyecto de robótica relacionado con el reconocimiento facial. Su objetivo era entrenar al robot para que jugara al escondite. Sin embargo, el robot no reconoció su cara, lo que la obligó a pedir ayuda a un amigo. Un incidente similar ocurrió más tarde, cuando se encontraba en Hong Kong para asistir a una demostración de robots sociales. Una vez más, el robot no consiguió identificarla, ya que estaba programado con el mismo código de fuente abierta que su anterior robot peek-a-boo.

Buolamwini descubrió que el problema radicaba en los datos de entrenamiento del programa, compuestos principalmente por imágenes de un conjunto de datos llamado Faces in the Wild. Al examinarlos, descubrió un sesgo evidente: las imágenes mostraban predominantemente a hombres blancos, y menos del cinco por ciento eran imágenes de mujeres de piel oscura. No era de extrañar que los robots no pudieran reconocerla.

Deseosa de compartir sus hallazgos, Buolamwini se puso en contacto con varias empresas tecnológicas. IBM fue la única que respondió positivamente. Tras verificar sus afirmaciones, se pusieron manos a la obra para rectificar el sesgo de sus conjuntos de datos y reentrenar el algoritmo. En pocas semanas, consiguieron reducir diez veces los errores en la identificación de rostros de mujeres negras.

Sin embargo, esto no es más que la punta del iceberg. Al contemplar las bendiciones o maldiciones potenciales de la IA, debemos profundizar en nuestro pasado. El quid de la cuestión es que el rendimiento de la IA sólo es tan bueno como su entrenamiento. Cuando los programas de IA de código abierto recién lanzados se comportan de forma inadecuada, es probable que se deba a su entrenamiento en Internet, una plataforma creada por humanos que no siempre modelan el mejor comportamiento.

Esto sirve de advertencia a los desarrolladores: Ignorar los contextos históricos y humanos que informan nuestra tecnología puede conducir a graves errores. Apresurarse a lanzar nuevas tecnologías sin pruebas exhaustivas y perspectivas diversas supone un riesgo importante para nuestro futuro.

Conclusión

El desarrollo de la IA no puede desvincularse del tapiz de la historia humana. La calidad de los programas de IA depende en gran medida de los conjuntos de datos con los que se entrenan. Dada la larga representación errónea y la exclusión de los negros de la fotografía y el cine en EE.UU., no es sorprendente que muchos conjuntos de datos estén sesgados hacia los hombres blancos. Corregir este problema exige renovar los conjuntos de datos.

Sin embargo, bajo la superficie se esconde una lección mayor: El despliegue apresurado de nuevas tecnologías de IA sin pruebas adecuadas y aportaciones diversas no sólo es irresponsable, sino potencialmente peligroso para la humanidad. Infundiendo al desarrollo de la IA una comprensión de la historia, perspectivas diversas y dedicación a las pruebas, podemos mitigar estos riesgos y fomentar un futuro de la IA más inclusivo.

Scroll al inicio