A medida que la IA se une a la economía de la reputación, nos juzgan a todos en silencio
por Sophie Kleber

TongRo Images Inc./Getty Images
En el Espejo negro episodio Caída en picado, la protagonista, Lacie, vive en un mundo sacarino de bromas en el que cada interacción personal o empresarial se anota. Todo depende de la puntuación social y todo el mundo está desesperado por ascender en la clasificación. Pero el omnipresente juego de clasificación tiene un gran inconveniente: subir de clasificación es increíblemente difícil, mientras que bajar de clasificación es rápido y fácil, como una caída libre.
Bienvenido a la economía de la reputación, en la que el gráfico social individual (el conjunto de datos sociales sobre cada persona) determina el valor de una persona en la sociedad, el acceso a los servicios y la empleabilidad. En esta economía, la reputación se convierte en moneda.
La economía de la reputación se basa en un sistema de clasificación por estrellas simplista pero eficaz. Todos los que hayan valorado a su conductor de Uber o anfitrión de Airbnb han participado activamente. Pero, ¿qué ocurre cuando los algoritmos, en lugar de los humanos, determinan la puntuación de reputación de una persona en función de varias fuentes de datos y fórmulas matemáticas, lo que promete más precisión y flexibilidad mediante el aprendizaje automático?
El 70% de las empresas estadounidenses actualmente utiliza las redes sociales para evaluar a los empleados. Y muchos habilitados para la IA empresas emergentes están compitiendo en el mercado de la evaluación de recursos humanos y utilizan la IA para rastrear las cuentas de redes sociales de los posibles candidatos y filtrar las malas opciones.
Centro Insight
Los riesgos y las recompensas de la IA
Patrocinado por SAS
Evaluar las oportunidades y los posibles escollos.
En 2012, Facebook solicitó un patente que utilizaría un algoritmo para evaluar las calificaciones crediticias de los amigos, como factor para poder solicitar una hipoteca. Y China tiene como objetivo implementar un nacional puntuación social para todos los ciudadanos de aquí a 2020, basado en los antecedentes delictivos, sus redes sociales, lo que compran e incluso las partituras de sus amigos.
Cuando la IA empieza a determinar el valor social de una persona, hay mucho en juego. Como Kim Darah escribe en La nueva economía: «Lejos de ser herramientas de decisión neutrales y omniscientes, los algoritmos complejos los moldean los humanos, que son, a todos los efectos, imperfectos». Debemos preguntarnos: ¿Qué tan buenos son los datos? ¿Qué tan buenas son las matemáticas? ¿Qué tan preparada está la sociedad para ser juzgada por la IA? ¿Y qué podría salir mal?
Datos incorrectos
Los algoritmos aprenden extrayendo patrones de grandes conjuntos de datos históricos y, a continuación, aplicando esos patrones para predecir el futuro. Cuando el conjunto de datos sea defectuoso, la predicción será errónea.
En 2012, el estado de Idaho recortó las prestaciones de Medicaid para 4000 personas con discapacidades intelectuales y del desarrollo, entre un 20 y un 30%. Tras la Unión Estadounidense de Libertades Civiles (ACLU) demandó para obtener información sobre el algoritmo utilizado para determinar los recortes, descubrieron que dos tercios de los datos históricos estaban corruptos, lo que dio como resultado un algoritmo predictivo que se basaba en un subconjunto aún levemente defectuoso de un tercio de los datos existentes. Los datos incorrectos condujeron, entre otras cosas, a malos resultados.
Los posibles datos sobre la economía de la reputación son igualmente erróneos. El 79% de los estadounidenses en línea usan Facebook, pero solo el 32% están en Instagram y el 24% en Twitter . Esta variación en la penetración de las redes sociales hace que la triangulación de los datos de varias redes solo sea posible para un subconjunto de usuarios; es un conjunto de datos incompleto. Además, la fragmentación de los canales de comunicación hace que sea imposible sopesar las conexiones según el nivel real de afiliación.
Pero el problema más importante es el hecho comprobado de que la presencia digital de uno rara vez refleja su verdadero yo. La gente publica cosas que creen que les harán quedar bien y, según la afiliación y la etapa de la vida, eso puede resultar en exageración, en cualquier dirección. Este sesgo hace que el uso de los datos de las redes sociales sea cuestionable en muchos casos.
Mala matemática
Los algoritmos no tienen conciencia; repiten lo que aprenden. Cuando los algoritmos repiten y perpetúan el sesgo o la opinión, tenemos que tener en cuenta lavado de matemáticas.
El lavado de cuentas involuntario se produce cuando el algoritmo no se controla y, al aprender de los datos históricos, amplifica el sesgo social. El sistema judicial de los Estados Unidos utiliza un algoritmo llamado BRÚJULA para determinar la probabilidad de que un delincuente vuelva a delinquir. COMPAS lo ha demostrado Pro Public predecir que los acusados negros tendrán tasas de reincidencia más altas de las que realmente tienen, mientras que se prevé que los acusados blancos tengan tasas más bajas de las que realmente tienen.
El lavado deliberado de matemáticas se produce cuando se ajusta el algoritmo para corregir o sesgar el sesgo. Facebook supuestamente hizo un lavado de cuentas cuando suprimía rutinariamente las noticias conservadoras en 2016.
El sesgo inconsciente es profundamente arraigado en el tejido social estadounidense. Seguir dejando que los algoritmos perpetúen los prejuicios sociales sería irresponsable, y basar las decisiones que cambian vidas en esa información podría retrasar el progreso hacia una verdadera igualdad.
Consecuencias no deseadas en la sociedad
La presión social es una forma de control poderosa y sutil. Y cuando esta presión social se amplifica con un algoritmo oscuro que presumiblemente vigila cada movimiento digital, la libertad de expresión puede ponerse en peligro. Puede que las personas simplemente tengan miedo de alzar la voz, por miedo al efecto que pueda tener en su capacidad de obtener empleo, bienes o servicios. Tal» enfriamiento social» describe una cultura de autocensura, en la que las personas ajustan (voluntariamente) su comportamiento para que se ajuste a una norma social, por temor a que su comportamiento monitoreado digitalmente pueda afectar a su reputación.
Los conductores de Uber de éxito practican el enfriamiento social adaptándose a una expectativa de servicio común: Como describió un conductor de Uber en una entrevista con The Verge: «El sirviente anticipa las necesidades, las atiende sin esfuerzo, habla cuando le hablan y usted ni siquiera se da cuenta de que están ahí».
Airbnb muestra un enfriamiento social en su sistema de opiniones entre anfitriones y huéspedes, en el que las palabras genéricas más elogiadas reflejan la la reticencia de los anfitriones y los huéspedes juzgar o ser juzgado.
Debido a la naturaleza abstracta y oscura del aprendizaje automático, las personas sienten que nunca saben cuándo las juzgan (¿Cómo se conecta el ecosistema?) , o por quién (¿Quién tiene acceso a los datos?) , o cómo (¿Cuál es el algoritmo?). Esto lleva a aversión al riesgo — lo que podría suprimir la expresión de ideas inconformistas y podría matar la creatividad. Llevado al extremo, esto crea una sociedad en la que la gente tiene miedo de decir lo que piensa.
¿A dónde vamos desde aquí?
A medida que sigamos dándonos cuenta de nuestra nueva realidad digital, la economía de la reputación se convertirá en una realidad para todos nosotros. Y excluirse no es una opción viable, cuando El 57% de los empleadores dicen que si no pueden encontrar un candidato en Internet, pasan al siguiente. De hecho, nuestra reputación se convertirá en moneda.
Tanto los legisladores como los grupos de derechos civiles están lidiando con la cuestión de cómo regular el uso de algoritmos y cómo mantener el control de calidad de las fórmulas. Esfuerzos como el Reglamento general de protección de datos (GDPR) de la UE tienen como objetivo volver a poner al usuario en control de sus propios datos personales.
Mientras tanto, las personas deberán vigilar sus datos personales en Internet. Para muchos adolescentes, la gestión de la reputación online es una realidad diaria que conocen bien. Sus perfiles son a menudo privado, arreglado con regularidad , y muy comisariado. Su necesidad de expresarse sin censura y la oportunidad de cometer errores se subcontratan, por ahora, a plataformas efímeras como SnapChat. A medida que la IA siga infiltrándose en la economía de la reputación, todos tendremos que disciplinarnos en la forma en que interactuamos y juzgamos en Internet.
Si esperamos tener acceso al empleo, los bienes y los servicios en el futuro, las plataformas sociales ya no pueden ser un patio de recreo para el ego. Nuestra reputación en Internet nos precederá a todos.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.