PathMBA Vault

Social media

Está en las plataformas digitales para hacer de Internet un lugar mejor

por RIchard Culatta

Está en las plataformas digitales para hacer de Internet un lugar mejor

Vivimos en un mundo con un acceso sin precedentes a la tecnología. Incluso antes de la pandemia de coronavirus, la tecnología nos permitía mantenernos en contacto con familiares y amigos, transmitir vídeos a nuestros hogares y aprender nuevas habilidades con solo tocar un dedo. Cuando la pandemia nos obligó a mantenernos socialmente distantes, la tecnología permitió que muchas de nuestras actividades más importantes de la vida continuaran, ya que la escuela, el trabajo, la iglesia, las reuniones familiares, las citas con el médico y más se trasladaron a espacios virtuales.

Sin embargo, como cualquier herramienta poderosa, la tecnología también conlleva peligros. Además de conectar a las familias y acelerar el aprendizaje, nuestro mundo digital también puede ser una fuente de información errónea, negatividad, riesgo de privacidad y abuso digital, por nombrar algunos. Incluso las buenas aplicaciones y sitios web, si se usan en exceso, pueden eliminar otras actividades físicas y digitales saludables de nuestras vidas. Todos hemos sentido la creciente presión de tratar de mantener nuestro bienestar como resultado de estos desafíos digitales. Por supuesto, nosotros —los ciudadanos de nuestro mundo digital— tenemos la responsabilidad de garantizar nuestra propia salud digital. Depende de nosotros encontrar fuentes de información precisas, tomar decisiones sobre los datos personales que estamos dispuestos a intercambiar para acceder a la experiencia en línea o cómo garantizar el equilibrio entre las diferentes actividades en línea. Estas responsabilidades recaen en nuestras familias, donde nos vemos presionados a crear la cultura digital adecuada para que nuestros hijos y otros miembros de la familia también prosperen. Mantener el bienestar digital es un peso pesado que recaer sobre las hombros de una persona.

Pero, ¿y si no tuviéramos que soportar la misma carga de mantener nuestro bienestar digital? ¿Y si esperáramos un poco más de los proveedores de plataformas digitales que alojaban nuestras interacciones virtuales?

Autor y empresario Eli Pariser dice que debemos esperar más de nuestros proveedores de plataformas digitales a cambio del poder que les damos en nuestro discurso. Cree que debemos preguntarnos no solo cómo hacemos que las herramientas digitales sean fáciles de usar, sino también cómo las hacemos público- amable. En otras palabras, es nuestra responsabilidad asegurarnos de que nuestras plataformas digitales nunca sirvan a las personas a expensas del tejido social del que todos dependemos.

Con eso en mente, analicemos tres responsabilidades clave que debemos esperar de todos nuestros proveedores de plataformas digitales.

Establecer normas significativas

Las plataformas virtuales deben establecer y comunicar con claridad los estándares de participación en sus espacios virtuales. Algunos ya lo hacen bien, como Flickr, Lonely Planet y The Verge. Normas comunitarias de Flickr son directrices sencillas y legibles que están diseñadas claramente para que las entiendan los miembros de la comunidad (no solo los abogados). Incluyen algunos «qué hacer» claros, como:

Juega bien. Somos una comunidad global de muchos tipos de personas, que tienen derecho a sentirse cómodas y que pueden no pensar lo que usted piensa, creer lo que cree o ver lo que ve. Por lo tanto, sea educado y respetuoso en sus interacciones con los demás miembros.

Y también incluyen algunas cosas claras que no se deben hacer:

No sea espeluznante. Ya conoce al tío. No sea ese tío. Si usted es ese tío, eliminarán su cuenta.

Todos de las plataformas digitales debería establecer un código de conducta claro y debería estar integrado activamente en todo el espacio virtual. Incluso los ejemplos que he mencionado tienen sus normas bastante enterradas en la esquina trasera de sus sitios. Una forma de hacerlo es mediante la señalización, es decir, la creación de mensajes y recordatorios de las normas de comportamiento en toda la plataforma. Imagínese si, en lugar de un anuncio más de calcetines nuevos en Pinterest, apareciera un recordatorio que dijera «publica algo amable sobre otra persona hoy». O imagine que, en lugar de ver otro anuncio de seguro de coche antes de que se publique un vídeo de YouTube, se nos presentaran consejos sobre cómo discrepar respetuosamente con el contenido del vídeo de otra persona. Claro, esto haría que los proveedores de plataformas cedieran una fracción de un porcentaje de los ingresos por publicidad, pero es una expectativa muy razonable para ellos si quieren tener una plataforma responsable y de confianza.

Verificar usuarios humanos

Una segunda expectativa de que los proveedores de plataformas se tomen más en serio la responsabilidad de identificar a los usuarios de sus plataformas que no son humanos. Algunas de las publicaciones más divisivas que inundan el mundo virtual cada día son generado por bots, que son capaces de discutir sus posiciones digitales con humanos desprevenidos durante horas y horas. Un estudio descubrió que, durante el apogeo de la pandemia de Covid-19, casi la mitad de las cuentas que tuiteaban sobre el virus eran bots. Tanto YouTube como Facebook tienen casi tantos usuarios de robots como usuarios humanos. En un período de tres meses en 2018, Facebook retiró más de 2 mil millones de cuentas falsas, pero hasta que no se añada una verificación adicional, los bots crearán nuevas cuentas, también, casi tan rápido como se eliminen las antiguas.

Además de etiquetar claramente a los bots como bots, los proveedores de plataformas deberían hacer más para verificar también la identidad de los usuarios humanos, especialmente de los que son muy seguidos. Muchas de las partes oscuras y espeluznantes de nuestro mundo virtual existen porque las plataformas en línea han sido irresponsablemente laxas a la hora de comprobar que los usuarios son quienes dicen ser. Esto no significa que las plataformas no puedan seguir permitiendo usuarios anónimos, pero esas cuentas deberían estar claramente etiquetadas como no verificadas para que cuando su «vecina» le pida a su hija información sobre su escuela en Internet, pueda reconocer rápidamente si sospecha. La tecnología para realizar este tipo de verificación existe y es bastante sencilla (los bancos y las compañías aéreas la utilizan siempre). Twitter puso a prueba este enfoque a través de cuentas verificadas, pero luego lo dejó, alegando que no tenía el ancho de banda para continuar. La falta de expectativas de identidades verificadas permite el fraude, el ciberacoso y la desinformación. Si las plataformas digitales quieren que confiemos en ellas como anfitrionas de nuestras comunidades virtuales, debemos esperar que identifiquen y denuncien a los usuarios que no son quienes dicen ser.

Mejore la curación del contenido

La tercera responsabilidad de las plataformas digitales es ser más proactivas a la hora de seleccionar el contenido de sus plataformas. Esto comienza con abordar rápidamente las publicaciones que incitan al racismo, la violencia o la actividad terrorista o que facilitan la compra de drogas ilegales, la participación en el robo de identidad o la trata de personas. En 2019, comenzó Twitter añadir etiquetas de advertencia a tuits intimidatorios o engañosos de líderes políticos. Un ejemplo notable es cuando un tuit del expresidente Donald Trump fue marcado por afirmar que las papeletas enviadas por correo conducen a un fraude electoral generalizado. Apple también se ha tomado esta responsabilidad muy en serio con un riguroso proceso de revisión de las aplicaciones que se añaden a sus dispositivos móviles. A diferencia de la Web, Apple no permite aplicaciones que distribuyan pornografía, fomenten el consumo de drogas ilegales o animen a los menores a consumir alcohol o fumar en sus dispositivos. Manzana y Google han empezado a exigir que las aplicaciones de sus respectivas tiendas tengan planes de moderación de contenido para poder permanecer.

Moderar el contenido de forma eficaz también significa hacer más para empoderar a los moderadores humanos. Reddit y Wikipedia son los ejemplos más importantes de plataformas que dependen de moderadores humanos para asegurarse de que las experiencias de su comunidad están en línea con las normas establecidas. En ambos casos, las personas no solo desempeñan una función policial, sino que participan activamente en el desarrollo del contenido de la plataforma. Ambos dependen de curadores voluntarios, pero es razonable esperar que los moderadores humanos reciban una compensación por su tiempo y energía para hacer que los espacios comunitarios virtuales sean más eficaces. Esto se puede hacer de varias formas. Por ejemplo, actualmente YouTube incentiva a los creadores de contenido a subir vídeos a su plataforma ofreciéndoles un porcentaje de los ingresos por publicidad; se podría ofrecer un incentivo similar para animar a los usuarios a ayudar a seleccionar el contenido en estas plataformas. Sin embargo, el enfoque actual de YouTube consiste en utilizar bots para moderar y seleccionar. Como autor y tecnólogo James Bridle señala que el contenido de YouTube creado por bots también es vigilado por bots, los usuarios humanos de la plataforma tienen que pagar el precio.

Otra forma sencilla de capacitar a los usuarios como moderadores es ofrecer opciones más matizadas para reaccionar ante el contenido de los demás. En este momento, «me gusta» o «no me gusta» son todas las opciones que tenemos para responder al contenido en las plataformas compartidas. Algunas plataformas han añadido una cara feliz, un corazón y, más recientemente, un abrazo, pero sigue siendo un conjunto increíblemente limitado de opciones de respuesta para la variedad de contenido que circula por nuestro mundo digital.

En el mundo físico, los comentarios negativos leves son una herramienta fundamental para ayudar a las personas a aprender las normas del espacio comunitario. La mayoría de los comentarios que damos en el mundo físico son mucho más sutiles que los que podemos hacer en Internet. Si estuviera conversando con alguien que dijera que no se iba a vacunar porque contiene un microchip de rastreo secreto, podríamos responderle con un «no sé nada de eso» o un «hmmm, tal vez quiera comprobar sus datos». Pero en el mundo virtual, nuestra única opción puede ser hacer clic en el botón «con el pulgar hacia abajo», si es que ese botón existe en esa plataforma. En un mundo en el que las reacciones muy sutiles tienen una gran importancia, dar un gran «visto bueno» a un amigo es como el equivalente social de un ataque frontal total. Por otro lado, si decide evitar el incómodo momento dejando de seguir a su amigo, se ha asegurado de que no vuelva a escuchar sus comentarios, lo que probablemente reduzca su grupo de cajas de resonancia a personas con puntos de vista similares, lo que es aún menos útil para establecer normas sociales compartidas. ¿Y si, en lugar de simplemente «me gusta» o «no me gusta», pudiéramos etiquetar las cosas como «pongo en duda la fuente de esta publicación»?

A los proveedores de plataformas digitales les importa lo que piensen sus usuarios; su existencia continua depende de nuestra confianza continua. Deberíamos esperar que las plataformas digitales establezcan e impregnen claramente sus entornos de medios que enseñen las normas de comportamiento adecuadas en sus espacios digitales. Deberíamos pedirles que hagan un mejor trabajo al etiquetar claramente a los usuarios no humanos de sus plataformas y que permitan a sus usuarios participar más en la curación del contenido.

Adaptado del libro Digital para siempre: criar a los niños para que prosperen en un mundo en línea (Harvard Business Review Press, 2021).