Resumen.   

Durante años, los usuarios de tecnología digital han tenido la responsabilidad exclusiva de navegar por la información errónea, la negatividad, el riesgo de privacidad y el abuso digital, por nombrar algunos. Pero mantener el bienestar digital es un peso pesado que hay que poner sobre los hombros de una persona. ¿Qué pasa si no tuviéramos que soportar la misma carga de mantener nuestro bienestar digital? ¿Qué pasa si esperábamos un poco más de los proveedores de plataformas digitales que alojaron nuestras interacciones virtuales?

Hay tres responsabilidades clave que debemos esperar de todos nuestros proveedores de plataformas digitales para ayudar a crear espacios digitales más positivos. En primer lugar, establezca normas y estándares significativos para la participación en espacios virtuales y comuníquelos claramente a los usuarios. En segundo lugar, verifique a los usuarios humanos y elimine a los bots. En tercer lugar, mejorar la curación del contenido abordando publicaciones que incitan al racismo, la violencia o la actividad ilegal; identificando información errónea y alentando a los usuarios a ser moderadores de contenido.


Vivimos en un mundo de acceso sin precedentes a la tecnología. Incluso antes de la pandemia del coronavirus, la tecnología nos permitió mantenernos conectados con familiares y amigos, transmitir vídeos a nuestros hogares y aprender nuevas habilidades con solo pulsar un dedo. Cuando la pandemia nos obligó a estar distantes socialmente, la tecnología proporcionó una forma para que muchas de nuestras actividades vitales más importantes continuaran en la escuela, el trabajo, la iglesia, las reuniones familiares, las citas con el médico y más se trasladaron a espacios virtuales.

Sin embargo, como cualquier herramienta poderosa, la tecnología también conlleva peligros. Además de conectar a las familias y acelerar el aprendizaje, nuestro mundo digital también puede ser fuente de información errónea, negatividad, riesgo de privacidad y abuso digital, por nombrar algunos. Incluso las buenas aplicaciones y sitios web, si se usan en exceso, pueden expulsar otras actividades físicas y digitales saludables de nuestras vidas. Todos hemos sentido la creciente presión de tratar de mantener nuestro bienestar como resultado de estos desafíos digitales. Por supuesto, nosotros, los ciudadanos de nuestro mundo digital, tenemos la responsabilidad de garantizar nuestra propia salud digital. Nos tocamos encontrar fuentes de información precisas, elegir qué datos personales estamos dispuestos a intercambiar para acceder a la experiencia en línea o cómo garantizar el equilibrio entre las diferentes actividades en línea. Estas responsabilidades se traspasan a nuestras familias, donde sentimos presión para crear la cultura digital adecuada para que nuestros hijos y otros miembros de la familia prosperen también. Mantener el bienestar digital es un peso pesado que hay que poner sobre los hombros de una persona.

Pero, ¿qué pasa si no tuviéramos que soportar la misma carga de mantener nuestro bienestar digital? ¿Qué pasa si esperábamos un poco más de los proveedores de plataformas digitales que alojaron nuestras interacciones virtuales?

Autor y emprendedor Eli Pariser dice que deberíamos esperar más de nuestros proveedores de plataformas digitales a cambio del poder que les damos sobre nuestro discurso. Cree que deberíamos preguntarnos no solo cómo hacemos que las herramientas digitales sean fáciles de usar, sino también cómo hacemos herramientas digitales. público- amigable. En otras palabras, es nuestra responsabilidad asegurarnos de que nuestras plataformas digitales nunca sirvan a las personas a expensas del tejido social del que todos dependemos.

Teniendo esto en cuenta, veamos tres responsabilidades clave que debemos esperar de todos nuestros proveedores de plataformas digitales.

Establecer normas significativas

Las plataformas virtuales deben establecer y comunicar claramente los estándares de participación en sus espacios virtuales. Algunos ya hacen un buen trabajo con esto, incluidos Flickr, Lonely Planet y The Verge. Normas comunitarias de Flickr son pautas sencillas y legibles que están claramente diseñadas para que los miembros de la comunidad (no solo los abogados) las entiendan. Incluyen algunos «dos» claros como:

Juega bien. Somos una comunidad global de muchos tipos de personas, que tienen derecho a sentirse cómodas y que tal vez no piensen lo que piensas, crean lo que crees o vean lo que ves. Por lo tanto, sé cortés y respetuoso en tus interacciones con otros miembros.

Y también incluyen algunos «no hacer» claros:

No seas espeluznante. Ya conoces al tipo. No seas ese tipo. Si eres ese tipo, tu cuenta se eliminará.

Todos de las plataformas digitales deben establecer un código de conducta claro y debe integrarse activamente en todo el espacio virtual. Incluso los ejemplos que mencioné tienen sus normas bastante enterradas en la esquina trasera de sus sitios. Una forma de hacerlo es mediante la señalización: crear mensajes y recordatorios de las normas de comportamiento en toda la plataforma. Imagina si, en lugar de un anuncio más de calcetines nuevos en Pinterest, parece que un recordatorio «publica algo amable sobre otra persona hoy». O imagina si, en lugar de ver otro anuncio de seguro de automóvil antes de que se reproduzca un vídeo de YouTube, podríamos recibir consejos sobre cómo discrepar respetuosamente con el contenido del vídeo de otra persona. Claro, esto haría que los proveedores de la plataforma renunciaran a una fracción de un porcentaje de los ingresos publicitarios, pero eso es una expectativa muy razonable para ellos si quieren tener una plataforma responsable y de confianza.

Verificar usuarios humanos

Una segunda expectativa de los proveedores de plataformas de tomar más en serio la responsabilidad de identificar a los usuarios de sus plataformas que no son humanos. Algunas de las publicaciones más divisivas que inundan el mundo virtual cada día son generado por bots, que son capaces de discutir sus posiciones digitales con humanos desprevenidos durante horas y horas. Un estudio encontró que durante el apogeo de la pandemia de Covid-19, casi la mitad de las cuentas que tuiteaban sobre el virus eran bots. YouTube y Facebook tienen sobre tantos usuarios de robots como usuarios humanos. En un periodo de tres meses en 2018, Facebook eliminó más de 2.000 millones de cuentas falsas, pero hasta que se agregue una verificación adicional, los bots crearán nuevas cuentas, también por bots, casi tan rápido como se eliminan las antiguas.

Además de etiquetar claramente a los bots como bots, los proveedores de plataformas deberían hacer más para verificar también la identidad de los usuarios humanos, en particular los que se siguen ampliamente. Muchas de las partes oscuras y espeluznantes de nuestro mundo virtual existen porque las plataformas online han sido irresponsablemente laxas para verificar que los usuarios son quienes dicen ser. Esto no significa que las plataformas todavía no puedan permitir usuarios anónimos, pero tales cuentas deben etiquetarse claramente como no verificadas para que cuando su «vecino» le pida información a su hija sobre su escuela en línea, pueda reconocer rápidamente si debe ser sospechosa. La tecnología para realizar este tipo de verificación existe y es bastante sencilla (los bancos y las aerolíneas la utilizan todo el tiempo). Twitter puso a prueba este enfoque a través de cuentas verificadas pero luego se detuvo, alegando que no tenía el ancho de banda para continuar. La falta de expectativas de identidades verificadas permite el fraude, el ciberacoso y la información errónea. Si las plataformas digitales quieren que confiemos en ellas como el anfitrión de nuestras comunidades virtuales, deberíamos esperar que identifiquen y llamen a los usuarios que no son quienes dicen ser.

Mejorar la curación de contenido

La tercera responsabilidad de las plataformas digitales es ser más proactiva a la hora de curar el contenido de sus plataformas. Esto comienza abordando rápidamente publicaciones que incitan al racismo, la violencia, la actividad terrorista o las características que facilitan la compra de drogas ilegales, la participación en el robo de identidad o la trata de personas. En 2019, se inició Twitter agregar etiquetas de advertencia intimidación o tuits engañosos de líderes políticos. Un ejemplo notable es cuando un tuit del ex presidente Donald Trump fue marcado por afirmar que las papeletas por correo conducen a un fraude electoral generalizado. Apple también se ha tomado en serio esta responsabilidad con un riguroso proceso de revisión de las aplicaciones que se añaden a sus dispositivos móviles. A diferencia de la web, Apple no permite aplicaciones que distribuyan pornografía, fomentan el consumo de drogas ilegales ni alientan a los menores a consumir alcohol o fumar en sus dispositivos. Apple y Google ha comenzado a exigir a las aplicaciones de sus respectivas tiendas que tengan planes de moderación de contenido para permanecer.

La moderación efectiva del contenido también significa hacer más para empoderar a los moderadores humanos. Reddit y Wikipedia son los ejemplos más grandes de plataformas que dependen de moderadores humanos para asegurarse de que las experiencias de la comunidad estén en línea con las normas establecidas. En ambos casos, los humanos no solo están desempeñando un papel policial, sino que participan activamente en el desarrollo del contenido en la plataforma. Ambos dependen de curadores voluntarios, pero podríamos esperar razonablemente que se compensara a los moderadores humanos por su tiempo y energía para hacer que los espacios comunitarios virtuales sean más efectivos. Esto se puede hacer de diversas maneras. Por ejemplo, YouTube incentiva actualmente a los creadores de contenido a subir vídeos a su plataforma ofreciéndoles un porcentaje de los ingresos publicitarios; se podría dar un incentivo similar para alentar a los usuarios que ayudan a curar el contenido de estas plataformas. Sin embargo, el enfoque actual de YouTube es utilizar bots para moderar y curar. Como autor y tecnólogo Brida James señala, el contenido de YouTube creado por los bots también está vigilado por bots, los usuarios humanos de la plataforma quedan pagando el precio.

Otra forma sencilla de empoderar a los usuarios como moderadores es proporcionar opciones más matizadas para reaccionar al contenido de los demás. En este momento, «me gusta» o «no me gusta» se trata de todas las opciones que tenemos para responder al contenido en plataformas compartidas. Algunas plataformas han añadido una cara feliz, un corazón y, más recientemente, un abrazo, pero sigue siendo un conjunto increíblemente limitado de opciones de respuesta para la variedad de contenido que fluye alrededor de nuestro mundo digital.

En el mundo físico, la retroalimentación negativa suave es una herramienta fundamental para ayudar a las personas a aprender las normas del espacio comunitario. La mayoría de los comentarios que damos en el mundo físico es mucho más sutil que lo que podemos hacer en línea. Si mantuviste una conversación con alguien que dijo que no iba a vacunarse porque contiene un microchip de seguimiento secreto, podríamos responder con un «no lo sé» o un «hmmm, tal vez quieras revisar tus datos». Pero en el mundo virtual, nuestra única opción podría ser hacer clic en el botón «pulgar hacia abajo», si ese botón existe en esa plataforma. En un mundo donde las reacciones muy sutiles tienen gran importancia, dar un gran «pulgar hacia abajo» a un amigo es como el equivalente social de un asalto frontal completo. Por otro lado, si eliges eludir el momento incómodo dejando de seguir a tu amigo, te has asegurado de que no vuelvan a escuchar tus comentarios, lo que probablemente reduce su grupo de sondeos a personas con puntos de vista similares, lo que es aún menos útil para establecer normas sociales compartidas. ¿Qué pasa si en lugar de simplemente «me gusta» o «desagrada», pudiéramos etiquetar las cosas como «cuestiono la fuente de esta publicación»?

Los proveedores de plataformas digitales se preocupan por lo que piensan sus usuarios; su existencia continua depende de nuestra continua confianza. Deberíamos esperar que las plataformas digitales establezcan e infundan claramente sus entornos con medios que enseñan normas de comportamiento adecuadas en sus espacios digitales. Deberíamos pedirles que hagan un mejor trabajo etiquetando claramente a los usuarios no humanos de sus plataformas y que empoderen a sus usuarios para que participen más en la conservación del contenido.

Adaptado del libro Digital for Good: Criar a los niños para prosperar en un mundo online (Harvard Business Review Press, 2021).


  • RIchard Culatta is CEO of the International Society for Technology in Education (ISTE). Prior to joining ISTE, he served as the Chief Innovation Officer of the state of Rhode Island and was appointed by President Barack Obama to lead the US Department of Education’s Office of Educational Technology. He is the author of Digital for Good: Raising Kids to Thrive in an Online World.