Hechos, a prueba de fallos y quizá incluso la prevención del próximo apocalipsis.

Cuando oyes la palabra fusión, ¿qué te viene a la mente: un accidente en un reactor nuclear, quizá? Una vez que hayas repasado este resumen, también podrás recurrir a docenas de ejemplos de tipos de colapso específicamente modernos, sus causas y cómo evitar que te ocurra lo mismo a ti o a tu organización.

Lo que te viene a la cabeza es un accidente en un reactor nuclear.

Vivimos en una era de capacidad técnica sin precedentes: transporte, comercio, medicina, energía… lo que sea, los sistemas que nos rodean son más avanzados y también más complejos que nunca. Por eso los autores Chris Clearfield y András Tilcsik escribieron Meltdown, para desentrañar las formas en que la complejidad conduce al fracaso. Y ponen los antídotos a nuestra disposición.

En este resumen, trataremos los componentes básicos que conducen al fallo de los sistemas modernos y cómo abordarlos. A continuación, desglosaremos las herramientas necesarias para que los sistemas y las organizaciones sean a prueba de fallos, como la toma de decisiones estructurada, la diversidad, la disensión, la reflexión, la iteración y una lista de señales de advertencia.

En este resumen, aprenderás

    • cómo podría haberse evitado la catástrofe nuclear de Fukushima;
    • por qué la diversidad hace más fuertes a las organizaciones;y
    • cómo los padres pueden aprender de los equipos de ER y aprovechar el poder de la iteración.
    • Cómo los padres pueden aprender de los equipos de ER y aprovechar el poder de la iteración.

    Los sistemas modernos suelen fallar por motivos similares en contextos muy diferentes.

    ¿Qué tienen en común el vertido de petróleo de BP en el Golfo de México, el desastre nuclear de Fukushima y la crisis financiera mundial? Sí, todas ellas son crisis, pero también comparten las mismas causas subyacentes.

    Los sistemas modernos son más eficientes.

    Los sistemas modernos son más capaces que nunca, pero el aumento de la capacidad también ha incrementado la complejidad y ha hecho que los sistemas sean menos indulgentes. Tomemos el sector financiero, por ejemplo: el paso de las operaciones bursátiles presenciales a las informatizadas ha contribuido a reducir los costes operativos, ha aumentado la velocidad de las operaciones y ha dado más control sobre las transacciones. Pero el cambio digital también ha hecho que el sistema sea más difícil de entender y ha aumentado la posibilidad de interacciones complejas e inesperadas. Las finanzas se han convertido en un ejemplo perfecto de lo que el profesor de sociología Charles Perrow llamaría un sistema complejo, estrechamente acoplado.

    Perrow era un experto en organizaciones contratado a finales de la década de 1970 para investigar las causas de un accidente nuclear en Pensilvania. Lo que descubrió revolucionó la ciencia de los fallos catastróficos.

    Perrow identificó una combinación de pequeños fallos detrás del desastre que interactuaron en un efecto dominó. En lugar de culpar a los operarios de la central nuclear o calificarlo de suceso extraño, Perrow vio que el accidente había sido causado por características inherentes a la central como sistema: la complejidad y el acoplamiento estrecho.

    Acoplamiento estrecho es un término de ingeniería para referirse a cuando un sistema es implacable o tiene poco amortiguador entre sus partes. El sistema para cocinar una cena de Acción de Gracias, por ejemplo, está estrechamente acoplado: la comida incluye muchos elementos que dependen unos de otros, como el relleno que se cocina dentro del pavo y la salsa que proviene de los jugos del ave asada. Y como en la mayoría de las casas sólo hay un horno, un plato puede retrasar todo lo demás.

    La complejidad en una comida puede ser muy grande.

    La complejidad de un sistema significa que no es lineal y que es difícil ver su interior. Si seguimos con la analogía de la cena de Acción de Gracias, cocinar un pavo es un sistema complejo, porque es difícil ver el interior del ave para saber si está cocinada. La complejidad de un sistema dificulta la identificación de los problemas y sus repercusiones.

    La combinación de complejidad y acoplamiento estrecho nos lleva a lo que Perrow denomina la Zona de Peligro. Aquí es donde la fusión -el colapso o la ruptura de un sistema- es muy probable. Así que esa compleja cena de Acción de Gracias, estrechamente acoplada, podría estar condenada al fracaso a menos que se tomen precauciones.

    La fórmula de complejidad/acoplamiento de Perrow revela el ADN compartido que subyace a todo tipo de colapsos modernos, por lo que el fracaso en una industria puede ahora proporcionar lecciones en otros campos. Descubriremos cómo en el siguiente resumen.

    El fracaso puede evitarse reduciendo la complejidad y aumentando el amortiguador entre las partes de cualquier sistema.

    Cuando sales a conducir te pones el cinturón de seguridad aunque no conozcas la naturaleza exacta de cualquier accidente que pueda ocurrir. Simplemente sabes que el peligro está ahí y que el cinturón podría salvarte la vida. Del mismo modo, la fórmula de complejidad/acoplamiento de Perrow ayuda a prevenir el fracaso sin mostrar la forma exacta que podría adoptar.

    Esto significa que puedes planificar con antelación la reducción de la complejidad, por ejemplo aumentando la transparencia de un sistema. No hacerlo puede incluso provocar accidentes mortales. Tomemos como ejemplo al actor de Star Trek Anton Yelchin, de 27 años, que en 2016 murió al salir de su Jeep Grand Cherokee cuando el vehículo volcó y le aprisionó contra un pilar de ladrillo.

    El motivo de este trágico accidente fue la falta de seguridad de su vehículo.

    La razón de este trágico suceso fue el diseño de la palanca de cambios del coche. Era elegante pero no mostraba claramente si el coche estaba en “park”, “drive” o “reverse”. En otras palabras, el sistema era innecesariamente opaco y complejo, lo que llevó a Yelchin a suponer erróneamente que el vehículo permanecería quieto. La tragedia podría haberse evitado si la palanca de cambios se hubiera diseñado de forma más transparente e indicara claramente en qué modo se encontraba el Jeep.

    La transparencia reduce la complejidad y la complejidad del sistema.

    La transparencia reduce la complejidad, dificultando que se haga lo incorrecto y facilitando que uno se dé cuenta de que ha cometido un error.

    La transparencia reduce la complejidad, dificultando que se haga lo incorrecto y facilitando que uno se dé cuenta de que ha cometido un error.

    A veces, sin embargo, la transparencia no es posible. Si piensas en una expedición para escalar el Everest, hay docenas de riesgos ocultos, desde grietas y rocas que caen hasta avalanchas y cambios repentinos de tiempo. La montaña siempre va a ser un sistema opaco. Por eso las empresas de alpinismo solucionan los pequeños problemas, como vuelos retrasados, problemas de abastecimiento y malestares digestivos antes de que puedan acumularse y convertirse en crisis mayores. Así se evita que tales problemas entorpezcan el ascenso final, donde hay poco margen de error.

    Cuando la complejidad no se desplaza, siempre está el tapón

    Cuando la complejidad no se desplaza, siempre está el tapón.

    Gary Miller, ingeniero nuclear reconvertido en consultor de gestión, describe cómo salvó a una cadena de panaderías de una expansión fallida aumentando su colchón. Antes del lanzamiento, se dio cuenta de que su nuevo menú era demasiado complejo y dependía de una intrincada red de proveedores. Cuando se negaron a solucionarlo, Miller les convenció para que relajaran su agresivo calendario de lanzamiento, lo que les permitió disponer de suficiente holgura para hacer frente a los problemas cuando inevitablemente aparecieran.

    La fórmula de complejidad/acoplamiento de Perrow ayuda a averiguar si un proyecto o empresa es vulnerable al fracaso y dónde. Identifica las vulnerabilidades de un sistema, aunque no pueda decirte exactamente qué saldrá mal. Como dice Miller: “No necesitas predecirlo para prevenirlo”.

    Usar herramientas estructuradas de toma de decisiones puede ayudarte a evitar desastres grandes y pequeños.

    A menudo vamos por la vida haciendo juicios rápidos o usando nuestros instintos. No hay nada de malo en ello hasta que nos encontramos operando en un sistema complejo.

    Los ingenieros de la central nuclear japonesa de Fukushima Daiichi utilizaron sus instintos cuando calcularon erróneamente la altura de su muro de defensa contra tsunamis. El 11 de marzo de 2011, un terremoto provocó una ola varios metros más alta de lo que habían previsto, lo que inundó los generadores responsables de la refrigeración y desencadenó el peor accidente nuclear del mundo en 25 años.

    ¿Pero cómo podrían haberlo hecho mejor los ingenieros?

    Las defensas de este tipo son enormes y caras de construir, y como no podían construir un muro infinitamente alto, los ingenieros tuvieron que prever una altura de la que estuvieran muy seguros de que funcionaría. Para ello, utilizaron un intervalo de confianza, un cálculo basado en la comparación de la altura de ola probable más alta y la más baja. El problema es que los humanos no somos muy buenos haciendo este tipo de previsiones: los intervalos que trazamos son demasiado estrechos.

    Una solución es utilizar una herramienta estructurada de toma de decisiones llamada SPIES, o Estimaciones Subjetivas de Intervalos de Probabilidad. Nos empuja a considerar una gama más amplia de resultados. En lugar de limitarse a evaluar el mejor y el peor escenario plausible, SPIES estima la probabilidad de varios resultados dentro de toda la gama de posibilidades. No es perfecto, pero los estudios demuestran sistemáticamente que este método acierta con la respuesta correcta con más frecuencia que otros métodos de previsión. Si los ingenieros de Fukushima hubieran utilizado SPIES, se habrían protegido contra el exceso de confianza y habrían sido menos propensos a pasar por alto el escenario aparentemente inverosímil que inundó sus defensas.

    Otra herramienta estructurada para la toma de decisiones es el uso de criterios predeterminados, que nos ayuda a centrarnos en los factores que realmente importan. Tomemos como ejemplo las Reglas de Ottawa para el tobillo: este conjunto de criterios predeterminados se desarrolló en Canadá a principios de la década de 1990 y para reducir en un tercio el uso por parte de los médicos de radiografías innecesarias de pies y tobillos. Al centrarse únicamente en el dolor, la edad, el soporte de peso y la sensibilidad ósea para decidir si era necesaria una radiografía, evitaron desviarse por cosas irrelevantes, como la hinchazón.

    En sistemas complejos como la medicina y la salud, los médicos tienen que tener en cuenta la edad, el peso y la sensibilidad ósea.

    En sistemas complejos como la medicina y la predicción de tsunamis, los efectos de nuestras decisiones son difíciles de comprender o aprender de ellos, y la intuición a menudo nos falla. Es entonces cuando herramientas como SPIES y los criterios predeterminados pueden suponer una interrupción de la actividad habitual, permitiéndonos abordar nuestras decisiones de forma sistemática.

    Los sistemas complejos emiten señales de advertencia que podemos utilizar para salvar vidas, dinero y reputaciones.

    A menudo optamos por ignorar las señales de advertencia: si, por ejemplo, se te bloquea el retrete, ¿lo considerarías simplemente un inconveniente menor, o lo verías como una señal de advertencia de una inundación inminente?

    Ignorar las señales de advertencia a veces puede tener consecuencias catastróficas. En Washington DC, en 2005, tres trenes de metro estuvieron a punto de estrellarse bajo el río Potomac. Sólo la suerte y la rápida actuación de los maquinistas salvaron la situación. Los ingenieros sospecharon que la causa subyacente era un problema con los sensores de las vías, pero antes de que pudieran arreglarlo, el problema desapareció. Así que inventaron un procedimiento de prueba, con la esperanza de asegurarse de que el mismo fallo no pudiera repetirse en otro lugar. El problema fue que sus jefes no tardaron en olvidarse de este fallo y dejaron de realizar las pruebas. Cuatro años más tarde, el mismo error apareció en un lugar diferente, causando un terrible accidente y la muerte de nueve personas.

    A menudo ignoramos las pistas de los pequeños errores, siempre que las cosas salgan bien. Aquella casi catástrofe de 2005 fue una señal de advertencia que la organización del metro decidió ignorar. Una característica esencial de los sistemas complejos es que no podemos encontrar todos los problemas con sólo pensar en ellos. Por suerte, antes de que las cosas se desmoronen, la mayoría de los sistemas emiten avisos.

    A diferencia del metro de Washington DC, el sector de las aerolíneas comerciales es un excelente ejemplo de cómo prestar atención a los pequeños errores puede dar sus frutos. Al hacerlo, han reducido colectivamente los accidentes mortales de 40 por cada millón de salidas a dos por cada diez millones en los últimos 60 años en un proceso denominado anomalización.

    Así es como funciona:

    En primer lugar, hay que recopilar datos sobre todos los vuelos. A continuación, hay que plantear y solucionar los problemas: los informes de incidencias no deben acumular polvo en un buzón de sugerencias. El tercer paso consiste en comprender y abordar las causas profundas, en lugar de considerar los errores como una serie de incidentes aislados. Si los pilotos de una determinada ruta siguen volando peligrosamente bajo, podría haber un problema subyacente de señalización, por ejemplo.

    El último paso es compartir los aprendizajes, lo que envía un mensaje claro de que los errores son normales y ayuda a los compañeros a anticiparse a los problemas a los que podrían enfrentarse algún día.

    En sistemas como el transporte aéreo o el metro, podemos aprender de incidentes operativos concretos. Los empresarios, por su parte, pueden aprender de un equipo especializado o de un asesor de confianza contratado para identificar las amenazas de la competencia, las perturbaciones tecnológicas y los cambios normativos.

    Alentar la disidencia hace que los equipos sean más eficaces y los sistemas más fuertes.

    Hablar no es fácil. De hecho, la neurociencia demuestra que el deseo de conformarse está grabado en nuestro cerebro. Pero eso no hace que disentir sea menos valioso. He aquí por qué:

    En un estudio extraño pero cierto sobre los errores de las tripulaciones de las líneas aéreas, el Consejo Nacional de Seguridad en el Transporte (NTSB) de EE.UU. descubrió que entre 1978 y 1990 casi tres cuartas partes de los accidentes graves ocurrieron cuando le tocaba volar al capitán. Es decir, no al primer oficial, menos experimentado. Eso era alarmante porque los capitanes volaban el 50% del tiempo, por lo que sus errores deberían haber sido iguales o menores que los de sus ayudantes.

    Así que la NTSB investigó más a fondo.

    Confirmaron que los capitanes no eran peores en su trabajo, ni mucho menos, sino que su antigüedad significaba que sus errores quedaban impunes. Sus primeros oficiales carecían de las herramientas necesarias para informar al capitán y reprimían sus preocupaciones o daban vagas pistas en lugar de hacer saltar las alarmas. La jerarquía ponía vidas en peligro.

    Así que las aerolíneas introdujeron un innovador programa de formación llamado Gestión de Recursos de la Tripulación (CRM). A los pilotos les pareció tan básico que lo llamaron en broma escuela del encanto, pero rompió el tabú de plantear problemas. El CRM redujo radicalmente el número de accidentes y niveló la responsabilidad al 50:50 entre los pilotos y sus ayudantes. Al democratizar la seguridad, el programa permitió a todos, desde la tripulación de cabina hasta los encargados del equipaje, expresar sus preocupaciones, aprovechando también el poder motivador de la responsabilidad compartida.

    Entonces, ¿cómo se fomenta la disidencia en otros tipos de organizaciones?

    Una forma eficaz es a través del liderazgo abierto, en contraposición al directivo. Los líderes directivos exponen sus propias soluciones preferidas al inicio de una conversación y dicen a sus colegas que el objetivo es que todos lleguen a un acuerdo.

    Los líderes abiertos se oponen al liderazgo directivo.

    Un líder abierto se guardará su propia opinión para el final y animará a sus compañeros a debatir tantas perspectivas como sea posible. Sorprendentemente, se ha demostrado que esta sencilla técnica produce más soluciones posibles y casi el doble de hechos, lo que hace que el debate esté mejor informado. Así de sencillo

    Si las jerarquías, las preocupaciones sociales e incluso el cableado de nuestro cerebro van en contra de la discrepancia, es fundamental que los líderes fomenten algo más que una política de puertas abiertas. Como explica el experto en disensión Jim Detert, tienes que animar activamente a la gente a que hable, o de lo contrario la estarás desanimando.

    Crear equipos diversos ayuda a reducir el riesgo y a mejorar los resultados de las organizaciones.

    La mayoría de la gente está de acuerdo en que la diversidad es algo justo y positivo, ¿verdad? Pero, ¿sabías que también se ha demostrado que reduce el riesgo para las organizaciones?

    En un estudio histórico de 2014, los científicos demostraron los beneficios de la diversidad étnica a la hora de tomar decisiones. En una simulación bursátil simplificada, observaron a docenas de grupos diversos y homogéneos de lugares tan lejanos como Singapur y Texas, y evaluaron la precisión de sus operaciones. ¿Y adivina qué? Los grupos diversos obtuvieron resultados notablemente mejores que los homogéneos, fijando los precios de las acciones con mayor precisión y cometiendo menos errores. Curiosamente, el estudio descubrió que las caídas eran más graves y las burbujas de precios más frecuentes en los mercados homogéneos porque los grupos homogéneos confiaban demasiado en las decisiones de los demás, lo que hacía que los errores se multiplicaran. En los mercados diversos, los participantes eran más críticos con las decisiones de los demás y copiaban con menos frecuencia, lo que conducía a una toma de decisiones más racional.

    En retrospectiva, podemos aplicar las lecciones de este estudio para comprender el crack financiero de 2007 y 2008. La ex directora financiera de Citigroup, Sallie Krawcheck, declaró en una entrevista en 2014 que los responsables del crack no eran “un puñado de genios malvados” capaces de prever la recesión financiera, sino que eran “guisantes en una vaina”. Krawcheck culpó a la falta de diversidad de las malas decisiones que condujeron a la quiebra y argumentó que la diversidad hace que sea más permisible hacer preguntas sin parecer estúpido o sin preocuparse de perder el trabajo.

    Entonces, ¿por qué no todas las empresas tienen programas obligatorios de diversidad? Deben de ser eficaces, ¿verdad?

    Incorrecto. En un artículo de 2016 de la Harvard Business Review , los sociólogos Frank Dobbin y Alexandra Kalev descubrieron que los programas de diversidad más utilizados no conseguían resultados. No sólo eso, sino que durante las tres últimas décadas y en más de 800 empresas estadounidenses, los programas de diversidad obligatorios en realidad hicieron que las organizaciones fueran menos diversas. Descubrieron que los gerentes se habían rebelado contra los programas obligatorios porque se sentían vigilados. Se habían resistido a contratar de forma diversa sólo para afirmar su autonomía.

    Por suerte, hay otras soluciones que funcionan. Durante las mismas tres décadas, se demostró que los planes de tutoría voluntarios, en lugar de obligatorios, tenían éxito a la hora de ayudar a progresar a los candidatos diversos. Estos programas redujeron de forma natural los prejuicios con mensajes positivos: los gerentes se sentían expuestos a nuevas fuentes de talento en lugar de ver vigiladas sus decisiones de contratación. El estudio también descubrió que los programas formales de tutoría eran más eficaces que los informales, porque los ejecutivos blancos no se sentían cómodos acercándose informalmente a las mujeres jóvenes y a los hombres de las minorías. Asignarles mentores eliminaba esta incomodidad y les permitía orientar a una gama diversa de empleados subalternos.

    Con ventajas como aumentar la precisión y evitar el próximo crack financiero, la diversidad es la alternativa segura a la homogeneidad y el pensamiento de grupo. El sano escepticismo que acompaña a la diversidad fortalece a las organizaciones y las decisiones.

    La reflexión y la iteración son estrategias esenciales para afrontar situaciones de gran presión.

    Todos hemos pasado por eso: cuando se vislumbra el final de un proyecto, surge un fuerte impulso de apresurarse hasta el final, aunque las condiciones hayan cambiado.

    ,

    Los pilotos llaman a eso “reflexión”.

    Los pilotos lo llaman hasta allí-itis, pero el término técnico es prejuicio de continuación del plan, y es un factor alarmantemente común en los accidentes aéreos. Si estás a sólo 15 minutos de tu destino, y el tiempo cambia, es mucho más difícil desviarse a un aeropuerto cercano que cuando acabas de salir. ¿Quizás hayas experimentado el mismo efecto cuando trabajas para cumplir un plazo?

    El piloto Brian Schiff conocía los peligros de la get-there-itis cuando se negó a llevar a un furioso Steve Jobs en su vuelo chárter. A pesar de la presión y las súplicas, Schiff recordó su formación y calculó que el calor, el equipaje pesado y el terreno accidentado harían que el despegue en su pequeño avión fuera arriesgado. Schiff aún recuerda lo intimidado que se sentía como un enclenque veinteañero en la línea de fuego de la ira de Jobs. Pero no cedió y se negó a volar. Schiff se enfrentó a un cliente muy importante, pero en lugar de ser amonestado, fue recompensado por hacer una pausa y dar prioridad a la seguridad en una situación de gran presión, y vio duplicada su paga.

    Pero a veces no es así.

    Pero a veces no hay tiempo para reflexionar cuando las situaciones cambian: en una sala de urgencias, por ejemplo, los médicos tienen que equilibrar tareas asistenciales como la reanimación y la administración de medicación con la supervisión del estado general del paciente. Aquí es donde se hace indispensable un proceso iterativo.

    La iteración eficaz incluye tres pasos básicos: tareas, supervisión y diagnóstico, es decir, ofrecer una solución.

    Los tres pasos se repiten en un ciclo para evaluar y mejorar las soluciones sobre la marcha.

    Un gran ejemplo doméstico de esto es una estrategia de crianza de los autores de un documento titulado “Prácticas Ágiles para Familias: Iterar con hijos y padres”. Para mejorar el caos de la rutina matutina de su familia, los Starr decidieron celebrar reuniones familiares periódicas para debatir lo que había ido bien esa semana, lo que podían mejorar y lo que se comprometerían a mejorar en la semana siguiente.

    Después de comprometerse a hacer cambios, repetían las preguntas en la siguiente reunión, lo que les permitía centrarse en las soluciones más eficaces a lo largo del tiempo. Su experimento tuvo tanto éxito que cuando el columnista del New York Times Bruce Feiler visitó su casa, describió la suya como “una de las dinámicas familiares más asombrosas que he visto nunca”

    .

    Puedes utilizar la iteración para revisar siempre que tengas una acumulación de tareas y plazos. La clave está en seguir los pasos y luego reevaluar una vez que hayas probado una solución.

    Conclusiones

    El mensaje clave de estos resúmenes:

    Vivimos en la edad de oro de las crisis, pero está a nuestro alcance poner fin a esa era. Las soluciones enumeradas en este resumen son difíciles de aplicar porque a menudo van en contra de nuestros instintos naturales o de las normas organizativas y culturales aceptadas. Pero si prestamos la debida atención a la complejidad y al acoplamiento estrecho, podemos desbloquear una mayor innovación y productividad en los sistemas modernos, evitando al mismo tiempo un fracaso catastrófico.

    Consejos Accionables:

    Consejos Accionables:

    Consejos Accionables:

    Consejos Accionables.

    Realízate una autopsia previa.

    Puede que hayas oído hablar de la autopsia, pero ¿sabías que su inversa, la autopsia previa, puede ayudar a prevenir el fracaso?

    Cuando planifiques un proyecto, intenta imaginar el fracaso como una conclusión inevitable. Las investigaciones demuestran que entonces pensarás en muchos más fallos potenciales que si te hubieras imaginado cómo sería el éxito. Esta técnica aprovecha lo que los psicólogos denominan perspectiva retrospectiva, y también es útil para encontrar razones más concretas y precisas de un resultado.

    Así que la próxima vez que estés en la fase de planificación, en lugar de preguntarte “¿cómo podemos hacer que esto funcione?”, prueba con “¿qué podría haber hecho que esto fracasara masivamente?”

    ¿Tienes algún comentario?

    ¡Nos encantaría conocer tu opinión sobre nuestro contenido! Envíanos un correo electrónico a libros@pathmba.com con el título de este libro como asunto y comparte tus opiniones.

    Qué leer a continuación: Originales, de Adam Grant

    En este resumen, has aprendido por qué a veces fallan incluso los sistemas mejor elaborados. Pero también has aprendido algunas de las cosas que podemos hacer para asegurarnos de que detectamos las grietas del sistema antes de que se produzca el desastre. Una lección importante es que todos los equipos necesitan tener su cuota de inconformistas, personas que piensen de forma innovadora y que no tengan miedo de criticar el statu quo.

    Pero el inconformismo no es la única razón por la que los sistemas fallan.

    Pero el inconformismo y la capacidad de pensar de forma diferente no sólo son importantes para evitar el colapso de los sistemas. En Originales, el autor Adam Grant sostiene que el inconformismo y la creatividad son indispensables para cualquiera que quiera triunfar en la vida. Pero, ¿cómo puedes fomentar la creatividad y el inconformismo en ti mismo? Grant tiene algunos buenos consejos. Así que si quieres dar un empujón a tu creatividad, dirígete a nuestro resumen de Originales.

Leave a comment