Nous avons détecté que vous utilisez un bloqueur de publicités (AdBlock) pendant votre
navigation
sur
notre site. Bien que nous comprenions les raisons qui peuvent vous pousser à utiliser ces
outils,
nous tenons à préciser que notre plateforme se finance principalement grâce à des
publicités.
Ces publicités, soigneusement sélectionnées, sont principalement axées sur la littérature et
l'art.
Elles ne sont pas intrusives et peuvent même vous offrir des opportunités intéressantes dans
ces
domaines. En bloquant ces publicités, vous limitez nos ressources et risquez de manquer des
offres
pertinentes.
Afin de pouvoir continuer à naviguer et profiter de nos contenus, nous vous demandons de bien
vouloir
désactiver votre bloqueur de publicités pour notre site. Cela nous permettra de continuer à
vous
fournir un contenu de qualité et vous de rester connecté aux dernières nouvelles et
tendances de
la
littérature et de l'art.
Pour continuer à accéder à notre contenu, veuillez désactiver votre bloqueur de publicités
et
cliquer sur le bouton ci-dessous pour recharger la page.
Nous vous remercions pour votre compréhension et votre soutien.
Cordialement,
L'équipe BookNode
P.S : Si vous souhaitez profiter d'une navigation sans publicité, nous vous proposons notre
option Premium. Avec cette offre, vous pourrez parcourir notre contenu de manière illimitée,
sans aucune publicité. Pour découvrir plus sur notre offre Premium et prendre un abonnement,
cliquez ici.
Il arrive que les individus prennent collectivement des
décisions singulières et agissent avec constance dans
le sens totalement contraire au but recherché : pour
éviter un accident, des pilotes s'engagent dans une
solution qui les y mène progressivement ; les ingénieurs
de Challenger maintiennent obstinément des joints
défectueux sur les fusées d'appoint ; des copropriétaires
installent durablement un sas de sécurité totalement
inutile ; une entreprise persévère dans l'usage d'un outil
de gestion au résultat inverse de l'objectif visé... Quels sont les raisonnements qui produisent ces décisions absurdes ? Les mécanismes collectifs qui les construisent ? Quel est le devenir de ces décisions ? Comment peut-on à ce point se tromper et persévérer ? Ces questions, auxquelles Christian Morel répond grâce à une analyse sociologique aux multiples facettes, conduisent à une réflexion globale sur la décision et le sens de l'action humaine.
Il arrive que les individus prennent collectivement des
décisions singulières et agissent avec constance dans
le sens totalement contraire au but recherché : pour
éviter un accident, des pilotes s'engagent dans une
solution qui les y mène progressivement ; les ingénieurs
de Challenger maintiennent obstinément des joints
défectueux sur les fusées d'appoint ; des copropriétaires
installent durablement un sas de sécurité totalement
inutile ; une entreprise persévère dans l'usage d'un outil
de gestion au résultat inverse de l'objectif visé... Quels sont les raisonnements qui produisent ces décisions absurdes ? Les mécanismes collectifs qui les construisent ? Quel est le devenir de ces décisions ? Comment peut-on à ce point se tromper et persévérer ? Ces questions, auxquelles Christian Morel répond grâce à une analyse sociologique aux multiples facettes, conduisent à une réflexion globale sur la décision et le sens de l'action humaine.
Près de dix ans après son premier ouvrage, paru en 2002, Christian Morel reprend son enquête où il l’avait laissée et se penche sur l’émergence, au tournant des années 2000, dans des univers à haut risque, de dynamiques cognitives collectives visant à favoriser la décision éclairée. Le résultat de ses recherches, Les décisions absurdes II, se présente comme un digne successeur des Décisions absurdes. Renouant avec une marque de fabrique qui a fait ses preuves et contribué au succès de ses
précédents ouvrages, son analyse est ponctuée d’une multitude d’exemples concrets aussi variés que surprenants, allant des sous-marins nucléaires aux randonnées hivernales en haute montagne, en passant par l’écriture d’une comédie par la troupe du Splendid, le cockpit autoritaire de Korean Air, l’introduction de check-lists dans les blocs opératoires, les atterrissages par temps d’orage ou un camp de prisonniers japonais. Exemple parmi cent, une étude américaine portant sur des catastrophes aériennes dans lesquelles l’erreur humaine est établie a abouti au constat qu’un accident a plus de chance de survenir quand c’est le commandant de bord qui est aux commandes. La raison à cela n’est pas que les commandants sont moins performants que leurs copilotes, c’est généralement le contraire mais que, par l’effet d’un mécanisme d’ordre sociologique, quand le pilote en fonction est le commandant et qu’il se trompe, il est plus difficile au copilote de lui dire qu’il commet une erreur et de la rectifier… Recueillant ce qu’il appelle les « métarègles de la fiabilité », synthèse de lois sociologiques et de prescriptions cognitives, comme les politiques de non punition des erreurs, la formation aux facteurs humains ou l’interaction généralisée, l’auteur dessine les contours d’un nouveau champ disciplinaire promis à un grand avenir dans une société hantée par le risque : la sociologie des décisions hautement fiables.
Près de dix ans après son premier ouvrage, paru en 2002, Christian Morel reprend son enquête où il l’avait laissée et se penche sur l’émergence, au tournant des années 2000, dans des univers à haut risque, de dynamiques cognitives collectives visant à favoriser la décision éclairée. Le résultat de ses recherches, Les décisions absurdes II, se présente comme un digne successeur des Décisions absurdes. Renouant avec une marque de fabrique qui a fait ses preuves et contribué au succès de ses
précédents ouvrages, son analyse est ponctuée d’une multitude d’exemples concrets aussi variés que surprenants, allant des sous-marins nucléaires aux randonnées hivernales en haute montagne, en passant par l’écriture d’une comédie par la troupe du Splendid, le cockpit autoritaire de Korean Air, l’introduction de check-lists dans les blocs opératoires, les atterrissages par temps d’orage ou un camp de prisonniers japonais. Exemple parmi cent, une étude américaine portant sur des catastrophes aériennes dans lesquelles l’erreur humaine est établie a abouti au constat qu’un accident a plus de chance de survenir quand c’est le commandant de bord qui est aux commandes. La raison à cela n’est pas que les commandants sont moins performants que leurs copilotes, c’est généralement le contraire mais que, par l’effet d’un mécanisme d’ordre sociologique, quand le pilote en fonction est le commandant et qu’il se trompe, il est plus difficile au copilote de lui dire qu’il commet une erreur et de la rectifier… Recueillant ce qu’il appelle les « métarègles de la fiabilité », synthèse de lois sociologiques et de prescriptions cognitives, comme les politiques de non punition des erreurs, la formation aux facteurs humains ou l’interaction généralisée, l’auteur dessine les contours d’un nouveau champ disciplinaire promis à un grand avenir dans une société hantée par le risque : la sociologie des décisions hautement fiables.
Christian Morel s'attaque, dans ce troisième volet, à deux nouveaux gisements d'absurdités : l'enfer des règles et les pièges que ménage la vie des groupes. L'inflation des règles est devenue un boulet universel, pas seulement la prolifération des règles publiques, mais encore celle du vaste maquis de règles privées produites par les organisations : procédures, normes, règles de certification...
À l'aide de nombreux exemples - aéronautique, maisons de retraite et crèches, normes ISO, décisions de justice -, dont on se demande s'il faut en rire ou en pleurer, l'auteur met au jour les causes profondes de cet enfer et apporte des solutions aussi utiles qu'originales. Dans une seconde partie, Christian Morel identifie en sociologue les "pièges relationnels", trop négligés dans les organisations devenues des tours de Babel linguistiques et techniques.
De nombreux cas viennent illustrer ce parcours, où le talent d'observateur décalé qui fait de Christian Morel un surprenant détecteur d'absurdités programmées se déploie. Son regard met en évidence des situations toujours inattendues, des engrenages toujours inaperçus. Ses lecteurs y percevront comme un appel au bon sens, cette chose du monde si mal partagée.
Christian Morel s'attaque, dans ce troisième volet, à deux nouveaux gisements d'absurdités : l'enfer des règles et les pièges que ménage la vie des groupes. L'inflation des règles est devenue un boulet universel, pas seulement la prolifération des règles publiques, mais encore celle du vaste maquis de règles privées produites par les organisations : procédures, normes, règles de certification...
À l'aide de nombreux exemples - aéronautique, maisons de retraite et crèches, normes ISO, décisions de justice -, dont on se demande s'il faut en rire ou en pleurer, l'auteur met au jour les causes profondes de cet enfer et apporte des solutions aussi utiles qu'originales. Dans une seconde partie, Christian Morel identifie en sociologue les "pièges relationnels", trop négligés dans les organisations devenues des tours de Babel linguistiques et techniques.
De nombreux cas viennent illustrer ce parcours, où le talent d'observateur décalé qui fait de Christian Morel un surprenant détecteur d'absurdités programmées se déploie. Son regard met en évidence des situations toujours inattendues, des engrenages toujours inaperçus. Ses lecteurs y percevront comme un appel au bon sens, cette chose du monde si mal partagée.