Informations

23.11 : Pourquoi c'est important - Le système immunitaire - Biologie


Pourquoi décrire les composants et le rôle du système immunitaire ?

L'environnement se compose de nombreux agents pathogènes, qui sont des agents, généralement des micro-organismes, qui provoquent des maladies chez leurs hôtes. UNE hôte est l'organisme qui est envahi et souvent endommagé par un agent pathogène. Les systèmes immunitaires des mammifères ont évolué pour se protéger de ces agents pathogènes ; ils sont composés d'un ensemble extrêmement diversifié de cellules spécialisées et de molécules solubles qui coordonnent un système de défense rapide et flexible capable de fournir une protection contre la majorité de ces agents pathogènes.

Les composants du système immunitaire recherchent constamment dans le corps des signes d'agents pathogènes. Lorsque des agents pathogènes sont détectés, les facteurs immunitaires sont mobilisés sur le site d'une infection. Les facteurs immunitaires identifient la nature de l'agent pathogène, renforcent les cellules et les molécules correspondantes pour le combattre efficacement, puis arrêtent la réponse immunitaire une fois l'infection éliminée pour éviter des dommages inutiles aux cellules hôtes. Le système immunitaire peut se souvenir des agents pathogènes auxquels il a été exposé pour créer une réponse plus efficace lors d'une nouvelle exposition. Cette mémoire peut durer plusieurs décennies. Les caractéristiques du système immunitaire, telles que l'identification des agents pathogènes, la réponse spécifique, l'amplification, le retrait et la mémoire, sont essentielles à la survie contre les agents pathogènes. La réponse immunitaire peut être classée comme innée ou active. La réponse immunitaire innée est toujours présente et tente de se défendre contre tous les agents pathogènes plutôt que de se concentrer sur des agents spécifiques. Inversement, la réponse immunitaire adaptative stocke des informations sur les infections passées et met en place des défenses spécifiques aux agents pathogènes.

Résultats d'apprentissage

  • Expliquer les réponses immunitaires innées immédiates et induites
  • Expliquer l'immunité adaptative
  • Décrire la structure et la fonction des anticorps
  • Décrire l'immunodéficience et l'hypersensibilité

Covid-19 : le vaccin de l'Université d'Oxford est très efficace

Les données provisoires suggèrent une protection de 70 %, mais les chercheurs affirment que le chiffre peut atteindre 90 % en ajustant la dose.

Les résultats seront considérés comme un triomphe, mais viendront après que les vaccins Pfizer et Moderna aient montré une protection à 95%.

Cependant, le jab d'Oxford est beaucoup moins cher et est plus facile à stocker et à se rendre aux quatre coins du monde que les deux autres.

Ainsi, le vaccin jouera un rôle important dans la lutte contre la pandémie, s'il est approuvé pour utilisation par les régulateurs.

"L'annonce d'aujourd'hui nous rapproche un peu plus du moment où nous pouvons utiliser des vaccins pour mettre fin à la dévastation causée par [le virus]", a déclaré l'architecte du vaccin, le professeur Sarah Gilbert.

Le gouvernement britannique a pré-commandé 100 millions de doses du vaccin d'Oxford, et AstraZeneca dit qu'il produira trois milliards de doses pour le monde l'année prochaine.

Le Premier ministre Boris Johnson a déclaré que c'était "une nouvelle incroyablement excitante" et que même s'il y avait encore des contrôles de sécurité à venir, "ce sont des résultats fantastiques".

S'exprimant lors d'un briefing à Downing Street lundi soir, M. Johnson a ajouté que la majorité des personnes ayant le plus besoin d'un vaccin au Royaume-Uni pourraient être en mesure d'en obtenir un d'ici Pâques.

Et le professeur Andrew Pollard – directeur du groupe des vaccins d'Oxford – a déclaré que cela avait été " une journée très excitante " et a rendu hommage aux 20 000 volontaires des essais dans le monde, dont plus de 10 000 au Royaume-Uni.


Lynn Margulis 1938-2011 "Gaia est une chienne dure"

La biologiste Lynn Margulis est décédée le 22 novembre. Elle s'est démarquée de ses collègues en ce qu'elle aurait prolongé les études évolutives de près de quatre milliards d'années dans le temps. Son travail principal portait sur l'évolution cellulaire, dans laquelle le grand événement fut l'apparition de la cellule eucaryote, ou nucléée, la cellule sur laquelle reposent toutes les formes de vie plus grandes. Il y a près de quarante-cinq ans, elle a plaidé pour son origine symbiotique : qu'elle est née d'associations de différents types de bactéries. Ses idées ont généralement été ignorées ou ridiculisées lorsqu'elle les a proposées pour la première fois. La symbiose dans l'évolution cellulaire est maintenant considérée comme l'une des grandes percées scientifiques.

Margulis était également un champion de l'hypothèse Gaia, une idée développée dans les années 1970 par le chimiste britannique indépendant James E. Lovelock. L'hypothèse de Gaia affirme que l'atmosphère et les sédiments de surface de la planète Terre forment un système physiologique autorégulateur — la surface de la Terre est vivante. La version forte de l'hypothèse, qui a été largement critiquée par l'establishment biologique, soutient que la terre elle-même est un organisme autorégulateur Margulis a souscrit à une version plus faible, considérant la planète comme un écosystème intégré d'autorégulation. Elle a été critiquée pour avoir succombé à ce que George Williams a appelé le syndrome de « Dieu est bon », comme en témoigne son adoption de métaphores de la symbiose dans la nature. Elle était, à son tour, une critique virulente des biologistes évolutionnistes traditionnels pour ce qu'elle considérait comme un échec à considérer de manière adéquate l'importance de la chimie et de la microbiologie dans l'évolution.

Je l'ai rencontrée pour la première fois à la fin des années 80 et en 1994 je l'ai interviewée pour mon livre The Third Culture: Beyond the Scientific Revolution (1995). Ci-dessous, en souvenir, veuillez consulter son chapitre, "Gaia est une chienne dure". L'une des caractéristiques convaincantes de La troisième culture était que j'ai invité chacun des participants à commenter les autres. À cet égard, la fin du chapitre suivant contient des commentaires sur Margulis et son travail par Daniel C. Dennett, feu George C. Williams, W. Daniel Hillis, Lee Smolin, Marvin Minsky, Richard Dawkins et feu Francisco Varela. Des trucs intéressants.

Comme je l'ai écrit dans l'introduction de la première partie du livre (Part I : The Evolutionary Idea ) : « Les principaux débats portent sur le mécanisme de la spéciation, que la sélection naturelle opère au niveau du gène, de l'organisme ou de l'espèce. , ou les trois et aussi avec l'importance relative d'autres facteurs, comme les catastrophes naturelles." Ces débats très publics concernaient des idées représentées par George C. Williams et Richard Dawkins d'un côté et Stephen Jay Gould et Niles Eldredge de l'autre. Pas pour Lynn Margulis. Tous les scientifiques ci-dessus avaient tort parce que les études sur l'évolution devaient commencer quatre milliards d'années en arrière. Et elle n'a pas hésité à exprimer ses opinions. Sa position directe et sans prisonnier était pugnace et tenace. Elle était impossible. Elle était merveilleuse.

LES BORD CONVERSATION:

La meilleure épitaphe pour Lynn Margulis consiste probablement en ses propres mots, tirés d'un Q&A du magazine Discover avec elle, publié plus tôt cette année :

Question : Êtes-vous déjà fatigué d'être appelé controversé?
UNE: Je ne considère pas mes idées comme controversées. Je les considère justes.

Historien des sciences, auteur, Darwin parmi les machines La cathédrale de Turing (à venir)

Lynn Margulis a fait une grande partie du travail acharné (précédé par certains Russes hérétiques, et l'encore plus hérétique Samuel Butler) pour ouvrir la porte que j'ai pu franchir avec "Darwin parmi les machines". Elle a intitulé sa critique dans le "Times Higher Education Supplement" (14 août 1998) "Perfection in Grenade Throwing", une référence non seulement à la critique de longue date de Samuel Butler du darwinisme de Charles, mais à la théorie de William Calvin de l'évolution mentale par séquence- tampon pour les jets de pierres et certaines répercussions persistantes de la guerre des tranchées qui a dominé la Première Guerre mondiale. Lynn Margulis faisait elle-même partie de l'élite des lanceurs de grenades scientifiques, et les positions longtemps retranchées ont changé lorsqu'elle a marqué un coup.

Nicolas Pritzker
Président du conseil d'administration et PDG de Hyatt Development Corporation

Au cours de mon adolescence, mon côté scientifique a dansé avec ma fascination pour les concepts métaphysiques. a été émerveillé par la découverte du CMB, mais également en essayant de trouver un lien entre les romans de Beckett, le surréalisme de Magritte, la logique symbolique et le Rinzai Zen koan : la base de ma thèse de premier cycle en 1969. À l'époque, je pensais à Gaia comme un concept mystique (l'idée « dieu est bon »). Plus tard, alors que la science gagnait de manière décisive la course pour mon attention, j'ai été surpris d'apprendre qu'au moins certains des penseurs de Gaia, en particulier Margulis, travaillaient avec des théories scientifiquement valables mais dans un nouveau contexte conceptuel. Cette approche se prête à une mauvaise interprétation, mais me semble en valoir le risque !

Jerry Coyne
Professeur, Département d'écologie et d'évolution, auteur de l'Université de Chicago, Pourquoi l'évolution est vraie

Lynn Margulis avait en effet une idée intelligente - et correcte - qui a révolutionné notre vision de l'évolution de la vie, mais est devenue plus tard victime du syndrome des grandes idées, pensant que parce qu'elle avait raison sur les organites, elle avait raison sur tout le reste. Cela l'a amenée à faire des attaques répétées et totalement infondées contre la biologie évolutive au cours de la dernière décennie, s'embarrassant de ses déclarations. Son héritage est bon, mais pas sans mélange.

La relecture de son chapitre "Gaia est une chienne dure" ne fait que renforcer mon opinion sur ses critiques erronées de l'évolution néo-darwinienne et son antipathie injustifiée envers la génétique des populations. Non seulement elle n'a pas réussi à comprendre comment la génétique des populations a fait progresser notre compréhension de la nature - les effets de la consanguinité et de la dérive génétique sont deux de ces avancées - mais son point de vue sur la spéciation, un domaine dans lequel j'ai travaillé pendant trois décennies, est tout simplement tort.

L'idée de Margulis selon laquelle les nouvelles espèces proviennent de la symbiose n'a aucun support empirique. Lorsque nous essayons de comprendre les fondements génétiques de nouvelles espèces, nous constatons qu'à l'exception de la polyploïdie chez les plantes, elle correspond toujours aux modifications de l'ADN. C'est-à-dire que la division des lignées, comme l'évolution au sein d'une lignée elle-même, est presque toujours le résultat d'un changement graduel, gène par gène. Nous n'avons aucune preuve que la symbiose ait été responsable d'un seul cas de spéciation.

Nous devrions tous honorer les contributions réelles de Margulis à la biologie : sa reconnaissance et son élaboration à partir de suggestions antérieures selon lesquelles certains organites cellulaires ont été acquis par symbiose et que les ancêtres de ces organites étaient des bactéries. Il s'agissait d'une avancée considérable, réalisée malgré le doute réel. Malheureusement, le succès de Margulis face à de telles critiques semble l'avoir rendue têtue et dogmatique à propos de ses autres opinions biologiques. Et, encore plus triste, ces théories étaient souvent fausses. Elle a fermement nié, par exemple, que le SIDA soit causé par le virus VIH, ou que le virus VIH ait même existé. Le SIDA, a-t-elle soutenu, était simplement la syphilis, le spirochète étant rendu indétectable parce qu'il formait une symbiose avec les cellules humaines. Comment équilibrer ses contributions positives contre une forme aussi mortelle de déni ?

Nous devrions toujours honorer les scientifiques qui ont fait progresser notre compréhension de la nature d'une manière aussi profonde que Margulis. Mais rappelons-nous aussi qu'avoir raison sur une grande question ne nous met pas à l'abri de l'erreur dans d'autres questions, et que la renommée scientifique ne nous donne pas un laissez-passer pour toutes nos idées.

LYNN MARGULIS était professeur universitaire distingué au département de géologie de l'université du Massachusetts, à Amherst. Elle était l'auteur de Planète symbiotique, L'origine des cellules eucaryotes, Début de la vie, et Symbiose dans l'évolution cellulaire. Elle a également été co-auteur, avec Karlene V. Schwartz, de Cinq Royaumes : Un Guide Illustré du Phyla de la Vie sur Terre et avec Dorion Sagan de Acquisition de génomes, Microcosme, Origines du sexe, et Danse Mystère.

Lynn Margulis 1938-2011

"Gaia est une chienne dure"

Richard Dawkins : J'admire beaucoup le courage et l'endurance de Lynn Margulis pour s'en tenir à la théorie de l'endosymbiose et la faire passer d'une orthodoxie à une orthodoxie. Je fais référence à la théorie selon laquelle la cellule eucaryote est une union symbiotique de cellules procaryotes primitives. C'est l'une des grandes réalisations de la biologie évolutionniste du vingtième siècle, et je l'admire beaucoup pour cela.

[LYNN MARGULIS] : Dans n'importe quel beau musée d'histoire naturelle - disons, à New York, Cleveland ou Paris - le visiteur trouvera une salle de la vie ancienne, une démonstration de l'évolution qui commence avec les fossiles de trilobites et passe par des nautiloïdes géants, dinosaures, ours des cavernes et autres animaux disparus fascinants pour les enfants. Les évolutionnistes se sont préoccupés de l'histoire de la vie animale au cours des cinq cents derniers millions d'années. Mais nous savons maintenant que la vie elle-même a évolué beaucoup plus tôt que cela. Les archives fossiles commencent il y a près de quatre milliards d'années ! Jusqu'aux années 1960, les scientifiques ignoraient les preuves fossiles de l'évolution de la vie, car elles étaient ininterprétables.

Je travaille en biologie évolutive, mais avec des cellules et des micro-organismes. Richard Dawkins, John Maynard Smith, George Williams, Richard Lewontin, Niles Eldredge et Stephen Jay Gould sont tous issus de la tradition zoologique, ce qui me suggère que, selon les mots de notre collègue Simon Robson, ils traitent d'un ensemble de données trois milliards d'années de retard. Eldredge et Gould et leurs nombreux collègues ont tendance à codifier une ignorance incroyable de l'endroit où se situe la véritable action dans l'évolution, car ils limitent le domaine d'intérêt aux animaux - y compris, bien sûr, les humains. Tous sont très intéressants, mais les animaux sont très en retard sur la scène évolutive, et ils nous donnent peu d'informations sur les principales sources de la créativité de l'évolution. C'est comme si vous écriviez un tome en quatre volumes censément sur l'histoire du monde mais commençant en 1800 à Fort Dearborn et la fondation de Chicago. Vous avez peut-être tout à fait raison au sujet de la transformation au XIXe siècle de Fort Dearborn en une métropole florissante au bord du lac, mais ce ne serait guère de l'histoire mondiale.

« l'ignorance codifiante » Je me réfère en partie au fait qu'ils manquent quatre des cinq règnes de la vie. Les animaux ne sont qu'un de ces royaumes. Ils manquent de bactéries, de protoctistas, de champignons et de plantes. Ils prennent un petit chapitre intéressant dans le livre de l'évolution et l'extrapolent dans toute l'encyclopédie de la vie. Déformés et limités dans leur perspective, ils n'ont pas tant tort que grossièrement mal informés.

De quoi ignorent-ils ? Chimie, principalement, parce que le langage de la biologie évolutive est le langage de la chimie, et la plupart d'entre eux ignorent la chimie. Je ne veux pas les regrouper tous ensemble, car, tout d'abord, Gould et Eldredge ont découvert très clairement que les changements évolutifs graduels à travers le temps, attendus par Darwin pour être documentés dans les archives fossiles, ne sont pas ce qui s'est passé. Les morphologies fossiles persistent pendant de longues périodes, et après la stase, des discontinuités sont observées. Je ne pense pas que ces observations soient même discutables. John Maynard Smith, ingénieur de formation, connaît une grande partie de sa biologie de seconde main. Il s'occupe rarement d'organismes vivants. Il calcule et il lit. Je soupçonne qu'il lui est très difficile d'avoir un aperçu d'un groupe d'organismes lorsqu'il ne traite pas directement avec eux. Les biologistes, en particulier, ont besoin d'une communication sensorielle directe avec les êtres vivants qu'ils étudient et sur lesquels ils écrivent.

Reconstituer l'histoire de l'évolution à travers les fossiles - la paléontologie - est une approche valable, à mon avis, mais les paléontologues doivent travailler simultanément avec des organismes homologues modernes et avec des "néontologues" - c'est-à-dire des biologistes. Gould, Eldredge et Lewontin ont apporté des contributions très précieuses. Mais la tradition Dawkins-Williams-Maynard Smith émerge d'une histoire que je doute qu'ils voient dans son contexte social anglophone. Darwin a affirmé que les populations d'organismes changent progressivement au fil du temps à mesure que leurs membres sont éliminés, ce qui est son idée de base de l'évolution par la sélection naturelle. Mendel, qui a développé les règles pour les traits génétiques passant d'une génération à l'autre, a clairement indiqué que même si ces traits se réassortissent, ils ne changent pas avec le temps. Une fleur blanche accouplée à une fleur rouge a une progéniture rose, et si cette fleur rose est croisée avec une autre fleur rose, la progéniture qui en résulte est tout aussi rouge ou tout aussi blanche ou tout aussi rose que le parent ou les grands-parents d'origine. Les espèces d'organismes, a insisté Mendel, ne changent pas avec le temps. Le mélange ou le mélange qui a produit le rose est superficiel. Les gènes sont simplement mélangés pour sortir dans différentes combinaisons, mais ces mêmes combinaisons génèrent exactement les mêmes types. Les observations de Mendel sont incontestables.

Alors J.B.S. Haldane, sans aucun doute une personne brillante, et R.A. Fisher, un mathématicien, a généré toute une école d'évolutionnistes anglophones, alors qu'ils développaient l'analyse néo-darwiniste de la génétique des populations pour concilier deux points de vue inconciliables : le point de vue évolutionniste de Darwin avec le concept pragmatique et anti-évolutionnaire de Mendel. Ils ont inventé un langage de génétique des populations dans les années 1920 à 1950 appelé néo-darwinisme, pour rationaliser ces deux domaines. Ils ont mathématisé leur travail et ont commencé à y croire, diffusant largement le mot en Grande-Bretagne, aux États-Unis et au-delà. La France et d'autres pays ont résisté au néo-darwinisme, mais certains chercheurs japonais et autres se sont joints à l'activité « d'explication ».

Dawkins et Lewontin, qui se considèrent éloignés l'un de l'autre à bien des égards, appartiennent à cette tradition. Lewontin a visité une classe d'économie à l'Université du Massachusetts il y a quelques années pour parler aux étudiants. Dans une sorte de jockey néo-darwinien, il disait que les changements évolutifs sont dus aux mécanismes Fisher-Haldane : mutation, émigration, immigration, etc. À la fin de l'heure, il a déclaré qu'aucune des conséquences des détails de son analyse n'avait été démontrée empiriquement. Son traitement mathématique élaboré coût-bénéfice était dépourvu de chimie et de biologie. Je lui ai demandé pourquoi, si rien de tout cela ne pouvait être démontré expérimentalement ou sur le terrain, il était tellement attaché à présenter une explication coûts-avantages dérivée d'une fausse « théorie » socio-économique humaine. Pourquoi, alors qu'il soulignait lui-même de graves défauts liés aux hypothèses fondamentales, a-t-il voulu enseigner cette absurdité ? Sa réponse était qu'il y avait deux raisons : la première était "P.E." « P.E. » ai-je demandé. « Qu'est-ce que l'E.P. ? Explosion démographique ? Équilibre ponctué ? Éducation physique ? » "Non," répondit-il, "P.E.est « l'envie de physique », qui est un syndrome dans lequel les scientifiques d'autres disciplines aspirent aux modèles mathématiquement explicites de la physique. Sa deuxième raison était encore plus insidieuse : langage archaïque et totalement inapproprié, à mon avis), il ne serait pas en mesure d'obtenir l'argent des subventions qui a été mis en place pour soutenir ce genre de travail.

La tradition néo-darwiniste de la génétique des populations rappelle la phrénologie, je pense, et c'est une sorte de science qui peut s'attendre exactement au même sort. Cela semblera ridicule avec le recul, parce que c'est ridicule. J'ai toujours ressenti cela, même en tant qu'étudiant plus qu'adéquat en génétique des populations avec un superbe professeur – James F. Crow, de l'Université du Wisconsin, Madison. À la toute fin du semestre, la dernière semaine a été consacrée à discuter des études observationnelles et expérimentales réelles liées aux modèles, mais aucun des résultats des expériences ne correspondait à la théorie.

J'ai critiqué le néo-darwinisme mathématique pendant des années, cela n'a jamais eu beaucoup de sens pour moi. On nous a tous dit que les mutations aléatoires – dont la plupart sont connues pour être délétères – sont la principale cause du changement évolutif. Je me souviens m'être réveillé un jour avec une révélation épiphane : je ne suis pas un néo-darwiniste ! Cela m'a rappelé une expérience antérieure, lorsque j'ai réalisé que je n'étais pas un juif humaniste.

Bien que j'admire beaucoup les contributions de Darwin et que je sois d'accord avec la plupart de ses analyses théoriques et que je sois un darwiniste, Je ne suis pas un néo-darwiniste. L'une des principales idées de Darwin est la reconnaissance que tous les organismes sont liés par une ascendance commune. Aujourd'hui, les preuves directes de l'ascendance commune - génétique, chimique et autre - sont accablantes. Les populations d'organismes croissent et se reproduisent à des rythmes qui ne sont pas durables dans le monde réel, et donc beaucoup plus meurent ou ne parviennent pas à se reproduire qu'elles n'achèvent réellement leur histoire de vie. Le fait que tous les organismes qui naissent, éclosent ou éclosent ne survivent pas et ne peuvent pas survivre est la sélection naturelle. Une variation héréditaire observable apparaît dans tous les organismes qui sont éclos, nés, éclos ou produits par division, et certaines variantes deviennent trop grandes et produisent d'autres. Ce sont les principes de l'évolution darwinienne et de la sélection naturelle. Tous les scientifiques pensants sont entièrement d'accord avec ces idées de base, car elles sont étayées par de vastes quantités de preuves.

Le néo-darwinisme est une tentative de réconcilier la génétique mendélienne, qui dit que les organismes ne changent pas avec le temps, avec le darwinisme, qui prétend qu'ils changent. C'est une rationalisation qui fusionne deux traditions quelque peu imparfaites d'une manière mathématique, et c'est le début de la fin. La formalité néo darwiniste utilise une arithmétique et une algèbre inappropriées pour la biologie. Le langage de la vie n'est pas l'arithmétique ordinaire et l'algèbre le langage de la vie est la chimie. Les néo-darwinistes praticiens manquent de connaissances pertinentes, par exemple en microbiologie, biologie cellulaire, biochimie, biologie moléculaire et génétique cytoplasmique. Ils évitent la cytologie biochimique et l'écologie microbienne. C'est comparable à tenter une analyse critique de la phraséologie élisabéthaine et de l'expression idiomatique de Shakespeare en chinois, tout en ignorant la pertinence de la langue anglaise !

Les néo-darwinistes disent que la variation provient d'une mutation aléatoire, définissant la mutation comme tout changement génétique. Par hasard, ils veulent dire que les caractères apparaissent au hasard dans la progéniture par rapport à la sélection : si un animal a besoin d'une queue, il ne développe pas cette queue car il en a plutôt besoin, l'animal développe au hasard toutes sortes de changements et ceux qui ont une queue survivent pour produire plus de progéniture. H.J. Muller, dans les années 1920, a découvert que non seulement les rayons X augmentent le taux de mutation des mouches des fruits, mais même si les mouches des fruits sont complètement isolées des rayons X, du rayonnement solaire et d'autres perturbations environnementales, un taux de mutation spontanée peut être mesuré. Les variantes héréditaires apparaissent spontanément, elles n'ont rien à voir avec le fait qu'elles soient ou non bonnes pour l'organisme dans lequel elles apparaissent. La mutation a ensuite été présentée comme la source de la variation - celle sur laquelle la sélection naturelle a agi - et la théorie néo-darwinienne a été déclarée complète. La science restante nécessitait de combler les lacunes d'une « théorie » avec très peu de trous.

De nombreuses expériences, on sait que si des mutagènes comme les rayons X ou certains produits chimiques sont présentés aux mouches des fruits, il en résulte des mouches malades et mortes. Aucune nouvelle espèce de mouche n'apparaît - c'est le vrai hic. Tout le monde s'accorde à dire que de tels mutagènes produisent une variation héréditaire. Tout le monde s'accorde à dire que la sélection naturelle agit sur cette variation. La question est : d'où vient la variation utile sur laquelle agit la sélection ? Ce problème n'a pas encore été résolu. Mais je prétends que la variation héritée la plus importante vient des fusions - de ce que les Russes, en particulier Konstantin S. Mereschkovsky, appelaient symbiogenèse et l'Américain Ivan Emanuel Wallin a appelé symbiontisme. Wallin entendait par le terme l'incorporation de systèmes génétiques microbiens dans des progéniteurs de cellules animales ou végétales. Le nouveau système génétique - une fusion entre un microbe et une cellule animale ou un microbe et une cellule végétale - est vraiment différent de la cellule ancestrale qui manque de microbe. Analogue aux améliorations de la technologie informatique, au lieu de repartir de zéro pour refaire tous les nouveaux modules, l'idée de symbiose est une interface de modules préexistants. Les fusions entraînent l'émergence d'êtres nouveaux et plus complexes. Je doute que de nouvelles espèces se forment uniquement à partir d'une mutation aléatoire.

La symbiose est une association physique entre des organismes, la cohabitation d'organismes d'espèces différentes au même endroit et au même moment. Mon travail en symbiose est issu de systèmes génétiques cytoplasmiques. On nous a tous appris que les gènes étaient dans le noyau et que le noyau est le contrôle central de la cellule. Au début de mon étude de la génétique, j'ai pris conscience qu'il existait d'autres systèmes génétiques avec des modèles d'hérédité différents. Dès le début, j'étais curieux de connaître ces gènes indisciplinés qui n'étaient pas dans le noyau. Le plus célèbre d'entre eux était un gène cytoplasmique appelé « killer », qui, chez le protiste Paramécie aurélie, a suivi certaines règles d'héritage. Le gène tueur, après vingt ans de travail intense et d'idées paradigmatiques changeantes, s'avère être dans un virus à l'intérieur d'une bactérie symbiotique. Presque tous les gènes extranucléaires sont dérivés de bactéries ou d'autres types de microbes. Dans la recherche de ce que sont vraiment les gènes en dehors du noyau, j'ai pris de plus en plus conscience qu'il s'agissait d'entités cohabitant, d'êtres vivants. Les petites cellules vivantes résident à l'intérieur des cellules plus grandes. La compréhension qui m'a conduit, ainsi que d'autres, à étudier les symbioses modernes.

La symbiose n'a rien à voir avec les coûts ou les avantages. Les gens avantages/coûts ont perverti la science avec des analogies économiques odieuses. La controverse ne porte pas sur les symbioses modernes, simplement sur la cohabitation d'organismes différents, mais sur la question de savoir si la « symbiogenèse » – des symbioses à long terme qui conduisent à de nouvelles formes de vie – s'est produite et se produit toujours. L'importance de la symbiogenèse en tant que source majeure de changement évolutif est ce qui est débattu. Je soutiens que la symbiogenèse est le résultat d'une vie commune à long terme - rester ensemble, en particulier impliquant des microbes - et qu'elle est le principal innovateur évolutif dans toutes les lignées d'organismes non bactériens plus grands.

En 1966, j'ai écrit un article sur la symbiogenèse intitulé "L'origine des cellules mitotiques [eucaryotes]", traitant de l'origine de toutes les cellules, à l'exception des bactéries. (L'origine des cellules bactériennes est l'origine de la vie elle-même.) L'article a été rejeté par une quinzaine de revues scientifiques, car il était également défectueux, il était trop récent et personne ne pouvait l'évaluer. Enfin, James F. Danielli, rédacteur en chef de Le Journal de Biologie Théorique, l'a accepté et m'a encouragé. À l'époque, je n'étais absolument personne et, chose inouïe, ce journal a reçu huit cents demandes de réimpression. Plus tard, à l'Université de Boston, il a remporté le prix de la meilleure publication universitaire de l'année. Je n'étais qu'un instructeur à l'époque, alors mes collègues du département de biologie ont réagi à l'agitation et ont organisé une fête. Mais c'était plutôt "N'est-ce pas mignon" ou "C'est tellement abscons que je ne le comprends pas, mais d'autres pensent que cela mérite d'être remarqué". Même aujourd'hui, la plupart des scientifiques ne prennent toujours pas la symbiose au sérieux en tant que mécanisme évolutif. S'ils devaient prendre la symbiogenèse au sérieux, ils devraient changer leur comportement. La seule façon dont les comportements changent en science est que certaines personnes meurent et que des personnes se comportant différemment prennent leur place.

Ensuite, en développant l'article de journal, après dix ans de recherche et six semaines d'écriture intense, j'ai produit un livre intitulé L'origine des cellules eucaryotes. Même sous contrat, il a été rejeté par Academic Press. Enfin, en 1970, le travail révisé et amélioré a été publié par Yale University Press. Maintenant appelé Symbiose dans l'évolution cellulaire, la version la plus récente de la déclaration est dans une deuxième - en réalité une troisième - édition. Publié par W.H. Freeman en 1993, ce livre est l'œuvre de ma vie. Il détaille le rôle de la symbiose dans l'évolution des cellules, ce qui conduit directement à l'origine de la division cellulaire mitotique et de la sexualité méiotique. Mon objectif principal est de savoir comment différentes bactéries forment des consortiums qui, sous des pressions écologiques, s'associent et subissent des changements métaboliques et génétiques de telle sorte que leurs communautés étroitement intégrées se traduisent par une individualité à un niveau d'organisation plus complexe. Le cas d'espèce est l'origine des cellules nucléées (protoctistes, animales, fongiques et végétales) de bactéries.

Alors que Gould et les autres ont tendance à croire que les espèces ne font que diverger les unes des autres, je prétends que - plus important dans la génération de variation - les espèces forment de nouvelles entités composites par fusion et fusion. La symbiogenèse est un mécanisme d'évolution extrêmement important. L'analyse de la symbiogenèse impacte la biologie du développement, la taxonomie et la systématique, et la biologie cellulaire, elle touche une trentaine de sous-domaines de la biologie, voire de la géologie. La symbiogenèse a de nombreuses implications, ce qui explique en partie pourquoi elle est controversée. La plupart des gens n'aiment pas entendre que ce qu'ils ont fait toutes ces années est d'aboyer le mauvais arbre.

Mon argumentation n'est radicale que dans la mesure où elle incite les scientifiques à changer leur statu quo sur de nombreuses questions. Pour prendre au sérieux notre Cinq Royaumes concept (le livre de Karlene V. Schwartz et moi est basé sur des travaux de Robert H. Whittaker et Herbert F. Copeland) une école ou un éditeur devrait modifier son catalogue. Un fournisseur doit réétiqueter tous ses tiroirs et armoires. Les départements doivent réorganiser leurs postes budgétaires, et la NASA, la National Science Foundation et divers musées doivent changer les titres du personnel et les comités de planification des programmes. Le passage de « plantes contre animaux » aux cinq règnes (bactéries, protoctistes, animaux, champignons et plantes) a une implication si profonde pour chaque aspect de la biologie en tant qu'activité sociale que la résistance à l'accepter abonde. Les scientifiques et ceux qui les paient doivent rejeter ou ignorer cette réorganisation potentielle, car accepter les frontières changeantes et les nouvelles alliances est étrange et coûteux. Il est beaucoup plus facile de s'en tenir à des catégories intellectuelles obsolètes.

Pendant plus d'un milliard d'années, la seule vie sur cette planète était constituée de cellules bactériennes, qui, faute de noyaux, sont appelées procaryotes, ou cellules procaryotes. Ils se ressemblaient beaucoup et du point de vue centré sur l'humain, ils semblent ennuyeux. Cependant, les bactéries sont à l'origine de la reproduction, de la photosynthèse, du mouvement - en effet, toutes les caractéristiques intéressantes de la vie sauf peut-être la parole ! Ils sont toujours avec nous en grande diversité et en grand nombre. Ils gouvernent toujours la Terre. À un moment donné, un nouveau type de cellule plus complexe est apparu, la cellule eucaryote, dont les corps végétaux et animaux sont composés. Ces cellules contiennent certains organites, dont des noyaux. Les cellules eucaryotes avec un noyau individualisé sont les éléments constitutifs de toutes les grandes formes de vie familières. Comment cette révolution évolutive s'est-elle produite ? Comment est apparue la cellule eucaryote ? C'était probablement une invasion de prédateurs, au départ. Cela a peut-être commencé lorsqu'une sorte de bactérie se tortillait en envahissait une autre – à la recherche de nourriture, bien sûr. Mais certaines invasions ont évolué en associations de trêves une fois que les féroces sont devenues bénignes. Lorsque de potentiels envahisseurs bactériens nageurs ont élu domicile à l'intérieur de leurs hôtes paresseux, cette union de forces a créé un nouvel ensemble qui était, en effet, bien plus grand que la somme de ses parties : des nageurs plus rapides capables de déplacer un grand nombre de gènes ont évolué. Certains de ces nouveaux venus étaient particulièrement compétents dans la lutte évolutionniste. D'autres associations bactériennes ont été ajoutées au fur et à mesure que la cellule moderne évoluait.

Un type de preuve en faveur de la symbiogenèse dans les origines cellulaires est la mitochondrie, les organites à l'intérieur de la plupart des cellules eucaryotes, qui ont leur propre ADN séparé. En plus de l'ADN nucléaire, qui est le génome humain, chacun de nous possède également de l'ADN mitochondrial. Nos mitochondries, une lignée complètement différente, ne sont héritées que de nos mères. Aucun de notre ADN mitochondrial ne vient de nos pères. Ainsi, dans chaque champignon, animal ou plante (et chez la plupart des protoctistes), au moins deux généalogies distinctes existent côte à côte. Cela, en soi, est un indice qu'à un moment donné, ces organites étaient des micro-organismes distincts qui ont uni leurs forces.

David Luck et John Hall, généticiens chercheurs à l'Université Rockefeller, ont récemment fait une découverte étonnante que j'avais plus ou moins prédite il y a vingt-cinq ans. Ils ont démontré par des techniques bien développées quelque chose qu'ils ne recherchaient même pas : un ADN particulier — à l'extérieur du noyau de la cellule, à l'extérieur du chloroplaste et à l'extérieur des mitochondries. Cet ADN extranucléaire, ces gènes à l'extérieur du noyau, peuvent être interprétés comme des vestiges d'anciennes bactéries invasives et tortillantes dont l'association agressive présageait la fusion.

Si leur découverte est correcte - et au moins trois équipes de chercheurs l'ont contestée - alors le système génétique non nucléaire Hall and Luck révélé dans les algues vertes peut représenter les restes de bactéries dépouillés à l'intérieur de chacun de nous. La croissance, la reproduction et la communication de ces bactéries en mouvement et formant des alliances deviennent isomorphes avec notre pensée, avec notre bonheur, nos sensibilités et nos stimulations. Si la mienne est une vue correcte, elle organise beaucoup de connaissances. Il existe des manières non ambiguës de tester les points principaux. L'implication est que nous sommes littéralement habités par des restes très mobiles d'un ancien type bactérien qui sont devenus, dans tous les sens, une partie de nous-mêmes. Ces êtres partiels florissants représentent la base physique de l'anima : l'âme, la vie, la locomotion, une évocation du matérialisme au sens le plus grossier du terme. En d'autres termes : un produit chimique purifié est préparé à partir du cerveau et ajouté à un autre produit chimique purifié. Ces deux produits chimiques – deux types différents de protéines mobiles – rampent ensemble, ils se déplacent. Ils se déplacent tout seuls. Les biochimistes et les biologistes cellulaires peuvent nous montrer le dénominateur commun minimal du mouvement, la locomotion. Anima. Âme. Ces protéines en mouvement que j'interprète comme les restes des bactéries nageuses incorporées par des êtres qui sont devenus nos ancêtres comme ils sont devenus nous.

Le système de mouvement minimal est si physiquement et chimiquement caractérisable qu'il existe un consensus complet sur le fait que les "protéines de motilité" sont composées de liaisons carbone-hydrogène typiques, et ainsi de suite. Tous les détails sont convenus par les biologistes cellulaires et les biochimistes. Mais je pense qu'une compréhension de la mesure dans laquelle l'origine évolutive impliquait la symbiogenèse doit être reconnue. Une telle reconnaissance conduira à une nouvelle prise de conscience de la base physique de la pensée. La pensée et le comportement des gens sont rendus beaucoup moins mystérieux lorsque nous réalisons que le choix et la sensibilité sont déjà délicieusement développés dans les cellules microbiennes qui sont devenues nos ancêtres. Même les philosophes seront inspirés pour en savoir plus sur les protéines de motilité. Les scientifiques et les non-scientifiques seront motivés à apprendre suffisamment de chimie, de microbiologie, de biologie évolutive et de paléontologie pour comprendre la pertinence de ces domaines par rapport aux questions profondes qu'ils posent.

Mon travail principal a toujours été sur l'évolution cellulaire, pourtant j'ai longtemps été associé à James Lovelock et à son hypothèse Gaia. Au début des années 70, j'essayais d'aligner les bactéries par leurs voies métaboliques. J'ai remarqué que toutes sortes de bactéries produisaient des gaz. Oxygène, sulfure d'hydrogène, dioxyde de carbone, azote, ammoniac, plus d'une trentaine de gaz différents sont dégagés par les bactéries dont j'ai tenu à reconstituer l'histoire évolutive. Pourquoi tous les scientifiques que j'ai interrogés croyaient-ils que l'oxygène atmosphérique était un produit biologique alors que les autres gaz atmosphériques — azote, méthane, soufre, etc. — ne l'étaient pas ? "Allez parler à Lovelock", ont suggéré au moins quatre scientifiques différents. Lovelock croyait que les gaz dans l'atmosphère étaient biologiques. Il avait, à ce moment-là, une très bonne idée des organismes vivants qui « expiraient » probablement les gaz en question. Ces gaz étaient beaucoup trop abondants dans l'atmosphère pour être formés par des processus chimiques et physiques seuls. Il a soutenu que l'atmosphère était un système physiologique et pas seulement un système chimique.

L'hypothèse de Gaia stipule que la température de la planète, l'état d'oxydation et d'autres éléments chimiques de tous les gaz de la basse atmosphère (à l'exception de l'hélium, de l'argon et d'autres non réactifs) sont produits et maintenus par la somme de la vie. Nous avons exploré comment cela pourrait être. Comment la température de la planète pourrait-elle être régulée par les êtres vivants ? Comment la composition du gaz atmosphérique - les 20 pour cent d'oxygène et une à deux parties par million de méthane, par exemple - pourrait-elle être activement maintenue par la matière vivante ?

Il m'a fallu des jours de conversation pour commencer à comprendre la pensée de Lovelock. Ma première réponse, tout comme celle des néo-darwinistes, fut "business as usual". Je dirais : « Oh, vous voulez dire que les organismes s'adaptent à leur environnement ». Il répondait, très gentiment, "Non, je ne veux pas dire ça." Lovelock n'arrêtait pas de me dire ce qu'il voulait vraiment dire, et c'était difficile pour moi d'écouter. Comme il s'agissait d'une idée nouvelle, il n'avait pas encore développé un vocabulaire approprié. Je l'ai peut-être aidé à élaborer ses explications, mais je n'ai pas fait grand-chose d'autre.

L'hypothèse Gaia est une idée biologique, mais elle n'est pas centrée sur l'humain. Ceux qui veulent que Gaia soit une déesse de la Terre pour un environnement humain câlin et poilu n'y trouvent aucun réconfort. Ils ont tendance à être critiques ou à mal comprendre. Ils ne peuvent adhérer à la théorie qu'en l'interprétant mal. Certains critiques craignent que l'hypothèse de Gaia indique que l'environnement répondra à toutes les insultes qui lui seront faites et que les systèmes naturels s'occuperont des problèmes.Ceci, soutiennent-ils, donne aux industries le droit de polluer. Oui, Gaia prendra soin de lui-même oui, les excès environnementaux seront atténués, mais il est probable qu'une telle restauration de l'environnement se produira dans un monde dépourvu d'humains.

Lovelock dirait que la Terre est un organisme. Je ne suis pas d'accord avec cette phraséologie. Aucun organisme ne mange ses propres déchets. Je préfère dire que la Terre est un écosystème, un énorme écosystème continu composé de nombreux écosystèmes composants. La position de Lovelock est de laisser les gens croire que la Terre est un organisme, car s'ils pensent que ce n'est qu'un tas de pierres, ils la frappent, l'ignorent et la maltraitent. S'ils pensent que la Terre est un organisme, ils auront tendance à la traiter avec respect. Pour moi, c'est une échappatoire utile, pas de la science. Pourtant, je suis d'accord avec Lovelock lorsqu'il affirme que la plupart des choses que font les scientifiques ne sont pas non plus de la science. Et je me rends compte qu'en adoptant la position qu'il prend, il est plus efficace que moi pour communiquer des idées Gaïennes.

Si la science ne s'intègre pas dans le milieu culturel, les gens rejettent la science, ils ne rejettent jamais leur milieu culturel ! Si nous sommes impliqués dans une science dont certains aspects ne sont pas en rapport avec le milieu culturel, alors on nous dit que notre science est imparfaite. Je soupçonne que tout le monde a des concepts culturels dans lesquels la science doit s'intégrer. Bien que j'essaie de reconnaître ces préjugés en moi, je suis sûr que je ne peux pas les éviter entièrement. J'essaie de me concentrer sur les aspects d'observation directe de la science.

Gaia est une garce coriace – un système qui a fonctionné pendant plus de trois milliards d'années sans personne. La surface de cette planète, son atmosphère et son environnement continueront d'évoluer longtemps après que les gens et les préjugés auront disparu.

Extrait de La troisième culture : au-delà de la révolution scientifique par John Brockman (Simon & Schuster, 1995) . Copyright © 1995 par John Brockman. Tous les droits sont réservés. [Cliquez ici pour Bord Édition en ligne.]


Systèmes vivants : l'état d'équilibre et les tolérances de conception

Les systèmes vivants ne sont pas des états d'équilibre, ce sont des états d'équilibre nécessitant un flux continu de matière, d'énergie et d'échange avec l'environnement (2, 3). Le concept d'un état stationnaire a commencé en 1877 avec Pfluger&# x2019s &# x201cajustements naturels&# x201d, le concept de Bernard&# x2019 de &# x201cmilieu intérieur” (1878), et Richet’s “les êtres vivants étaient stables mais modifiables” (1900) (3, 4). Ce n'est qu'au début des années 1920 que Walter Cannon a combiné ces idées en un schéma unifié d'homéostasie (5). Cannon a soutenu que l'organisme vivant était dans un état dynamique de constance, ses éléments constitutifs et ses processus étant activement maintenus en équilibre malgré les fluctuations externes. Il croyait que l'homéostasie était un phénomène systémique : &#particulier aux êtres vivants - impliquant, comme ils peuvent, le cerveau et les nerfs, le cœur, les poumons, les reins et la rate, tous travaillant en coopération (5). L'ajout de circuits de rétroaction négatifs et positifs pour soutenir l'homéostasie n'était pas l'idée de Cannon&# x2019, mais est entré au milieu des années 1930 par le physiologiste russe Pyotr Anokhin&# x2019s théorie des systèmes fonctionnels (6). L'état d'équilibre était maintenant considéré comme comprenant la somme des mécanismes de rétroaction négative et positive qui maintient un système vivant dans une plage de limites ou de tolérances opérationnelles. Un stress, une blessure ou une infection était un défi pour l'état d'équilibre du corps, et l'objectif principal de tout nouveau traitement médicamenteux, dispositif ou intervention est de rétablir l'équilibre homéostatique.


Questions conceptuelles

Comment les bobines à boucles multiples et l'anneau de fer dans la version de l'appareil de Faraday illustrée à la figure 23.3 améliorent-ils l'observation de la force électromotrice induite ?

Lorsqu'un aimant est poussé dans une bobine comme dans la figure 23.4(a), quelle est la direction de la force exercée par la bobine sur l'aimant ? Dessinez un diagramme montrant la direction du courant induit dans la bobine et le champ magnétique qu'il produit, pour justifier votre réponse. Comment l'amplitude de la force dépend-elle de la résistance du galvanomètre ?

Expliquez comment le flux magnétique peut être nul lorsque le champ magnétique n'est pas nul.

Une force électromotrice est-elle induite dans la bobine de la figure 23.54 lorsqu'elle est étirée ? Si oui, expliquez pourquoi et indiquez le sens du courant induit.

23.2 Loi d'induction de Faraday : loi de Lenz

Une personne qui travaille avec de gros aimants place parfois sa tête à l'intérieur d'un champ puissant. Elle déclare se sentir étourdie alors qu'elle tourne rapidement la tête. Comment cela peut-il être associé à l'induction?

Un accélérateur de particules envoie des particules chargées à grande vitesse dans un tuyau sous vide. Expliquez comment une bobine de fil enroulé autour du tuyau pourrait détecter le passage de particules individuelles. Tracez un graphique de la tension de sortie de la bobine lorsqu'une seule particule la traverse.

23.3 Emf de mouvement

Pourquoi une partie du circuit doit-elle bouger par rapport à d'autres parties, pour avoir une force électromotrice en mouvement utilisable ? Considérons, par exemple, que les rails de la figure 23.11 sont immobiles par rapport au champ magnétique, tandis que la tige se déplace.

Un puissant canon à induction peut être fabriqué en plaçant un cylindre métallique à l'intérieur d'une bobine de solénoïde. Le cylindre est expulsé avec force lorsque le courant du solénoïde est activé rapidement. Utilisez les lois de Faraday et de Lenz pour expliquer comment cela fonctionne. Pourquoi le cylindre peut-il devenir sous tension/chaud lorsque le canon est tiré ?

Une cuisinière à induction chauffe une marmite avec une bobine transportant un courant alternatif située sous la marmite (et sans surface chaude). La surface du poêle peut-elle être conductrice ? Pourquoi une bobine transportant un courant continu ne fonctionne-t-elle pas ?

Expliquez comment vous pouvez dégeler une conduite d'eau gelée en enroulant une bobine transportant un courant alternatif autour d'elle. Est-ce important que le tuyau soit conducteur ou non ? Expliquer.

23.4 Courants de Foucault et amortissement magnétique

Expliquez pourquoi l'amortissement magnétique peut ne pas être efficace sur un objet composé de plusieurs couches conductrices minces séparées par un isolant.

Expliquer comment l'induction électromagnétique peut être utilisée pour détecter les métaux ? Cette technique est particulièrement importante dans la détection des mines terrestres enfouies pour l'élimination, la prospection géophysique et dans les aéroports.

23.5 Générateurs électriques

En utilisant RHR-1, montrez que les fem sur les côtés de la boucle du générateur de la figure 23.23 sont dans le même sens et s'additionnent donc.

La source de la production d'énergie électrique d'un générateur est le travail effectué pour faire tourner ses bobines. Comment le travail nécessaire pour faire tourner le générateur est-il lié à la loi de Lenz ?

23.6 Dos fem

Supposons que vous trouviez que la transmission par courroie reliant un moteur puissant à une unité de climatisation est cassée et que le moteur tourne librement. Faut-il craindre que le moteur consomme beaucoup d'énergie sans aucune utilité ? expliquez pourquoi ou pourquoi pas.

23.7 Transformateurs

Expliquez ce qui cause les vibrations physiques dans les transformateurs à une fréquence deux fois supérieure à celle du courant alternatif impliqué.

23.8 Sécurité électrique : systèmes et dispositifs

L'isolation en plastique sur les fils sous tension/chaud prévient-elle les risques de choc électrique, les risques thermiques, ou les deux ?

Pourquoi les disjoncteurs et les fusibles ordinaires sont-ils inefficaces pour prévenir les chocs ?

Un GFI peut se déclencher simplement parce que les fils sous tension/sous tension et neutres qui y sont connectés sont de longueur significativement différente. Expliquer pourquoi.

23.9 Inductance

Comment mettriez-vous deux bobines plates identiques en contact pour qu'elles aient la plus grande inductance mutuelle ? Le moins?

Comment formeriez-vous une longueur de fil donnée pour lui donner la plus grande auto-inductance ? Le moins?

Vérifier, comme cela a été conclu sans preuve dans l'exemple 23.7, que les unités de T ⋅ m 2 / A = Ω ⋅ s = H T ⋅ m 2 / A = Ω ⋅ s = H taille 12 > /A= %OMEGA cdot s=H> <> .

23.11 Réactance, inductif et capacitif

La presbyacousie est une perte auditive due à l'âge qui affecte progressivement les fréquences plus élevées. Un amplificateur d'aide auditive est conçu pour amplifier toutes les fréquences de manière égale. Pour régler sa sortie pour la presbyacousie, mettriez-vous un condensateur en série ou en parallèle avec le haut-parleur de l'aide auditive ? Expliquer.

Utiliseriez-vous une grande inductance ou une grande capacité en série avec un système pour filtrer les basses fréquences, comme le bourdonnement de 100 Hz dans un système audio ? Expliquer.

Le bruit haute fréquence dans l'alimentation secteur peut endommager les ordinateurs. L'unité enfichable conçue pour éviter ces dommages utilise-t-elle une grande inductance ou une grande capacité (en série avec l'ordinateur) pour filtrer ces hautes fréquences ? Expliquer.

L'inductance dépend-elle du courant, de la fréquence ou des deux ? Et la réactance inductive ?

Expliquez pourquoi le condensateur de la figure 23.55(a) agit comme un filtre basse fréquence entre les deux circuits, alors que celui de la figure 23.55(b) agit comme un filtre haute fréquence.

Si les condensateurs de la figure 23.55 sont remplacés par des inductances, qui agit comme un filtre basse fréquence et lequel comme un filtre haute fréquence ?

23.12 Circuits CA de la série RLC

La fréquence de résonance d'un circuit alternatif dépend-elle de la tension de crête de la source alternative ? expliquez pourquoi ou pourquoi pas.

Supposons que vous ayez un moteur avec un facteur de puissance nettement inférieur à 1. Expliquez pourquoi il serait préférable d'améliorer le facteur de puissance comme méthode d'amélioration de la sortie du moteur, plutôt que d'augmenter la tension d'entrée.

En tant qu'associé Amazon, nous gagnons des achats éligibles.

Vous voulez citer, partager ou modifier ce livre ? Ce livre est Creative Commons Attribution License 4.0 et vous devez attribuer OpenStax.

    Si vous redistribuez tout ou partie de ce livre dans un format imprimé, vous devez alors inclure sur chaque page physique l'attribution suivante :

  • Utilisez les informations ci-dessous pour générer une citation. Nous vous recommandons d'utiliser un outil de citation comme celui-ci.
    • Auteurs : Paul Peter Urone, Roger Hinrichs
    • Éditeur/site Web : OpenStax
    • Titre du livre: College Physics
    • Date de parution : 21 juin 2012
    • Lieu : Houston, Texas
    • URL du livre : https://openstax.org/books/college-physics/pages/1-introduction-to-science-and-the-realm-of-physics-physical-quantities-and-units
    • URL de la section : https://openstax.org/books/college-physics/pages/23-conceptual-questions

    © 7 janvier 2021 OpenStax. Le contenu des manuels produit par OpenStax est sous licence Creative Commons Attribution License 4.0. Le nom OpenStax, le logo OpenStax, les couvertures de livres OpenStax, le nom OpenStax CNX et le logo OpenStax CNX ne sont pas soumis à la licence Creative Commons et ne peuvent être reproduits sans le consentement écrit préalable et exprès de Rice University.


    Notes des auteurs : La magie des moments Minsky

    (Bloomberg) -- Bienvenue dans Authers' Notes, notre club de lecture Bloomberg, où John Authers, rédacteur en chef des marchés, mène des conversations sur de vieux livres qui mettent en lumière les nouveaux développements du marché et de l'économie. Le livre de ce mois-ci est le classique de Hyman P. Minsky, John Maynard Keynes.

    Notre prochain livre sera Anatomy of the Bear : Lessons from Wall Street’s Four Great Bottoms de Russell Napier. C'est un grand travail d'histoire boursière qui s'efforce de savoir s'il existe un moyen de repérer une opportunité d'achat vraiment historique en temps réel. Ramassez-le et rejoignez-nous pour une discussion le mois prochain sur le terminal.

    Vous trouverez ci-dessous une transcription complète des entrées de blog dans l'ordre dans lequel elles ont été initialement publiées.

    Robert J. Barbera, directeur du Johns Hopkins University Center for Financial Economics, se joint à nous aujourd'hui. Voici un extrait de sa biographie :

    Barbera a passé la demi-douzaine d'années à enseigner et à faire de la recherche à Johns Hopkins. Ses recherches portent sur le lien entre finance et macroéconomie. À partir de 1982, il a passé une trentaine d'années en tant qu'économiste à Wall Street, notamment en tant qu'économiste en chef chez Mount Lucas, Investment Technology Group, Lehman Brothers et E.F. Hutton. Au début de sa carrière, il a été économiste pour le sénateur américain Paul Tsongas et pour le Congressional Budget Office.

    Il est titulaire d'un B.A. et Ph.D. de Johns Hopkins, et est l'auteur de The Cost of Capitalism: Understanding Market Mayhem and Stabiliizing Our Economic Future.

    Andrew Dunn Éditeur TOPLive

    Se joignent également à nous aujourd'hui, mon collègue de Bloomberg Opinion, Justin Fox, et notre macro stratège Laura Cooper, qui nous a récemment rejoint de RBC. Les deux sont dans notre bureau de Londres aujourd'hui.

    Justin est un journaliste financier très distingué depuis de nombreuses années, et son opus magnum est Le mythe du marché rationnel.

    En attendant, vous pouvez lire la dernière colonne Macro View de Laura sur la Fed ici. Elle prévient que le risque d'un snapback ne fait qu'augmenter.

    John Authers Rédacteur en chef

    Un rappel sur la procédure : Veuillez suivre la discussion. Si vous avez des commentaires ou des questions, veuillez les envoyer par courriel à l'adresse électronique du club de lecture : [email protected]

    John Authers Rédacteur en chef

    POUR COMMENCER : Bob Prince, qui aide à superviser le plus grand fonds spéculatif au monde chez Bridgewater Associates, affirme que le cycle économique d'expansion et de récession est terminé.

    Le resserrement des banques centrales dans le monde "n'était pas destiné à provoquer le ralentissement, n'était pas destiné à provoquer ce qu'il a fait", a déclaré Prince, co-directeur des investissements de Bridgewater, dans une interview avec Bloomberg TV à Davos. . "Mais je pense que des leçons ont été tirées de cela et je pense que c'était vraiment un marqueur que nous avons probablement vu la fin du cycle boom-bust."

    Andrew Dunn Éditeur TOPLive

    Les commentaires de Bob Prince ont été traités presque universellement avec horreur parmi mes contacts, car ils ressemblent aux mots classiques que nous entendons au sommet d'un cycle de Minsky avant l'accident. N'oubliez pas non plus que Ray Dalio, le fondateur de Bridgewater, est célèbre pour avoir utilisé le cadre de Minsky dans le cadre de son approche de l'investissement.

    Alors, faut-il s'en alarmer ? Qu'est-ce que Minsky entendait exactement par sa propre version d'un cycle d'expansion-récession, et en quoi diffère-t-il des cycles d'expansion-récession qui ont traditionnellement préoccupé les banques centrales ?

    John Authers Rédacteur en chef

    Pour commencer, Dalio et moi sommes pareils en ce sens que nous sommes tous les deux des fans de Minsky. Nous sommes différents de deux manières. Lui, contrairement à moi, a un sens aigu du timing du marché et, contrairement à moi, il a des milliards de dollars.

    Sur la question clé pour nous tous, cependant, je reste ferme. Nous n'avons pas mis fin au cycle Minsky. En effet, la dynamique de base, au fur et à mesure que l'expansion perdure, renforce la confiance dans la poursuite de l'expansion conduit à une augmentation de la prise de risque. Regardez les rendements des obligations de pacotille : 16 % dans le buste 8 % en 2011 6 % à la fin de 2018 dans un contexte de resserrement de la Fed. Maintenant moins de 5%.

    Nous sommes donc passés de prêter aux entreprises à risque en aucun cas à leur prêter à des taux d'intérêt remarquablement bas. Le résultat? Un boom des emprunts des entreprises, une augmentation progressive de l'endettement des entreprises. Et un système financier qui devient plus risqué -- et donc plus susceptible d'une petite déception.

    Robert J. Barbera « Le coût du capitalisme » Auteur

    J'ai donc regardé la vidéo de (Bob) Prince, et je pense que tout ce qu'il disait c'est que les hauts et les bas entraînés par les banques centrales de ces dernières années sont terminés parce que les banques centrales n'ont plus de marge de manœuvre, pas que nous en sommes venus à la fin des cycles d'expansion-récession pour toujours.

    Mais je suppose que c'est une indication d'une certaine complaisance, de ce qu'était Minsky.

    Chroniqueur d'opinion Justin Fox Bloomberg

    Bob Prince a raison. La Fed se retrouve dans une position précaire. Son signal d'une réponse asymétrique à l'inflation a alimenté l'attente d'une intervention pour soutenir les marchés boursiers – l'aléa moral classique. Tout signe de recul pourrait déclencher une forte volatilité du marché. Pourtant, l'expansion des bilans à un rythme insoutenable risque de stimuler des comportements de plus en plus risqués. Ils ne peuvent pas serrer, ils ne peuvent pas relâcher.

    La Fed devra réinitialiser les attentes, ce qui n'est pas une mince affaire. Le cycle expansion-récession est donc en pause.

    Laura Cooper Macro Stratège, Londres

    Laura, je suppose que la question qui en découle est de savoir comment la Fed s'éloigne de l'aléa moral et réinitialise les attentes sans provoquer un moment Minsky dans le processus.

    Le moment classique où les autorités américaines ont tenté de supprimer l'aléa moral est survenu lorsqu'elles ont laissé Lehman Brothers échouer. Cela a conduit au moment Minsky pour mettre fin à tous les moments Minsky, et a augmenté de manière perverse l'aléa moral en rendant évident à tout le monde qu'ils ne pouvaient pas laisser échouer une autre institution.

    Je suppose qu'une façon d'y parvenir serait de procéder par étapes douces – mais c'est ce que Bernanke essayait de réaliser lorsqu'il a parlé de « diminuer » le QE en 2013, et cela a conduit à une célèbre crise de colère du marché.

    John Authers Rédacteur en chef

    Question suivante : Giles Chance, de la Tuck School of Business de Dartmouth, invoque l'héritage de Ben Bernanke. Sa question semble particulièrement pertinente étant donné les commentaires d'hier selon lesquels les banques centrales ont annulé le cycle d'expansion-récession :

    « Un événement monétaire qui a complètement changé le paysage depuis le début des années 2000 est le« Bernanke Put », combiné après 2008 avec le QE – conçu à l’origine bien sûr par« Hélicoptère » Ben.

    « Les économistes auraient soutenu, une fois, que l'élargissement du bilan de la Fed à ce point et l'émission de cette quantité d'argent frais auraient miné le dollar en augmentant l'inflation. Ce n'est pas arrivé. Mais le sera-t-il ? Les forces déflationnistes semblent toujours être à l'œuvre.

    Il demande : « Bernanke a-t-il banni Minsky ? La logique dit non, mais l'expérience semble aller dans l'autre sens.

    John Authers Rédacteur en chef

    « Bernanke a-t-il banni Minsky ? » Encore une fois, on a l'impression que c'est une question de temps. Pour toujours, non. Pendant longtemps, non. Pour les prochaines années, peut-être.

    Je suis en quelque sorte plus intéressé par la question à plus long terme, mais je me rends compte que cela n'aide pas les personnes qui essaient de prendre des décisions d'investissement.

    Chroniqueur d'opinion Justin Fox Bloomberg

    En réponse à Justin, je soupçonne que le problème de synchronisation est une des principales raisons pour lesquelles le cycle de Minsky a tendance à se répéter. S'il y a un crash à un moment indéterminé dans le futur, mais pour le moment, les esprits animaux et l'élan poussent les marchés à la hausse, vous voulez donc continuer à vous empiler sur les marchés.

    Être en avance, comme beaucoup de Wall Streeters vous le diront, n'est qu'une autre façon de se tromper.

    John Authers Rédacteur en chef

    Je suis d'accord, Jean. Il est difficile de lutter contre la dynamique du marché qui est de nature spéculative, et il faudrait un sérieux départ pour que la Fed ne se porte pas à la rescousse si les données se détériorent ou si les actions semblent bancales.

    Du Bernanke-put au Powell-put, il est difficile de ne pas continuer à s'empiler sur les marchés sans un catalyseur en vue.

    Laura Cooper Macro Stratège, Londres

    Passons à la question de savoir exactement ce que les banques centrales (ou d'autres d'ailleurs) devraient faire pour empêcher le terrifiant cycle de Minsky de se frayer un chemin jusqu'à sa conclusion.

    Dec Mullarkey de SLC Management résume ainsi la thèse de Minsky :

    • Une croissance stable encourage une prise de risque accrue
    • Lorsque les investisseurs se lancent dans des paris risqués, de petites perturbations peuvent rapidement déclencher une ruée vers les sorties

    Barbera, dit-il, "indique clairement que les décideurs politiques ignorent la thèse de Minsky depuis des décennies". Il poursuit : « Vous soutenez que la surveillance gouvernementale des marchés peut aider à contrôler les ralentissements mais aussi à contenir les excès. »

    Mullarkey demande : « Quels outils les décideurs politiques pourraient-ils utiliser pour tempérer les bulles d'actifs ? Par exemple, certains gouvernements utilisent des politiques macroprudentielles pour arrêter l'écume des logements.Existe-t-il quelque chose de comparable pour atténuer les bulles d'actifs financiers ? »

    John Authers Rédacteur en chef

    Je crains que cette idée ne soit basée sur quelque chose que Joe Weisenthal de Bloomberg a tweeté il y a quelque temps, peut-être en tant que troll (je l'ai cherché sur Twitter mais je n'ai pas pu le trouver), à propos des va-et-vient constants de Trump sur le commerce étant réellement bon pour l'économie car cela empêche les acteurs du marché de penser qu'ils savent ce qui va se passer ensuite.

    Mullarkey demande quels outils les décideurs politiques peuvent utiliser pour contenir les bulles d'actifs. Peut-être que ce sont de petites erreurs fréquentes et des demi-tours.

    Ou quelque chose comme ça. Cela semble être une suggestion idiote, mais le sentiment répandu qu'Alan Greenspan était un "Maestro" en quelque sorte à l'abri des erreurs était vraiment malsain, donc . au moins c'est différent de ça.

    Chroniqueur d'opinion Justin Fox Bloomberg

    En examinant les boîtes à outils des décideurs politiques pour tempérer les bulles d'actifs, les politiques ex-post ont eu un coût budgétaire élevé (exemple post-GFC), mais il est difficile de mettre en œuvre des politiques ex-ante - mieux vaut prévenir que guérir ! Les normes de capital et de liquidité – ont-elles été efficaces pour accroître la résilience du système financier aux chocs ?

    La question est difficile car elle laisse les décideurs politiques avec l'appel d'une bulle. Facile en théorie - plus difficile pour les investisseurs et les banques centrales jusqu'à ce qu'il éclate.

    Laura Cooper Macro Stratège, Londres

    Les coussins contra-cycliques seraient-ils au moins une réponse partielle ? Dans des moments comme celui-ci, un mécanisme obligerait les banques à disposer d'un coussin de fonds propres plus important, qu'elles le veuillent ou non ?

    Ensuite, il y a la question de savoir s'il existe un moyen d'intervenir directement dans les décisions des entreprises d'une manière qui passe encore à peu près par les spécialistes du libre marché modernes. Dans le dernier chapitre de John Maynard Keynes, Minsky affirme :

    Pour faire mieux, il faut d'abord contraindre la structure de responsabilité des entreprises. Le financement par endettement des investissements et des positions dans le stock de capital devra être régulé, notamment pour les organisations de grande taille.

    Existe-t-il une forme de « réglementation » (par opposition à « l'ordre autoritaire » ou au « plan socialiste ») qui pourrait empêcher les entreprises de s'endetter ou les investisseurs de leur prêter ? Peut-être des exigences de bilan contracycliques pour les entreprises normales et pas seulement pour les banques (qui étaient manifestement la plus grande préoccupation de Minsky) ?

    John Authers Rédacteur en chef

    Une question très perspicace pour Bob de notre magistral collègue Peter Coy de Bloomberg Businessweek :

    « Vous affirmez qu'il est facile de séparer la prescription de Minsky de son diagnostic. En d'autres termes, que quelqu'un puisse croire que la stabilité crée sa propre stabilité sans conclure que l'investissement socialisé est la solution. Mais n'est-ce pas un peu facile ? Minsky, et Keynes lui-même, pensaient que l'investissement socialisé (et non le socialisme à part entière) était plus qu'une préférence politique superflue.

    « En faisant sauter la prescription Minsky/Keynes, n'êtes-vous pas coupable du même péché que les néo-keynésiens, qui n'ont choisi que les morceaux de Keynes qu'ils aimaient ? Pour le dire différemment, n'êtes-vous pas un Schumpeterian en train de monter dans le cycle boom/bust et un Minskyite en train de descendre ? »

    John Authers Rédacteur en chef

    C'est une excellente question. Tout d'abord, Minsky a été assez explicite sur le fait qu'il se sentait sûr de son diagnostic et très hésitant quant à ses prescriptions.

    Mais je ne suis pas d'accord avec le fait que je suis Schumpeter quand il est debout et Minsky quand il est en bas. En effet, c'est précisément ainsi que je caractérise Greenspan.

    Greenspan, à la hausse, a insisté sur le fait qu'il n'avait pas la capacité de "devancer les marchés compte tenu de leur énorme capacité à traiter l'information". Et pourtant, c'est précisément ce qu'il a fait lorsque le marché s'est évanoui - d'où le put Greenspan.

    Je plaide pour une approche symétrique. Lorsque les marchés sont en désordre, vous êtes super facile. Au fur et à mesure que les marchés deviennent mousseux, vous vous appuyez contre la mousse.

    J'ai publié un article universitaire (pouah) qui a modifié la règle de Taylor. Mettez un terme pour le spread obligataire risqué/sans risque. Cet écart a baissé de 50 points de base au cours des 12 derniers mois et il est inférieur à 200 points de base – il était de 350 points de base en 2012. Son niveau actuel est une indication claire d'argent très facile.

    La Fed est censée s'appuyer contre cet argent facile. Mais au lieu de cela, ils sont fascinés par le fait que le déflateur principal du PCE est de 1,65 % au lieu de 2 %.

    De plus, regardez le travail d'Anat Admati. Les banques devraient avoir beaucoup plus de capital - n'envoyez pas ce message à Jamie Dimon.

    Un monde dans lequel la Fed s'appuie contre de tels excès et les banques ont beaucoup plus de capital aura toujours un enthousiasme entrepreneurial et aura toujours une dynamique d'expansion/récession, mais ce sera presque certainement moins que l'état actuel des choses.

    Bref, je ne pense pas que ce soit A ou B, c'est un continuum. Et nous avons basculé vers aucune attention à ces problèmes malgré leurs effets évidents.

    Robert J. Barbera « Le coût du capitalisme » Auteur

    Bob, j'aime votre réponse à Peter Coy, mais cela soulève la question de savoir pourquoi Greenspan et d'autres décideurs politiques ne se sont pas davantage appuyés contre le vent dans les années 1990 et au début des années 2000.

    Une réponse évidente est que cela aurait probablement été politiquement impopulaire. Comme l'a clairement montré la grande biographie de Sebastian Mallaby, Greenspan était extrêmement sensible à ce qui allait voler politiquement. Mais n'importe quel banquier central aura du mal à être dur quand les temps sont bons.

    Chroniqueur d'opinion Justin Fox Bloomberg

    Le redoutable Peter Coy revient à la question posée par Mullarkey :

    Les banques centrales pourraient et devraient utiliser davantage les volants de fonds propres contracycliques. Le problème avec la Fed, c'est qu'il faut resserrer en période de boom, ce qui est politiquement difficile. Il vaut bien mieux placer les tampons très haut, puis les assouplir en cas de ralentissement. C'est politiquement plus attrayant.

    Ça marchera? Ou les lobbyistes bancaires vont-ils inévitablement assouplir les tampons alors que les temps sont encore bons ?

    John Authers Rédacteur en chef

    Que faire, au sens réglementaire, est pour moi une question secondaire. Le premier événement qui doit se produire est que le modèle macroéconomique dominant doit embrasser le fait évident que la finance est le moteur du cycle d'expansion et de récession.

    La Fed nous a dit que l'absence de pressions inflationnistes est suffisante pour maintenir les taux à plat ou à la baisse à l'avenir.

    Réfléchissez à cela. Tous les grands événements cycliques des 30 dernières années sont le résultat d'excès sur les marchés financiers. Et pourtant, la Fed se concentre sur les prix des voitures et les performances pour les salaires.

    Est-ce que j'exagère ? La récession de 1990 a été la débâcle des junk bonds S&L. L'effondrement de 1990 au Japon était un effondrement d'actifs. La contagion asiatique des années 1990 était la finance. La récession de 2000 a été l'éclatement de la bulle technologique. Oh, et puis il y a eu 2008-2009.

    Néanmoins, le modèle macroéconomique dominant indique que l'inflation est le moteur du cycle, et de nombreux experts keynésiens ont fustigé la Fed pour son resserrement, compte tenu de la faible inflation des prix de base.

    À mon avis, la macro dominante est à blâmer. Comment pouvez-vous demander au président de la Fed, Jerome Powell, de rejeter le modèle dominant et de garder un œil sur les prix des actifs, alors que la communauté universitaire nie volontairement la dynamique ?

    Robert J. Barbera « Le coût du capitalisme » Auteur

    Déplaçons la discussion sur la Chine, qui est critique car (a) elle est très grande, (b) elle a beaucoup de dettes et (c) elle est explicitement préoccupée par la possibilité d'un moment Minsky.

    J'ai écrit à ce sujet ici. En particulier, Zhou Xiaochuan, lorsqu'il a quitté ses fonctions de gouverneur de la Banque populaire de Chine en 2017, a déclaré :

    "Si nous sommes trop optimistes lorsque les choses se passent bien, des tensions s'accumulent, ce qui pourrait conduire à une forte correction, ce que nous appelons un" moment Minsky ". C'est contre cela que nous devons particulièrement nous défendre."

    Même William Rhodes, autrefois le fer de lance de nombreuses tentatives de la Citibank pour soulager les pays en cas de crise de la dette, spécule ouvertement que la Chine pourrait faire face à un moment Minsky. C'est terrifiant, mais la Chine n'a pas de système capitaliste orthodoxe comme celui dont parlait Minsky. Peut-il éviter un moment Minsky ?

    John Authers Rédacteur en chef

    La Chine a certainement des niveaux d'endettement fous. Il est difficile d'utiliser le modèle standard de Minsky. Le moment Minsky arrive lorsque les investisseurs décident que les excès sont trop élevés et qu'ils commencent à vendre de la dette.

    D'autres doivent emboîter le pas, et bientôt le système financier lui-même semble suspect. On obtient alors une braderie généralisée des bons et des mauvais actifs, jusqu'à ce que les autorités, malgré leur volonté philosophique de se mettre à l'écart, viennent à la rescousse.

    En Chine, il n'y a pas d'histoire d'amour philosophique avec Adam Smith. Les autorités chinoises ont renfloué les institutions financières à chaque étape du processus au cours des cinq dernières années au moins. De plus, les prêteurs sont obligés de prêter aux entreprises publiques, pour atteindre les objectifs de PIB, même si la construction qu'ils financent n'a aucun sens.

    Cela signifie deux choses pour moi : tant que le gouvernement chinois s'occupera des actifs, le jeu continue. Et le jeu, quand il se terminera, n'en sera que plus laid.

    Sur la question de la croissance suspecte du PIB chinois et de son lien, Yingyao Hu et moi avons rédigé un article, à l'aide de données satellitaires, pour estimer que le revenu national de la Chine est inférieur de 30 % à ce que les données officielles suggèrent. Remarquez que j'ai dit revenu national et non PIB. Nous supposons que les bâtiments ont continué à monter, mais de plus en plus ils sont vides et les lumières ne s'allument pas. Nous avons donc un plan d'amortissement croissant.

    Oui, le PIB a augmenté de 6 %. mais après une dépréciation instantanée de l'actif à moitié vide, les revenus n'ont augmenté que de 4 %.

    Robert J. Barbera « Le coût du capitalisme » Auteur

    Je suis d'accord avec Bob, il y a peu de raisons pour que les autorités chinoises se retirent du jeu. Il peut essayer, mais il est confronté à un équilibre délicat : peut-il contenir une frénésie d'endettement qui a stimulé environ la moitié de la croissance mondiale après la crise tout en continuant à atteindre ses objectifs de croissance ?

    Je suppose que le désendettement passera au second plan alors que le différend commercial entre les États-Unis et la Chine n'est pas résolu et que la croissance est vulnérable.

    L'importance croissante de l'économie chinoise dans la sphère mondiale --

    16% en 2018 - suggère que si/quand un moment Minsky arrive inévitablement, la douleur serait sévère. Mais cela dépasse le domaine des joueurs du jeu pour le moment.

    Laura Cooper Macro Stratège, Londres

    Bruno Momont de Black River Asset Management soulève le problème que les facteurs démographiques peuvent recouper le cycle de Minsky et conduire à des « moments » longs et interminables.

    Le cadre de Minsky basé sur la psychologie humaine ne donne pas d'informations sur la pression sur la viabilité de la dette du secteur public en raison de la démographie si le ratio de dépendance à l'âge devait augmenter tandis que la population en âge de travailler diminue en taille absolue. Ce type de « moment » (s'il n'est pas évité par l'immigration et d'autres politiques) est susceptible de se prolonger sur de nombreuses années, voire des décennies. Cela se traduirait par des changements tectoniques dans la politique entraînés par l'économie politique des changements générationnels du pouvoir électoral.

    John Authers Rédacteur en chef

    Il semble que les cycles de Minsky et les tendances démographiques soient des choses différentes avec des causes différentes et des remèdes différents, et si nous essayons de les considérer ensemble, cela deviendra rapidement trop compliqué à comprendre.

    Mais oui, il se passera probablement des choses intéressantes avec la dette publique dans les prochaines décennies !

    Chroniqueur d'opinion Justin Fox Bloomberg

    Wow, c'est une question remplie de problèmes, une question dans laquelle je chercherais des réponses en dehors de la dynamique cyclique d'expansion / récession de la finance.
    Laissez-moi essayer de déballer les problèmes.

    Premièrement, en ce qui concerne la viabilité de la dette publique, je pense que nous sommes à des kilomètres de cela en tant que problème. L'Italie a peu de croissance économique. Ils sont à nouveau dans une crise politique. Leur ratio dette/PIB est d'environ 135 %. Et leur taux d'emprunt à 10 ans ? 1,25% Le Japon a une dette de 225% et emprunte à 0%. Difficile de voir les États-Unis aussi près d'un point d'inflexion.

    Cela dit, je rejette l'idée du MMT selon laquelle nous pouvons emprunter en toute impunité dans une prochaine administration non Trump. Le problème n'est pas le niveau d'endettement mais les niveaux d'utilisation. Supposons que nous adoptions le Green New Deal et l'assurance-maladie pour tous, et que nous nous engagions à avoir un chargeur électrique dans chaque station-service d'ici 2024.

    Toutes, peut-être, de bonnes idées. Mais le taux de chômage est de 3,5 %, ce qui nécessiterait une croissance de l'emploi quatre fois supérieure au taux actuel. Même si nous construisons des ponts sur le Rio Grande, il est difficile d'imaginer que nous pourrions le faire.

    Concernant le vieillissement de la population, vous pouvez vous tourner vers des types traditionnellement conservateurs, (Bret Stephens du New York Times) : Apportez-nous vos pauvres. L'immigration nette augmenterait votre capacité de croissance.

    Robert J. Barbera « Le coût du capitalisme » Auteur

    Je pense que les facteurs démographiques peuvent aggraver les difficultés à atténuer un moment Minsky. Il suffit de regarder le président de la Fed, Powell, a averti l'année dernière que le budget américain était sur une "voie insoutenable" avec une croissance de la dette supérieure à celle de l'économie. Mais les avertissements sur la dette sont pris dans la foulée, en grande partie hors de la portée des observateurs du marché.

    Seul un tiers du budget fédéral américain est consacré aux dépenses discrétionnaires, la majeure partie des fonds étant consacrée aux dépenses obligatoires de sécurité sociale et de soins de santé. C'est un élément qui devrait augmenter dans le cadre du vieillissement démographique - cela limiterait la capacité d'orienter les dépenses de relance en cas de ralentissement.

    Laura Cooper Macro Stratège, Londres

    L'ancien professeur de droit Jay Weiser soulève la question du fait que le cycle de Minsky est conduit autant par les institutions politiques que par les banques, les banques centrales ou les investisseurs. Les commissaires aux assurances et les régulateurs du logement, par exemple, ont également cédé à la pression écrasante du secteur financier. Les agences de notation aussi. Comme il le dit :

    « Le vrai défi est de savoir comment freiner les élites en quête de rente afin que des exigences de capital réalistes puissent être imposées. »

    John Authers Rédacteur en chef

    Certains de mes bons amis sont des élites à la recherche de rentes.

    Et, bien plus sérieusement, tout cela est d'un seul tenant. Sans ressembler à un Johnny One-Note, nous devons refaçonner le modèle macro traditionnel, avec la finance au centre de la scène. Cela ouvre la voie à une refonte des règles du jeu, à la Fed, parmi les régulateurs et pour les dirigeants d'entreprise.

    Rudi Dornbusch du MIT a déclaré qu'il faut beaucoup plus de temps qu'on ne l'imagine pour mettre fin à une tendance errante. Mais quand cela arrive plus vite que vous n'auriez pu l'imaginer.

    Cela ressemble à une excellente description des problèmes liés au changement climatique.

    C'est quelque chose à garder à l'esprit lorsque l'on pense à la finance.

    et permettez-moi d'être clair. Je suis un grand partisan du diagnostic de Minsky, mais je ne veux pas de révolution.

    Ne pas jette le bébé avec l'eau de bain.

    Robert J. Barbera « Le coût du capitalisme » Auteur

    Weiser a raison de dire qu'il est difficile de maîtriser les élites en quête de rente. Mais il semble important de se rappeler que la solution des années 1980/1990 consistant à faire défaut aux marchés financiers via la déréglementation devait beaucoup aux écrits d'universitaires du choix public sur la capture des régulateurs par des élites en quête de rente.

    Ils ont laissé entendre que la réglementation aggravait presque toujours les choses, et pourtant la déréglementation semble avoir aggravé les choses aussi.

    Chroniqueur d'opinion Justin Fox Bloomberg

    Bien avant Minsky et Keynes, il y avait James Mills, un banquier de Manchester qui présenta un article à la Manchester Statistical Society en 1867 « Sur les cycles de crédit et l'origine des paniques commerciales ». Il avait une taxonomie similaire, sinon aussi bien définie, à la finance spéculative, spéculative et de Ponzi de Minsky (« La période post-panique », « La période intermédiaire ou de renouveau » et « La période spéculative »). Le voici sur ce dernier :

    Dans la période spéculative considérée, la saine confiance qui marquait la période médiane a dégénéré en la maladie d'une foi trop facile. Le seul fait d'un bénéfice apparent est pour le moment tenu pour plein garant d'engagements toujours nouveaux. Et, comme la demande stimule toujours l'offre, les canaux ne manquent alors pas pour l'afflux de cette confiance chacun, bien sûr, un Pactole. Les classes commerciales et d'investissement sont donc soumises à une énorme quantité d'obligations, dont le succès dépend de la seule condition précaire du maintien de l'échelle des prix existante.

    En d'autres termes, l'analyse de base du problème nous accompagne depuis plus de 150 ans. Il y a certainement eu une certaine évolution dans les remèdes proposés.

    Mills a écrit qu'« on peut espérer que les cycles de crédit peuvent être rallongés indéfiniment », et c'est à peu près ce qui s'est passé. Mais y a-t-il des rendements décroissants ici? Dans quelle mesure pouvons-nous vraiment mieux contrôler les cycles qui semblent dériver des aspects fondamentaux de la psychologie humaine ?


    Concepts de Cyborgisation : un essai.

    Dans cet article, je tente de décrire certains des concepts clés dans le domaine de la cyborgisation. Espérons que cela devrait fournir une bonne introduction à tous ceux qui cherchent à approfondir le sujet.

    1. Qu'est-ce qu'une technologie d'amélioration humaine (HET) ?

    Je classe un HET comme tout outil qui améliore considérablement les capacités standard d'un humain. Les exemples actuels vont des smartphones aux stimulateurs cardiaques médicaux. Cependant, les HET peuvent être classés comme des technologies vieilles de milliers d'années, Ranisch & Sorgner (2014) vont jusqu'à expliquer que la première instance d'un HET serait un incendie. Les technologies futures, qui nous intéressent principalement, comprennent les appareils portables, les membres bioniques/prothétiques et les instruments d'amélioration cognitive.

    2. Transhumanisme et posthumanisme

    Au fur et à mesure que nous nous améliorons avec la technologie, la technologie est et devrait devenir de plus en plus augmentée avec notre corps biologique. Si nous examinons la transition de la technologie mobile aux technologies portables et aux futures technologies bioniques potentielles, il est clair que la technologie joue un rôle de plus en plus important dans la façon dont nous interagissons avec le monde. Nous devons nous préoccuper de la question de savoir quand les humains seront-ils en fait post-humains en raison d'un si haut niveau d'augmentation technologique.

    Ou en d'autres termes, quand les humains auront-ils évolué vers une nouvelle espèce en raison de notre augmentation avec la technologie ? Quand aurons-nous évolué vers l'Humain 2.0 (Michalczak, 2012) et ne serons-nous plus Homo sapiens?

    Il existe de nombreux termes utilisés pour décrire les disciplines consacrées à l'étude de la prochaine étape de l'évolution humaine, quelques-uns ont déjà été mentionnés (posthumanisme, humain 2.0, etc.) et il existe des différences subtiles entre chacune de ces écoles de pensée. Pour une analyse plus détaillée des disciplines, on peut se référer à l'article de Ferrando (2013) où il est expliqué que le posthumanisme considère simplement la prochaine étape de l'évolution humaine, cependant, le transhumanisme explique comment nous arrivons à une position posthumaniste avec le développement de la technologie.

    Personnellement, je pense que le transhumanisme est plus important à cet égard.

    Le paradigme du transhumanisme a été introduit par Vita-More dans son Transhuman Arts Manifesto (1984). Développant les principes clés expliqués dans son manifeste (celui du transhumanisme visant à améliorer et à prolonger la vie), Vita-more explique en 2002 que la technologie est un outil clé qui peut en grande partie remplacer les fonctions biologiques à mesure que nous avançons.A la lumière de cela, elle propose la notion de Primo-posthumain (2002). L'idée est une "prothétique corporelle complète théorique et pratique, qui a été développée pour répondre aux questions de la dégradation cellulaire, de la maladie et de la finalité de la mort". Cette idée, bien sûr, est encore très en développement plus de dix ans plus tard, cependant, la théorie qui la sous-tend est très convaincante. Ci-dessous un tableau extrait des travaux de Vita-More mettant en évidence les différences potentielles entre ce que nous appellerions le corps biologique du 20ème siècle et le futur corps du 21ème :

    Le transhumanisme a quelque peu évolué depuis les travaux de Vita-More en 2002 et sa signification moderne est expliquée dans une courte vidéo du British Institute of Posthuman Studies (2013) où même cette institution utilise les affixes trans/post de manière interchangeable.

    Ce clip fait malheureusement partie d'une campagne ratée de Kickstarter.com pour créer une série de courtes vidéos pour expliquer le transhumanisme au grand public, cependant, ce premier clip fait un excellent travail en divisant le paradigme du transhumanisme en trois « supers » principaux. Chacun de ces supers est spécifié pour avoir un « potentiel de transformation extraordinaire ». Les trois supers sont expliqués ci-dessous :

    Super longévité : en d'autres termes, rendre les humains immortels. Bien sûr, la perspective de l'immortalité biologique est extrêmement controversée, cependant, Aubrey De Gray est cité ici dans la vidéo en tant que scientifique clé (ou gérontologue pour être plus précis) dans ce domaine qui a souligné que le vieillissement est le plus grand tueur de personnes dans le monde. Pourquoi n'essayerions-nous pas d'arrêter le plus grand tueur de personnes au monde ? De Gray (2004) explique qu'il est immoral pour nous de ne pas investir dans les technologies anti-âge maintenant et donc de faire le choix de la mort inévitable liée à l'âge au nom de l'avenir.

    Super Intelligence : l'augmentation technologique s'accompagne de capacités cognitives considérablement améliorées. Ce super sera développé dans une section ultérieure concernant la théorie de Kurzweil d'une singularité technologique.

    Super bien-être : ce paradigme a attiré l'attention du public après que David Pearce a publié The Hedonistic Manifesto en 1995. Ce manifeste est d'avis que l'expérience de la douleur est un sous-produit archaïque de la théorie de la sélection naturelle de Darwin. On explique que les voies de la douleur ont évolué pour s'adapter au passé de nos ancêtres et que « leur laideur peut être remplacée par un nouveau système de motivation entièrement basé sur des gradients de bien-être ». En d'autres termes, le système nerveux actuel peut être remplacé par un système technologique amélioré.

    3. Qu'est-ce que la cyborgisation ?

    Avec le transhumanisme examiné, il est évident que ce processus d'évolution humaine vers une nouvelle espèce ne se produira pas du jour au lendemain. L'augmentation technologique n'atteindra pas le stade où nous nous déclarerons soudainement «posthumains», ce qui semble plutôt ridicule. Ce dont nous avons besoin, c'est d'un concept supplémentaire et fluide pour aider à illustrer les processus technologiques modifiant ce que nous concevons comme la vision socialement construite de l'humanité. Cet essai va appeler ce processus Cyborgisation, l'échelle mobile entre l'humain et le cyborg ou « l'organisme cybernétique » (cybernétique signifiant processus mécaniques complétant les fonctions biologiques) ou l'espèce dans laquelle les humains évolueront.

    Le terme Cyborg a été conçu en 1960 par Clynes et Kline (1965) mais est expliqué de manière plus adéquate dans le « Cyborg Manifesto » de Donna Haraway (1991) comme lorsque « deux types de frontières sont simultanément problématiques : 1.) Celle entre les animaux et les humains 2. ) Celui entre des machines auto-contrôlées et auto-gouvernées et des organismes, en particulier humains, des modèles d'autonomie ». Le brouillage des frontières est extrêmement important pour nos besoins ici pour nous aider à comprendre comment la construction de l'humanité s'érode progressivement au fil du temps. Au fur et à mesure que nous augmentons de plus en plus la technologie avec nous-mêmes, remplaçant biologiquement ce qui existait déjà, nous progresserons progressivement vers une nouvelle espèce, que nous appelons à toutes fins utiles Cyborg. Pour illustrer ce concept d'échelle mobile entre les espèces, nous pouvons nous tourner vers une idée originale présentée ci-dessous appelée le continuum humain-cyborg :

    Le diagramme montre une augmentation croissante de la technologie qui va de pair avec des niveaux croissants d'amélioration. Il faut noter que chacune de ces étapes est ouverte à un débat considérable, cependant, le thème général du diagramme ne doit pas être tempéré pour cette raison. Un appareil portable offre les mêmes avantages qu'un smartphone, et plus encore, la plupart du temps. Les membres bioniques promettent de fournir une meilleure utilisation de la forme humanoïde et les progrès médicaux dans les nano-bots et d'autres technologies de ce type pourraient conduire à des améliorations insondables de l'espérance de vie que les humains pourraient finir par utiliser ces technologies pendant des périodes beaucoup plus longues dans une vie productive. La dernière catégorie technologique des technologies de transcendance promet d'amener l'esprit humain à des niveaux d'efficacité inimaginables et peut-être même au-delà de la forme humanoïde, ce qui signifie que les humains ne sont plus limités au processus biologique mais ressemblent davantage à la vitesse de la lumière et aux pouvoirs de traitement des ordinateurs super quantiques.

    4. Implications des technologies transcendantes

    Le point final logique du continuum Humain/Cyborg est le moment où le corps entier peut être remplacé en téléchargeant des esprits sur une machine (Hauskeller, 2012). Cette idée a été dans la science-fiction pendant un certain temps et a attiré l'attention du public avec la croissance du genre Cyberpunk, avec de telles premières œuvres dans ce genre, notamment le livre Neuromancer de William Gibson (1984). Dans la littérature cyberpunk, le corps humain est souvent appelé « viande » (Lupton, 2000) qui peut littéralement être mis de côté une fois que les humains ont la capacité de télécharger leur esprit dans un ordinateur ou dans un soi-disant « monde virtuel ». C'est le processus complet ou partiel d'une personne passant par le processus de téléchargement de son esprit sur un ordinateur que cet essai surnomme Transcendance.

    Le concept de Transcendance a longtemps été décrit en philosophie comme « un passage vers un plan d'existence supérieur » (Piémont, 1999) cette définition fonctionne très bien car les implications de la Transcendance sont insondables. Dennet (1981) décrit une histoire possible où la transcendance est concevable, démontrant ses diverses conséquences concevables :

    La première étape: un cerveau est détaché d'un corps mais peut toujours contrôler le corps à distance.

    Deuxième étape : le corps est détruit.

    Troisième étape : unnouveau corps est maintenant connecté au cerveau. Tout fonctionne normalement, mais maintenant la personne contrôle un nouveau corps.

    Quatrième étape : une copie du cerveau est faite, qui est ensuite téléchargée sur un ordinateur et le cerveau d'origine est ensuite détruit. Le nouveau corps est maintenant contrôlé par le cerveau de l'ordinateur.

    Avec la situation ci-dessus, nous devons nous demander si la personne d'origine existe même maintenant. Bien sûr, il y a de sérieux problèmes d'identité pour une personne qui passe par un processus de transcendance. Supposons que le cerveau d'origine n'a pas été détruit dans l'exemple ci-dessus, puis la conscience dans l'ordinateur (ainsi que la conscience dans le cerveau existant) pensera véritablement qu'il s'agit de la vraie personne, mais bien sûr sans doute la « vraie » personne est toujours le cerveau. Une solution à ce genre de confusion à l'avenir pourrait être, hypothétiquement, de garder l'esprit dans une sorte de « Cryogénie numérique » (ou de congélation numérique) où il n'a pas réellement la capacité de penser - ce ne sont que des données - ce qui conduit alors essentiellement à des fichiers sauvegardés de la personnalité entière d'un individu. Pearson (cité dans Hyland 2014) propose un scénario vraiment incroyable si cela était possible où « quand vous êtes renversé par un bus, cela ne signifie pas que c'est la fin de votre carrière. Vous venez de télécharger votre conscience dans un androïde et vous retournez au travail le lundi après avoir assisté à vos funérailles le dimanche après-midi. Ce genre de chose. Une forme une immortalité numérique.

    Naturellement, il existe d'énormes risques entourant un avenir avec une transcendance généralisée. Les problèmes de sécurité liés à la sauvegarde de vos pensées réelles dans un système informatique externe sont inimaginables. Il y aurait la possibilité que quelqu'un ou quelque chose puisse altérer votre esprit ou simplement le supprimer. Springer (2000) présente également la perspective plutôt sinistre où, lorsqu'un esprit est extérieur au corps, une personne peut non seulement risquer d'être torturée au sens physique, mais aussi au sens mental. Par exemple : les victimes de viol sont capables de se retirer dans leur esprit pour échapper à leurs tourments physiques, de retirer le possible retrait de l'esprit de l'équation, donc le viol de l'esprit aussi bien que du corps, et cela conduit à des cruautés vraiment horribles. De l'autre côté de la médaille, les esprits transcendés peuvent être en mesure de profiter du meilleur sexe imaginable dans le cyberespace (Balsamo, 2000). Non seulement un esprit pourrait peut-être être stimulé de bien d'autres façons par un ordinateur pour le plaisir, mais un amoureux serait également capable de s'immerger complètement dans les pensées de son partenaire et pourrait même être capable de fusionner entièrement la conscience (Hyland, 2014). Si la fusion de la conscience était souhaitable, c'est que…

    Bien sûr, ces idées peuvent sembler extrêmement farfelues, cependant, elles peuvent être plus proches que nous ne le pensions au départ. Scanner une partie du cerveau d'une souris pour inclure tous les détails synaptiques est possible depuis 2010 (Medical News, 2010). De plus, Berger (2013) et une équipe de l'Université de Los Angeles ont récemment proposé de remplacer une partie du cerveau appelée l'hippocampe (qui s'occupe du rappel et de la formation des souvenirs à long terme) par des « systèmes microélectroniques qui imitent le fonctions du circuit biologique d'origine ». L'équipe a ensuite réussi avec cette méthode en laboratoire (Koene, 2014). Essentiellement, une fois que le cerveau humain a été réduit à des données, il ne semble alors pas si difficile que ces données soient ensuite téléchargées sur un ordinateur - un ordinateur qui serait suffisamment puissant pour imiter le cerveau devrait alors être construit par 2017 (Hyland, 2014).

    5. Qu'est-ce que la Singularité Technologique ?

    Pour les non-initiés, nous sommes maintenant arrivés au cœur de cette introduction.

    Dans les années 1960, Moore, l'un des cofondateurs d'IBM a proposé une théorie selon laquelle tous les deux ans, la quantité maximale d'énergie pour une puce informatique doublerait. Il s'agit d'un taux d'amélioration exponentiel qui s'est vérifié depuis qu'il a été proposé. Aujourd'hui, il y a des spéculations quant à savoir si la loi de Moore est une loi naturelle décrivant le taux global de progrès technologique ou si elle est limitée aux puces informatiques, et même si elle sera vraie dans les années à venir. Un graphique concernant la loi de Moore est ci-dessous (Raval, 2014) :

    Comme on peut le voir par la nature mathématique inhérente d'une courbe exponentielle, il pourrait arriver un moment où la courbe est essentiellement verticale avec une quantité illimitée d'avancement technologique dans le plus petit laps de temps au moins d'un point de vue humain (bien sûr la ligne ne sera jamais vraiment vertical d'un point de vue mathématique). Ce moment est appelé la Singularité Technologique. Le futurologue éminent, Ray Kurzweil (2001), prédit que la singularité technologique se produira vers 2045. Kurzweil propose que le taux global de progrès technologique est exponentiel, comme la loi de Moore. Par conséquent, il stipule que "nous ne connaîtrons pas cent ans de progrès au 21e siècle - ce sera plutôt vingt mille ans (au rythme d'aujourd'hui)". Kurzweil va encore plus loin en expliquant que ce rythme d'avancement technologique deviendra si important que les humains ne pourront plus le suivre, nous devrons donc améliorer la fonctionnalité du cerveau en fusionnant avec les machines, et quand cela arrivera, nous aurons atteint la singularité.

    Il y a bien sûr de nombreuses critiques à la théorie de Kurzweil. Modis (2001) a calculé que nous avons en fait atteint le taux de progrès technologique le plus rapide dans les années 1990. Il est parvenu à cette réponse en expliquant que la complexité (qui est déclarée être fortement liée à l'évolution et donc à l'innovation technologique) peut être quantifiée en termes de tournants évolutifs clés ou de « jalons » (comme l'évolution de l'ADN) et que chacun des les jalons correspondaient à une description logistique (pas une description exponentielle) et que les prévisions adaptées à ces jalons créent une fonction logistique globale pour la durée de vie de l'Univers. Modis calcule que nous sommes à peu près à mi-chemin de la durée de vie de l'univers, donc le taux de complexité et donc la vitesse d'évolution commencent à ralentir. En d'autres termes, Modis soutient que l'humanité a déjà atteint son taux d'avancement maximal et que le rythme auquel nous progressons commence maintenant à diminuer, en conflit direct avec Kurzweil, qui prédit que notre taux d'innovation ne fera qu'augmenter.

    Néanmoins, bien que Kurzweil puisse se tromper dans sa prédiction de la date exacte de la Singularité proposée, nous pouvons supposer que des effets similaires à une Singularité potentielle se feront sentir dans le futur. Même si la technologie n'augmente pas de manière linéaire, nous pouvons nous attendre à ce qu'elle continue de progresser, nous pouvons donc au moins nous attendre à expérimenter certaines des avancées technologiques prévues par Kurzweil d'ici 2145, cent ans plus tard que prévu initialement, mais cela pourrait potentiellement se produire pendant la vie des bébés. né pas trop loin de maintenant. Ne devons-nous pas à l'avenir de l'humanité de préparer la singularité ? Ces technologies incluent, mais bien sûr ne se limitent pas à : la cyborgisation (la fusion des humains avec la technologie), l'extension de la vie (avec la perspective de l'immortalité) et l'intelligence artificielle. Chacune de ces technologies à elle seule, en quelques décennies, pourrait avoir des répercussions massives pour l'humanité, encore moins si des percées distinctes étaient réalisées en même temps.

    Une telle période future d'innovation peut être comparée à la révolution industrielle. D'environ 1760 à 1820, il y a eu d'énormes progrès dans la fabrication de produits chimiques, la production de fer et le passage du bois au charbon a entraîné la production de vapeur. Les progrès de ces technologies, combinés, ont influencé tous les aspects de la vie humaine, en particulier dans les pays occidentaux comme le Royaume-Uni. Nous pouvons déjà voir comment les technologies modernes changent la vie moderne avec l'invention d'Internet. Il s'agissait d'une percée clé et d'une application ultérieure dans le domaine de l'informatique, mais que se passera-t-il lorsque des percées tout aussi importantes seront réalisées dans les domaines de la nanotechnologie, de la neurologie et de la biotechnologie ? On peut présumer assez précisément qu'en tant qu'espèce, nous devrions être préparés à de telles éventualités, non seulement pour en tirer pleinement parti, mais aussi pour ne pas les rencontrer aveuglément et en subir des conséquences imprévues.

    En reliant la théorie de la Singularité Technologique au Continuum Humain-Cyborg, nous imaginons que les mêmes technologies sont tracées sur une courbe exponentielle avec le point final étant le moment où la Singularité Technologique pourrait se produire car cette ligne apparaît presque verticale.

    À cet égard, au lieu d'essayer de prédire la toute fin du continuum, lorsque la Singularité Technologique est susceptible de se produire, nous pouvons mesurer nos progrès vers ce point dans le temps avec le moment où nous atteignons chacune des technologies mises en évidence sur le continuum. S'il y a des points sur le continuum qui sont des jalons clés, ou des obstacles, ou même des parties que l'humanité peut traverser extrêmement rapidement, cela sera de la plus haute importance pour prédire et fournir des points de contrôle sur nos progrès vers la Singularité Technologique.

    6. La question de l'inspiration de science-fiction

    Un autre risque lié à la fin du Continuum Humain-Cyborg et des technologies de Transcendance, est les conséquences de personnes préférant en fait rester dans le cyberespace, où elles peuvent façonner le monde comme elles l'entendent, ce qui est évidemment juxtaposé à la réalité du réel. monde.

    L'idée d'un esprit perdu à l'intérieur d'une machine est l'intrigue exacte du film Tron: Legacy. L'intrigue consiste en un PDG d'une grande entreprise technologique qui se perd dans un ordinateur pendant vingt ans. Ce qui l'oblige à passer du temps devant l'ordinateur en premier lieu, c'est le fait même qu'il peut façonner le monde comme il l'entend. Il crée un monde vraiment onirique et se crée même des amis pour l'aider à créer son terrain de jeu (jusqu'à ce qu'un de ces amis se retourne contre lui par la suite l'enferme dans l'ordinateur qui est) (Efthimiou, 2012).

    On ne peut nier ici que nous citons directement ici de la science-fiction, et bien sûr une question raisonnable à poser est : la science-fiction a-t-elle une place dans la discussion factuelle de la science ? C'est l'opinion de cet essai que la science-fiction a un rôle incroyablement important à jouer pour nous aider à prédire et à comprendre les futurs possibles. Comme le dit Anon (2000) : « étudier la science-fiction est tout aussi important pour le futurologue que les prophéties le sont pour l'anthropologue ». Dans cet esprit, après que les humains aient intégré à notre corps tant de technologie, certains pourraient même aller jusqu'à nous appeler des super-héros. Fait intéressant, Detective Comics (DC) a un personnage de super-héros de bande dessinée populaire appelé «Cyborg».

    Compte tenu de tout ce qui a été discuté précédemment, il n'est pas au-delà du domaine de l'imagination que lorsque nous aurons des percées dans les biotechnologies, nous ne pourrons alors envisager de créer ce que nous appelons familièrement des super-héros. Le génome humain a été décodé, ce n'est donc qu'une question de temps avant que nous le comprenions complètement et que nous passions ensuite à la modification de l'ADN. Combien de temps jusqu'à ce que nous soyons capables de créer des gens comme Captain America (quelqu'un optimisé pour les potentiels naturels les plus élevés possibles), The Hulk (quelqu'un qui peut changer sa forme biophysique par des fluctuations émotionnelles) et Wolverine (quelqu'un avec des capacités de guérison rapides et améliorés sens) ? Que se passera-t-il alors lorsque nous aurons un sous-ensemble de la population, qui a alors les capacités surhumaines, et un autre sous-ensemble qui n'en a pas ? Une société si disparate aurait des implications extrêmes.

    Ces implications disparates, entre les « nantis » et les « démunis » est un point clé exploré dans les films X-Men, où la majorité de la société est pétrifiée par l'avènement de « mutants » qui possèdent toute une multitude de pouvoirs surhumains ( y compris le contrôle de la météo, le contrôle du métal et le contrôle de l'esprit humain). Dans ce scénario fictif, les mutants sont nés avec ces pouvoirs, ils ne sont donc pas inventés, cependant, nous pouvons envisager un avenir possible où les gens pourraient se porter volontaires pour ces pouvoirs tandis que d'autres se retiennent. Il existe actuellement de tels arguments concernant l'utilisation de technologies pour les cultures GM, la chirurgie plastique et les avortements.Bien sûr, il y aura encore plus d'opinions polarisées sur la création de super pouvoirs biologiques, ces opinions n'éliminant pas le fait que les perspectives pourraient encore être techniquement réalisables avec quelqu'un dans le monde qui va probablement se donner des super pouvoirs de toute façon (tel est l'intrigue dans de nombreuses bandes dessinées). Cependant, dans ce scénario, contrairement à ceux qui viennent d'être mis en lumière, il s'agit d'une situation où un sous-ensemble de la population a la capacité d'éteindre très facilement les autres.

    On peut soutenir que cette situation s'est déjà concrétisée avec la création de la bombe atomique, bien que ce pouvoir ne soit pas détenu par des individus, mais par des gouvernements. Que se passera-t-il alors lorsqu'un individu aura le pouvoir de créer sa propre bombe atomique ? « Maintenant, je suis devenu la Mort, le destructeur de mondes » (Oppenheimer, 1944) pourrait être prononcé à travers le monde par potentiellement des millions de personnes.

    7. Ingénierie culturelle

    En termes de préparation des personnes en dehors de la technologie, qui ne lisent pas des ouvrages (incroyablement importants) comme celui-ci et qui ne considèrent pas la possibilité représentée dans la science-fiction contemporaine, il est important de se concentrer sur le domaine de l'ingénierie culturelle. Il s'agit d'un terme générique pour la mise en œuvre du marketing, de la politique et de la philosophie en termes de modification du point de vue de la société sur les HET (Wood, 2014). C'est extrêmement important, car la culture de l'humanité déterminera quelles technologies seront développées et si elles seront adoptées. Si la culture de l'humanité n'accepte pas les HET lorsqu'ils deviennent largement disponibles, alors des scénarios où une grande opposition est présentée en vue des HET, une société disparate est susceptible de se développer avec certaines personnes ayant des HET et d'autres non avec la politique gouvernementale sévèrement l'absence de police HETs sont tous des scénarios très probables. C'est pourquoi il est très important pour nous de comprendre les perceptions des gens à l'égard des HET à l'heure actuelle et quelles méthodes d'ingénierie culturelle sont les plus efficaces.

    Dans un sens pratique, les opinions culturelles de la technologie détermineront également, d'un point de vue commercial, quels produits réussissent et lesquels ne le sont pas. Le récent échec du lancement de la technologie portable Google Glass en est un bon exemple. Bien que Google Glass présente d'énormes avantages par rapport aux téléphones mobiles existants, les consommateurs ont été largement réticents à adopter la technologie. Les consommateurs ont souligné les problèmes de confidentialité comme leur principale préoccupation et leur inconfort lors de leur utilisation. Si Google avait effectué des recherches adéquates sur les opinions des gens concernant le port d'un appareil photo et d'un ordinateur devant leurs yeux, ils auraient pu s'attaquer de front à ces divers problèmes mis en évidence dans le développement de leurs produits. Une préoccupation majeure à propos de Google Glass lors de sa sortie était que les gens n'aimaient pas le fait qu'ils ne savaient pas quand quelqu'un les enregistrait ou non. Les gens sont allés jusqu'à qualifier cela de « effrayant » (Pogue, 2014) et même à interdire l'appareil à certains endroits (Gray, 2014). Une simple solution rétrospective aurait été d'ajouter une petite lumière LED pour montrer quand le produit était en train d'enregistrer. Pourquoi une fonctionnalité aussi simple n'a jamais été ajoutée qui aurait vraiment pu sauver le lancement du produit est risible et montre vraiment pourquoi il est si important de comprendre les réactions des consommateurs aux nouveaux produits technologiques.

    En outre, la majorité des nations les plus puissantes du monde sont démocratiques, ce qui signifie qu'elles sont des « gouvernements du peuple ». Par définition, cela signifie alors que la politique gouvernementale reflète le consensus général de la population du pays, dans ce cas, nous nous intéressons particulièrement aux opinions de la population envers les HET et ensuite la politique gouvernementale à ce sujet. L'étude de cas la plus pertinente pour montrer comment la culture et les gouvernements ont influencé l'avancement et l'adoption des technologies est le développement de la fécondation in vitro (FIV) dans les années 1970 et depuis. Au moment de cette recherche pionnière, il y avait beaucoup d'opposition, en particulier de la part des groupes religieux, qui considéraient que le développement de la FIV était moralement répréhensible. S'il n'y avait pas eu la culture présente en Grande-Bretagne à l'époque et l'opinion gouvernementale permettant que le financement soit disponible et que la recherche ne soit potentiellement interdite, alors la FIV n'aurait pas été réalisée quand elle l'a été. De plus, si la culture était différente, la FIV ne serait pas aussi répandue avec près de 50 000 procédures de FIV réalisées au Royaume-Uni rien qu'en 2011 (HFEA, 2011).

    Bien sûr, il y a l'argument selon lequel «la nécessité est l'invention mère» (sans jeu de mots) pour les couples qui ne peuvent pas avoir d'enfants, mais il existe de nombreux autres exemples de gouvernements qui entravent le progrès technologique pour de bonnes ou de mauvaises raisons. Il s'agit notamment des drones à usage commercial et de guerre, des logiciels de séquençage génomique biologique interdits par la FDA des États-Unis (Seife, 2013) et de l'opposition à Google dans l'UE. Cependant, avec une société de plus en plus mondialisée, l'interdiction d'une technologie dans un pays peut entraîner un afflux de tourisme technologique dans un autre. Les principaux exemples en sont le tourisme de fertilité avec des couples de pays résistants à la FIV voyageant dans des pays qui ne le sont pas et le tourisme de drones avec Amazon qui développe actuellement la technologie des drones au Canada au lieu des États-Unis (Pikington, 2015). Il est clair que si la politique gouvernementale n'est pas à jour avec la culture des gens, les gens trouveront toujours des solutions de contournement. Cela signifie que d'un point de vue gouvernemental, les pistes de recherche sur le thème des progrès technologiques toujours croissants seront de la plus haute importance.

    8. Un avertissement sur les technologies futures

    L'ONU a tenu son tout premier débat sur les risques de l'intelligence artificielle en mai 2014 et on peut affirmer que des débats encore plus importants doivent avoir lieu en ce qui concerne les implications des innovations futures. Si l'on en croit des gens comme Richard Seymour (2011, cité dans Scott, 2011), le premier millénaire est déjà né. Peu importe que les robots gagnent en intelligence et si les gens arrêtaient de mourir ? Quelles sont les implications en termes de gestion de la population mondiale ? C'est l'opinion de cet essai que nous sommes actuellement extrêmement mal informés quant aux réponses à de telles questions et qu'il peut y avoir peu de choses plus importantes que d'obtenir des réponses fiables à de telles questions.

    Le pire des cas est que certaines technologies soient créées à l'avenir que nous souhaitons n'aient jamais été découvertes - et encore moins largement disponibles pour la population en général. Bill Joy (le fondateur de Sun microsystems) a écrit un essai fondateur dans le magazine Wired, en 2000, sur ce sujet. Dans cet essai, Joy invente le terme de destruction massive par la connaissance (KMD) en rapport avec les catastrophes potentielles du futur, contrairement aux armes de destruction massive (ADM) d'aujourd'hui. Il décrit le fait que les armes nucléaires, bien qu'elles aient le pouvoir de détruire le monde, ne sont en réalité accessibles qu'à quelques privilégiés et présentent donc un risque relativement faible. Cela contraste avec l'avenir où des technologies puissantes seront disponibles pour tout le monde et donc le risque d'une catastrophe mondiale augmente malheureusement. Nous n'avons pas besoin de chercher plus loin que l'organisation de piratage proactive d'aujourd'hui "Anonymous" pour voir à quel point la technologie d'aujourd'hui est devenue formidable entre les mains d'un petit groupe d'experts réalisant leurs propres agendas personnels.

    Ce que nous ne voulons pas qu'il se produise, c'est que l'humanité tombe dans un piège qu'elle s'est elle-même fabriqué dont nous ne pouvons pas nous échapper. Une théorie clé derrière cette déclaration plutôt dystopique est celle du remplacement progressif. Joy décrit le scénario où nous permettons et facilitons aux machines de prendre de plus en plus de décisions pour nous au fil du temps jusqu'à ce que nous ne prenions aucune décision du tout. Par exemple : en ce moment, nous demandons aux machines les directions les plus efficaces lorsque nous voulons conduire quelque part. Lorsque les voitures autonomes deviennent proéminentes, elles nous emmèneront simplement à notre destination. Ensuite, la prochaine étape consiste pour les machines à recommander et à prédire où nous devrions aller à un certain moment. Ensuite, grâce à des algorithmes avancés, les machines nous emmèneront simplement là où nous voulons mathématiquement être à un tel moment sans même nous soucier de nous assurer que la machine a pris une décision correcte ou non. Lorsqu'un tel scénario se produit, nous avons progressivement remplacé tous les processus décisionnels humains par des décisions machine. En suivant cette ligne de pensée jusqu'à son inéluctable conclusion, nous atteindrons alors un stade où nous aurions à nous demander : que reste-t-il alors à l'homme ? On peut affirmer que confier nos décisions aux machines enlève la puissance de calcul de notre esprit pour nous concentrer sur d'autres choses, cependant, que se passera-t-il lorsque nous inventerons des machines pour prendre des décisions pour chaque décision que nous devrons prendre ? Sur quoi notre esprit devra-t-il alors se concentrer ?

    9. Pourquoi est-ce important ?

    En ramenant cet essai à des pistes de recherche peut-être plus courantes, nous pouvons voir qu'en inventant et en appliquant diverses technologies, sans considération préalable, pourrait avoir des conséquences profondes pour une société mondiale que nous ne pouvons tout simplement pas prévoir. Une énigme difficile à considérer est la suivante : devons-nous dire que c'est assez à certains égards et refuser, en tant qu'espèce, d'innover moins, dans certains domaines de la technologie ? Cela pourrait vraisemblablement atténuer certains risques potentiels futurs. En fait, De Gray (et Vijg 2014) explique qu'un obstacle clé pour atteindre son objectif de prolongation de la durée de vie illimitée n'est pas nécessairement du tout la science, mais la « réglementation excessive de l'industrie » comme un obstacle clé à surmonter. Devrions-nous imposer plus de réglementation sur le travail de De Grey et d'autres technologies connexes si nous les classons comme « à haut risque » ?

    Cette ligne d'action peut avoir des effets positifs, bien sûr, mais elle peut aussi avoir de nombreux effets négatifs. Après tout, comment choisit-on les technologies à réguler ? La modification génétique des humains pourrait potentiellement empêcher des millions de personnes de développer des maladies mortelles (des remèdes contre le cancer à la maladie d'Alzheimer) allons-nous condamner ces personnes malades à mort parce que nous sommes mal à l'aise avec certaines implications de la compréhension plus détaillée de certains domaines de la science ? Tant de technologies d'aujourd'hui sont également étroitement liées, ce qui signifie que l'arrêt d'une technologie aura alors des effets sur les autres. Par exemple : s'il était décidé de restreindre les investissements dans l'informatique parce que l'on pensait que l'IA était une chose trop dangereuse à inventer, une telle action pourrait alors avoir des implications négatives sur d'autres disciplines comme la biologie qui utilise les technologies informatiques pour modéliser diverses expériences .

    Il y a aussi la question de savoir si nous pouvons suivre les mouvements de l'évolution ou si nous voulons prendre le contrôle de notre destin - le fait que nous investissions déjà dans ces technologies et que nous posions même ces questions nous montre sûrement que l'humanité veut avoir le plus de mot à dire sur notre avenir (Baylis et Robert, 2004). Enfin, Oppenheimer (cité dans Joy, 2004), l'une des personnes clés derrière le développement de la bombe à hydrogène, a été cité en 1945 comme déclarant qu'« il n'est pas possible d'être un scientifique à moins de croire que la connaissance du monde, et le pouvoir qu'il donne, est une chose de valeur intrinsèque à l'humanité, et que vous êtes prêt à en assumer les conséquences ».

    10. Conclusion

    En résumé, cette introduction a préparé le terrain pour explorer les réponses à ces questions derrière les risques que la technologie future soit une arme à double tranchant. En effet, il est estimé que les répercussions de l'invention des technologies sur la population mondiale n'ont actuellement pas été entièrement étudiées et que de nombreux faits importants restent cachés.

    Ces questions sont fortement liées à la recherche des pensées de la population en général. En effet, en fin de compte, c'est aux gouvernements, qui à leur tour sont élus par le peuple (dans la majorité des sociétés les plus scientifiquement avancées du monde) qui décidera si certaines recherches scientifiques doivent aller de l'avant ou ne pas. En mesurant l'opinion publique sur ces technologies maintenant, peut aider à informer les gouvernements sur la future politique qui représente leur population et à son tour comment les entreprises peuvent élaborer des stratégies pour l'avenir en ce qui concerne les besoins et les souhaits de leurs futurs clients potentiels. Ce sera également très important pour les entreprises, car il fournira des informations clés en ce qui concerne la perception du public des futurs produits technologiques qui pourraient être actuellement en préparation dans les grands centres de R&D du monde entier. Enfin, en tentant de répondre à certaines, sinon à toutes ces questions, un modèle de prédiction du moment où une Singularité Technologique pourrait avoir lieu en utilisant le Continuum Humain-Cyborg devrait être analysé. On peut dire que l'on ne peut préparer comment faire face à un événement qu'avec une indication approximative du moment où l'événement peut réellement se produire.

    Bibliographie

    Clynes, M E. et Kline, N S. (1965) Dans : Gray, CH. (1995) Le manuel du cyborg Londres : Routledge. Ch.1.2

    Balsamo, A. (2000) Dans : Bell, D. et Kennedy, B M. (2000) Le lecteur de cybercultures Londres : Routledge. Ch.31

    Baylis, F et Robert, J S. (2004) L'inévitabilité des technologies d'amélioration génétique Dans: Bioéthique 18(1) p. 1467–8519.

    British Institute of Posthuman Studies (2013) [vidéo en ligne] Posthumain : une introduction au transhumanisme Sur : https://www.youtube.com/watch?v=bTMS9y8OVuY (consulté le 23.11.2014).

    Efthimiou, O. (2012) Rêver le posthumain dans le cyberespace : la guerre des mondes et le retour de l'un/réel dans Tron l'héritage. DEd. Université CQ. À : https://www.academia.edu/7765906/Dreaming_the_Posthuman_in_Cyberspace_War_of_the_Worlds_and_the_Return_of_the_Un_Real_in_Tron_Legacy (Consulté le 23.11.2014).

    Dennet, D. (1981) Où suis-je? Dans: Remue-méninges : Essais philosophiques sur l'esprit et la psychologie Cambridge : MIT Press. p. 310-323.

    Ferrando, F. (2013) Posthumanisme, transhumanisme, antihumanisme, métahumanisme et nouveaux matérialismes : différences et relations Dans: Une revue internationale sur la philosophie, la religion, la politique et les arts 8(2) p. 26-32.

    Gris R. (2013) Les endroits où Google Glass est interdit Sur : http://www.telegraph.co.uk/technology/google/10494231/The-places-where-Google-Glass-is-banned.html (consulté le 23.02.2015).

    Harraway, D. (1991) Dans : Bell, D. et Kennedy, B M. (2000) Le lecteur de cybercultures Londres : Routledge. Ch.18

    Hauskeller, M. (2012) Mon cerveau, mon esprit et moi : quelques hypothèses philosophiques sur le téléchargement de l'esprit Dans: Journal international de la conscience des machines 4(1)

    Hyland, S. (2014) L'immortalité numérique pour les nuls : les implications du cyborg Sur : https://www.academia.edu/8160271/Digital_Immortality_for_Dummies_Implications_of_the_Cyborg (consulté le 23.11.2014).

    Koene, R. (1991) Dans : Blackford, R.. et Broderick, D. (2014) Intelligence Unbound : L'avenir des esprits téléversés et des machines Wiley : Londres. Ch.5

    Kurweil, R. (2001) La loi des rendements accélérés Sur : http://www.kurzweilai.net/the-law-of-accelerating-returns (consulté le 23.11.2014).

    Lupton, D. (2000) Dans : Bell, D. et Kennedy, B M. (2000) Le lecteur de cybercultures Londres : Routledge. Ch.30

    Actualités médicales. (2010) Une nouvelle méthode d'imagerie développée à Stanford révèle des détails étonnants sur les connexions cérébrales Sur : http://www.medicaldaily.com/new-imaging-method-development-stanford-reveals-stunning-details-brain-connections-234704 (consulté le 26.11.2014).

    Michalczak, R. (2012) Transhumain et posthumain — sur la pertinence de la « cyborgisation » sur les questions juridiques et éthiques Sur : https://www.academia.edu/1966557/Transhuman_and_posthuman_on_relevan ce_of_cyborgisation_on_legal_and_ethical_issues (consulté le 23.11.2014).

    Modis, T. (2001) Anticiper la croissance de la complexité et du hasard Dans: Prévision technologique et changement social 69 (2002) p. 377-404.

    Pearce, D. (1995) Le manifeste hédoniste Sur : http://www.hedweb.com/hedethic/hedonist.htm (Consulté le 23.11.2014).

    Pilkington, E. (2015) Amazon teste des drones de livraison dans un endroit secret au Canada après les frustrations américaines Sur : http://www.theguardian.com/technology/2015/mar/30/amazon-tests-drones-secret-site-canada-us-faa (consulté le 30.03.2015).

    HFEA (2011) Derniers chiffres de la FIV : 2010 et 2011 Sur : http://www.hfea.gov.uk/ivf-figures-2006.html#1278 (consulté le 23.03.2014).

    Hyland, S. (2014) L'immortalité numérique pour les nuls : les implications du cyborg Sur : https://www.academia.edu/8160271/Digital_Immortality_for_Dummies_Implications_of_the_Cyborg (consulté le 23.11.2014).

    Piémont, R. (2001) La spiritualité représente-t-elle le sixième facteur de la personnalité ? La transcendance spirituelle et le modèle à cinq facteurs Dans: Journal de la personnalité 67(6) p. 985-1013.

    Pogue, D. (2014) Pouvez-vous dire quand Google Glass vous enregistre ? À : https://www.yahoo.com/tech/google-glass-may-be-a-tour-de-force-of-85928075994.html (consulté le 23.02.2015).

    Ranisch, R. et Lorenz, S. (2014) Post- et transhumanisme : une introduction (Au-delà de l'humanisme : trans- et posthumanisme. Peter Lang : Gutenburg.

    Scott, K. (2011) La première personne à vivre depuis 1 000 ans est probablement déjà en vie Sur : http://www.wired.co.uk/news/archive/2011-10/13/richard-seymour (consulté le 23.11.2014).

    Seife, C. (2013) 23andMe est terrifiant, mais pas pour les raisons auxquelles la FDA pense : http://www.scientificamerican.com/article/23andme-is-terrifying-but-not-for-reasons-fda/ ( Consulté le 23.11.2014).

    Springer, C. (2000) Dans : Bell, D. et Kennedy, B M. (2000) Le lecteur de cybercultures Londres : Routledge. Ch.30

    Transcendance (2014) Réalisé par Wally Pfister. [DVD] États-Unis : Alcon Entertainment.

    Vijg, J et De Grey, A. (2014) Innover le vieillissement : promesses et écueils sur le chemin de la prolongation de la vie Dans: Gérontologie 60 p. 373-380.


    Intégration des deux cadres

    Les deux cadres considérés ici, à savoir le SBT et le FEP, sont issus de traditions théoriques et empiriques différentes et paraissent bien distincts à première vue. Le SBT suggère que la relation sociale est la condition par défaut que le cerveau attend de l'organisme, tandis que le FEP semble décrire la constitution de la condition humaine comme se rapportant principalement à l'individu singulier et à son corps. Néanmoins, à y regarder de plus près, on peut voir comment une intégration théorique des deux perspectives est non seulement possible, mais elle peut en outre générer des informations précieuses pour les deux cadres, ainsi que pour le sujet à l'étude, à savoir l'importance de l'empathie et soutien social pour la santé mentale et physique et les maladies.

    Plus précisément, l'affirmation du SBT selon laquelle la proximité immédiate des ressources sociales est l'hypothèse de base du cerveau humain peut également être conceptualisée comme suit : du point de vue de la FEP, on pourrait soutenir qu'à un niveau relativement élevé de la hiérarchie neurocognitive, les humains ont la prédiction dont ils ont besoin pour maintenir la proximité avec l'aidant. Cette prédiction, ou hypothèse préalable dans la terminologie bayésienne, est déterminée phylogénétiquement par le fait que les humains sont nés à une longue période de dépendance complète des autres pour leur survie. Cet a priori doit également être déterminé ontogénétiquement dans le sens où l'histoire particulière d'une telle dépendance et l'environnement parental et social dans lequel chaque individu grandit devraient influencer le contenu particulier de ces a priori. Par exemple, comme mentionné ci-dessus et conformément aux principes de la théorie de l'attachement, une personne qui a grandi avec des soignants attentionnés et disponibles peut être plus susceptible d'attendre et d'accepter l'empathie et le soutien des autres que quelqu'un qui a été élevé par des parents indisponibles ou peu fiables.

    Dans le SBT, il s'ensuit que l'autorégulation peut nécessiter des ressources supplémentaires par rapport à la régulation sociale, car dans le cas de la première, le cerveau ne peut pas compter sur les ressources sociales pour réaliser les fonctions de régulation requises, par exemple, protéger l'organisme des menaces environnementales. Cette affirmation est tout à fait compatible avec les prédictions de la FEP, mais elle ne constitue qu'une facette des phénomènes sociaux plus complexes que cette théorie peut expliquer. Concrètement, du point de vue de la FEP, la nécessité de s'autoréguler entraînerait en effet des niveaux d'erreur de prédiction plus importants qu'il faudrait minimiser (énergie libre ou surprise dans la terminologie de cette théorie) dans les niveaux hiérarchiques inférieurs, en raison de la l'attente fondamentale (de niveau supérieur) susmentionnée d'attachement social et de proximité. Cependant, le FEP présuppose également un conflit plus général entre de telles attentes sociales et d'autres motivations égoïstes. Par exemple, la proximité sociale nécessite également une compétition pour les ressources homéostatiques de base et comporte le risque d'agression sociale, d'attaque ou d'intrusion (même par des activités d'affiliation prosociales telles que la naissance ou le sexe). Ainsi, à toute interaction donnée, l'organisme doit équilibrer le besoin de proximité sociale avec les besoins de stabilité homéostatique et d'intégrité corporelle. Selon la FEP, la résolution de tels conflits repose sur des fonctions neuromodulatrices (pondération, voir ci-dessus) et des chimies correspondantes, par exemple, des neurotransmetteurs tels que la dopamine et des neuropeptides tels que l'ocytocine (Fotopoulou, 2013 Krahé et al., 2013 Quattrocki et Friston, 2014). Dans le cas des douleurs de l'accouchement, par exemple, la libération d'ocytocine semble agir pour augmenter la précision des prédictions prosociales sur l'importance de la maternité et ainsi réduire la précision des erreurs de prédiction concernant l'expérience douloureuse et menaçante de l'accouchement (voir aussi Krah& #x000E9 et al., 2013).

    Plus généralement, la FEP présuppose un conflit de base entre perception et action qui s'applique également aux phénomènes sociaux. L'organisme pourrait facilement résoudre toutes les divergences entre la prédiction et l'erreur (par exemple, les états de faim) en modifiant simplement ses prédictions (se convaincre qu'on n'a pas besoin de nourriture) et ainsi en évitant d'agir (en réduisant activement les erreurs de prédiction). Cela entraînerait bien sûr un danger homéostatique afin que l'organisme résolve le conflit en atténuant (sous-pondérant) les erreurs de prédiction sensorielle ascendantes des actions auto-générées pour permettre aux prédictions descendantes d'être remplies par les réflexes périphériques et autonomes. Cette interprétation correspond au phénomène bien établi d'atténuation sensorielle, l'observation que les conséquences sensorielles des actions auto-générées sont perçues comme moins intenses. Ce phénomène a été illustré de manière influente par la confirmation expérimentale de la connaissance intuitive qu'on ne peut pas se chatouiller (Weiskrantz et al., 1971). Fait intéressant, l'atténuation sensorielle est associée à la capacité de discriminer entre soi et l'autre. Dans le domaine de l'empathie et du soutien social, la distinction entre soi et l'autre est presque aussi importante que le sentiment d'attachement et de connexion sociale (Decety et Lamm, 2007 Silani et al., 2013). Par exemple, lorsqu'une personne souffrante reçoit un soutien social actif de la part de son partenaire, ou la perçoit comme empathique, percevant le partenaire lui-même comme étant "inquiet" ou comme devant nécessairement agir pour le compte de la victime (c'est-à-dire qu'il ne fait pas suffisamment la différence entre soi et l'autre), a été noté comme entraînant une perception accrue de la douleur (Hurter et al., 2014), une diminution du sentiment d'auto-efficacité et de mauvais résultats cliniques à long terme dans le cas de la douleur chronique (voir Krahé et al., 2013 pour une revue). En d'autres termes, le FEP peut expliquer pourquoi le recours aux ressources d'autres personnes peut dans certaines situations entraîner des distorsions de perception (au lieu d'actions d'autoprotection appropriées) qui ne sont pas bénéfiques pour la santé.

    En résumé, bien que les deux cadres soient hautement compatibles, le FEP a une portée plus large, tenant compte à la fois des effets positifs et négatifs du soutien social et de l'empathie.


    Fascia, Function, and Medical Applications (Anglais) Broché – 9 septembre 2020

    David Lesondak, BCSI, ATSI, FST, VMT, FFT est membre des services paramédicaux du Département de médecine familiale et communautaire du Centre médical de l'Université de Pittsburgh (UPMC). Il est l'auteur du best-seller international, actuellement en neuf langues, Fascia : qu'est-ce que c'est et pourquoi c'est important (Puissance). Il a également contribué à la 2e édition de Thérapies métaboliques en orthopédie (CRC Presse).

    Il a passé 10 ans en tant que «documentaliste en chef» du groupe de recherche sur le fascia à l'université d'Ulm, en Allemagne, où il a produit plus de 80 vidéos éducatives couvrant tout le spectre de la recherche sur le fascia. Il a fourni des services similaires au Fascia Research Congress en 2012 et a réalisé et coproduit Trains d'anatomie révélés, un ensemble de trois DVD, un ensemble de médias hérités, qui fait passer le concept des méridiens myofasciaux de Thomas Myers de la page à l'exploration en temps réel dans le laboratoire d'anatomie.

    La passion de David pour la science du fascia ainsi que ses excellentes compétences en communication transparaissent toujours, qu'il donne des conférences à l'étranger, travaille avec un traducteur, enseigne un atelier, dirige un webinaire ou donne une interview en podcast. Parmi les apparitions les plus notables de David, citons : le Fascia Research Congress, le Consortium académique de médecine intégrative et de santé, l'Université de Floride, l'Université du Maryland, l'Université de l'Arizona, le programme Fascia Summer School de l'Université d'Ulm, le Philadelphia 76ers STTAR Summit, le British Fascia Symposium, l'Australian Fascia Symposium, ainsi que des ateliers pratiques parrainés par le secteur privé aux Pays-Bas, en Corée du Sud et en France.

    Pourtant, sa plus grande joie reste de travailler en tête-à-tête avec les patients du Centre de médecine intégrative de l'UPMC, où il est le spécialiste résident des fascias et l'intégrateur structurel certifié par le conseil d'administration. Il se concentre sur l'aide aux personnes souffrant de douleur chronique, l'amélioration des performances physiques (en particulier après une blessure) et la gestion des problèmes post-chirurgicaux de toutes sortes.

    David est également un auteur-compositeur passionné qui joue de la guitare et étudie le chant.

    Dr Angeli Maun Akey, MD, FACP, ABIHM, ABOIM, ABAARM est certifiée en médecine interne, médecine intégrative et holistique, médecine régénérative anti-âge et a suivi une formation complémentaire en médecine fonctionnelle. En pratique clinique depuis plus de 30 ans, elle est la directrice médicale fondatrice de North Florida Integrative Medicine, Ageless Medical Solutions et du Palm Beach Institute of Preventive Medicine. Ses intérêts pour d'autres traditions de guérison l'ont amenée à enseigner à la Florida School of Acupuncture and Oriental Medicine. Actuellement, elle se spécialise dans la détection précoce, le retard et l'inversion des maladies chroniques.

    L'expérience de premier cycle du Dr Akey s'est déroulée à l'Université de Floride (UF), où elle a reçu six bourses universitaires et une bourse de musique de performance vocale. Elle est diplômée de Phi Beta Kappa et est membre du UF Hall of Fame. Il convient également de noter qu'elle était la plus jeune personne jamais admise au Collège de médecine de l'Université de Floride dans le cadre du programme médical junior spécialisé, où elle a été acceptée à Alpha Omega Alpha et a obtenu son diplôme avec les plus grands honneurs. La Dre Akey a fait sa résidence en médecine interne, a été résidente en chef et a enseigné comme professeure adjointe de clinique à l'Université de Yale.


    Why We Get Sick: The Hidden Epidemic at the Root of Most Chronic Disease―and How to Fight It (Anglais) Relié – 1 novembre 2020

    "Ce livre est une contribution unique et rigoureuse à la compréhension de la résistance à l'insuline en tant que cause sous-jacente des maladies chroniques et du vieillissement. Bien écrit et très accessible, le Dr Bikman a écrit un livre pour les scientifiques et le lecteur moyen qui cherche un chemin vers le bon santé."

    --Nina Teicholz, journaliste scientifique et New York Times auteur à succès de La grosse surprise

    « Il est temps d'intégrer la « résistance à l'insuline » dans le lexique public. Que tant de gens ne soient pas conscients de cette maladie répandue avec de graves ramifications est un problème monumental, et c'est un problème qui Pourquoi nous tombons malades se propose de résoudre."

    --Dr. Aseem Malhotra, cardiologue et professeur de médecine factuelle

    "Soigneusement recherché et abondamment documenté, Pourquoi nous tombons malades est une introduction complète et indispensable sur la résistance à l'insuline et comment elle affecte pratiquement tous les systèmes du corps. Le Dr Bikman présente non seulement un guide facile à comprendre sur comment et pourquoi la résistance à l'insuline se développe, mais aussi un manuel de traitement. "

    --Michael R. Eades, MD, New York Times co-auteur à succès de Puissance des protéines

    « La résistance à l'insuline sous-tend presque toutes les maladies chroniques avec lesquelles nous luttons aujourd'hui et nous coûte finalement d'innombrables milliards de dollars en dépenses de santé, ainsi qu'une quantité incalculable de souffrances humaines. Le professeur Ben Bikman explique magistralement le rôle de la résistance à l'insuline dans maladie, comment elle affecte notre corps et, plus important, comment y remédier !"

    --Shawn Baker, MD, auteur de Le régime carnivore et PDG de MeatRx.com

    "Le résumé de Bikman sur la science du métabolisme humain plaide en faveur de la résistance à l'insuline en tant qu'ennemi de la santé publique n ° 1. Que le lecteur soit intéressé par la perte de graisse corporelle en excès, l'optimisation de la fonction cérébrale, la prévention des maladies cardiaques, la réduction du risque de cancer ou l'amélioration de la fertilité -- cette curation experte de la recherche ne néglige aucun effort."

    --Georgia Ede, MD, psychiatre nutritionnelle

    A propos de l'auteur

    Benjamin Bikman a obtenu son doctorat en bioénergétique et a été boursier postdoctoral à la Duke-National University of Singapore pour étudier les troubles métaboliques. Actuellement, son objectif professionnel en tant que scientifique et professeur (Université Brigham Young) est de mieux comprendre les origines et les conséquences des troubles métaboliques, y compris l'obésité et le diabète, avec un accent particulier sur le rôle de l'insuline. Il publie fréquemment ses recherches dans des revues à comité de lecture et présente lors de réunions scientifiques et publiques internationales.


    Voir la vidéo: Hyvät on systeemit. Mitä mm. seuraa raudan ja tiamiinin B1 puutoksista??? (Décembre 2021).