Informations

Pourquoi la composition macromoléculaire d'une cellule humaine est-elle apparemment difficile à trouver ?


J'essaie de trouver un rendu 3D ou une liste de molécules en volume dans une cellule (à l'origine je cherchais un humain, mais je vais en prendre n'importe lequel à ce stade !). Je comprends le caractère ouvert de la question : quel type de cellule ? Pendant quelle phase ? Sous quelles conditions? etc.

Ce que je recherche, si une telle chose existe, est une liste aussi précise que possible des structures/particules/macromolécules/ions/etc en volume dans le protoplasme.

"À l'intérieur d'une cellule vivante" de DS Goodsell est un pas dans la bonne direction mais il a près de 20 ans à ce stade.

"Diffusion, encombrement et stabilité des protéines dans un modèle moléculaire dynamique du cytoplasme bactérien" est un autre pas dans la bonne direction.

Tout ce qui concerne cette requête serait apprécié!

Merci pour ton aide!


Les différentes données relatives aux dimensions et volumes des structuresorganellesmacromolécules et cellules elles-mêmes pourraient être obtenues auprès de BioNumbers. Par exemple, veuillez consulter dans le tableau ci-dessous les informations sur les volumes de COS-7 (tissu de rein de singe) :

Les détails peuvent être obtenus sur Appliquer l'imagerie et l'analyse spectrales au niveau des systèmes pour révéler l'interactome des organites, par Valm A.M. et al


La séparation de phases viscoélastique, l'encombrement macromoléculaire et la physique colloïdale peuvent-ils expliquer l'organisation nucléaire ?

Le noyau cellulaire est fortement compartimenté avec des domaines bien définis, on ne comprend pas bien comment cet ordre nucléaire est maintenu. De nombreux scientifiques sont fascinés par les différents ensembles de structures observées dans le noyau pour leur attribuer des fonctions. Afin de distinguer les compartiments fonctionnels des agrégats non fonctionnels, je pense qu'il est important d'étudier la nature biophysique de l'organisation nucléaire.

Résultats

Les différents compartiments nucléaires peuvent être divisés en gros en tant que base de chromatine ou de protéine et/ou d'ARN, et ils ont des propriétés dynamiques très différentes. Le compartiment de la chromatine présente un mouvement de diffusion lent et contraint. En revanche, le compartiment protéine/ARN est très dynamique. Les systèmes physiques avec asymétrie dynamique vont à la séparation de phases viscoélastique. Ce phénomène de séparation de phases conduit à la formation d'un réseau d'interaction à longue durée de vie de composants lents (chromatine) dispersés au sein de domaines riches en composants rapides (protéine/ARN). De plus, le noyau est bourré de macromolécules de l'ordre de 300 mg/ml. Cette forte concentration de macromolécules produit des effets d'exclusion volumique qui renforcent les interactions attractives entre les macromolécules, connues sous le nom d'encombrement macromoléculaire, qui favorise la formation de compartiments. Dans cet article, j'émets l'hypothèse que la compartimentation nucléaire peut être expliquée par la séparation de phases viscoélastique des composants nucléaires dynamiquement différents, en combinaison avec l'encombrement macromoléculaire et les propriétés des particules colloïdales.

Conclusion

Je démontre que la structure nucléaire peut satisfaire les prédictions de cette hypothèse. Je discute des implications fonctionnelles de ce phénomène.

La cellule existe dans un environnement surpeuplé d'organites, de macromolécules, de chromatine, de membranes et de filaments du cytosquelette. La cellule n'est cependant pas simplement une soupe de ses éléments constitutifs, il existe plutôt une structure ordonnée appelée compartimentation. Le maintien de la compartimentation au sein de la cellule a des implications fondamentales pour la fonction cellulaire. Dans le cytoplasme, la compartimentation est généralement réalisée en confinant des macromolécules dans des membranes lipidiques, créant ainsi des organites tels que des mitochondries, des lysosomes, un appareil de Golgi, etc. Cependant, même les régions cytoplasmiques non divisées par des membranes peuvent présenter des différences locales de composition. Au sein du noyau, il existe également de nombreuses structures distinctes telles que le nucléole, les amas de granules interchromatiques (IGC), l'hétérochromatine et divers corps tels que : Cajal, PML, SMN. La compartimentation nucléaire existe sans aucune division membraneuse. Des questions clés telles que la manière dont la compartimentation nucléaire est réalisée et pourquoi elle existe, restent toujours sans réponse. Dans un article fondateur, Tom Misteli a proposé l'auto-organisation comme explication de l'existence de la compartimentation nucléaire [1], mais la base moléculaire de l'auto-organisation des structures nucléaires n'est pas entièrement comprise. Un autre phénomène impliqué dans la formation du compartiment nucléaire est l'encombrement macromoléculaire, cependant, cela n'explique que l'existence de certaines des structures nucléaires [2], mais n'est pas suffisant pour expliquer les différentes structures trouvées dans le noyau cellulaire. Plusieurs modèles ont été proposés pour expliquer l'organisation tridimensionnelle de la chromatine, de la modélisation de la chromatine sous forme de boules reliées par des ressorts [3–5] aux boucles de chromatine sous forme de tubes semi-flexibles (auto-évitants) [6]. Tous ces modèles sont très simplistes, tendant à se concentrer sur la chromatine en tant qu'entité indépendante flottant dans un tampon idéal. Aucune considération n'est accordée aux propriétés physiques des composants nucléaires et à leurs conséquences pour la structure nucléaire. La principale pierre d'achoppement à ce jour est qu'aucun modèle ne peut pleinement rendre compte de la diversité des structures nucléaires observées. Les progrès récents de la biophysique nous ont fourni des informations précieuses et nous ont permis de comprendre l'organisation cellulaire. Dans cet article, j'explore une explication biophysique de la compartimentation au sein du noyau cellulaire.


Une nouvelle technique d'imagerie révèle une « explosion » d'activité avant la mort cellulaire

Étudier le mouvement de minuscules cellules n'est pas une mince tâche. Pour la chromatine, le groupe de macromolécules d'ADN, d'ARN et de protéines emballées dans notre génome, le mouvement fait partie intégrante de son rôle actif en tant que régulateur de la façon dont nos gènes sont exprimés ou réprimés.

« Comprendre le mouvement macromoléculaire est essentiel, mais les scientifiques en savent très peu à ce sujet », a déclaré Vadim Backman, professeur Walter Dill Scott de génie biomédical à la Northwestern University. "Une partie de la raison est que nous manquons de techniques instrumentales pour observer ces processus."

Aujourd'hui, une équipe de recherche de la McCormick School of Engineering dirigée par Backman a développé une nouvelle technique optique pour étudier le mouvement des cellules sans utiliser d'étiquettes ou de colorants pour les suivre. La méthode innovante a également révélé un phénomène non découvert qui pourrait jouer un rôle dans les premiers stades de la mort cellulaire.

Les conclusions de l'équipe ont été publiées le 10 avril dans la revue Communication Nature. L'article s'intitule « L'imagerie multimodale basée sur les interférences de la structure à l'échelle nanométrique et du mouvement macromoléculaire découvre le paroxysme cellulaire induit par les UV ».

Alors que les scientifiques peuvent actuellement suivre le mouvement des cellules à l'aide de colorants ou d'étiquettes moléculaires, cette pratique a ses limites. Les colorants sont toxiques et modifient le comportement des cellules avant, éventuellement, de les tuer. Les marqueurs sont attachés aux cellules, peuvent être toxiques ou entraîner un photoblanchiment et peuvent alerter le mouvement des molécules mêmes qu'ils marquent.

La nouvelle technique, appelée dual-PWS, est sans étiquette et peut imager et mesurer le mouvement macromoléculaire sans utiliser de colorants. S'appuyant sur une technique d'imagerie quantitative précédemment créée par Backman appelée spectroscopie à ondes partielles (PWS), la plate-forme utilise les interférences et les changements de modèle de la lumière rétrodiffusée pour surveiller à la fois la structure macromoléculaire des cellules ainsi que leur mouvement dynamique.

"Des processus critiques tels que la transcription d'un gène ou la réparation de protéines endommagées nécessitent le mouvement simultané de nombreuses molécules dans un environnement complexe et très dense", a déclaré Scott Gladstein, Ph.D. étudiant au laboratoire de Backman et premier auteur de l'étude. "En tant que plate-forme d'imagerie capable de mesurer à la fois la structure intracellulaire et la dynamique macromoléculaire dans les cellules vivantes avec une sensibilité à des structures aussi petites que 20 nm avec une résolution temporelle en millisecondes, le dual-PWS est particulièrement bien adapté pour nous permettre d'étudier ces processus. "

Les chercheurs ont appliqué le dual-PWS en étudiant les changements structurels et dynamiques à l'échelle nanométrique de la chromatine dans les cellules eucaryotes in vitro. En utilisant la lumière ultraviolette pour induire la mort cellulaire, l'équipe a mesuré comment le mouvement de la chromatine des cellules était modifié.

"Il est logique que lorsque les cellules sont sur le point de mourir, leur dynamique diminue", a déclaré Backman. "Le mouvement de facilitation qui existe dans les cellules vivantes pour aider à exprimer les gènes et à modifier leur expression en réponse aux stimuli disparaît. Nous nous y attendions."

Ce à quoi les chercheurs ne s'attendaient pas, c'était d'assister à un phénomène biologique pour la première fois. Une cellule atteint un "point de non-retour" pendant la décroissance, où même si la source des dommages cellulaires est arrêtée, la cellule serait incapable de se réparer à un état de fonctionnement, a déclaré Backman. En utilisant le double PWS, les chercheurs ont observé que juste avant ce tournant, les génomes des cellules éclataient avec un mouvement rapide et instantané, différentes parties de la cellule se déplaçant apparemment de manière aléatoire.

"Chaque cellule que nous avons testée et qui était destinée à mourir a subi cette secousse paroxystique. Aucune d'entre elles n'a pu revenir à un état viable après que cela s'est produit", a déclaré Backman, qui dirige le nouveau Center for Physical Genomics and Engineering de Northwestern.

L'équipe ne sait pas pourquoi ou comment le phénomène, appelé paroxysme cellulaire, se produit. Backman s'est d'abord demandé si le mouvement pouvait être dû à l'entrée d'ions dans la cellule, mais un tel processus aurait pris trop de temps. Les mouvements non coordonnés des structures cellulaires se sont produits en quelques millisecondes.

"Il n'y a tout simplement rien en biologie qui bouge aussi vite", a déclaré Backman. Il a ajouté que les membres de son laboratoire étaient tellement surpris par les résultats qu'ils ont plaisanté en disant que le phénomène pouvait s'expliquer par des "Midichloriens" quittant la cellule, une référence à l'incarnation chimique de "la Force" dans les films Star Wars.

Alors que les paroxysmes cellulaires restent un mystère pour le moment, Backman pense que les découvertes de l'équipe soulignent l'importance d'étudier le comportement macromoléculaire des cellules vivantes. Plus les chercheurs pourront acquérir de connaissances sur la chromatine, plus ils pourront un jour réguler l'expression des gènes, ce qui pourrait changer la façon dont les gens sont traités pour des maladies comme le cancer et la maladie d'Alzheimer.

"Chaque processus biologique que vous pouvez imaginer implique une sorte de réarrangement macromoléculaire", a déclaré Backman. « Alors que nous élargissons nos recherches, je ne peux m'empêcher de me demander : qu'allons-nous trouver ensuite ? »"


En 2007, après avoir quitté le laboratoire d'Angus pour créer mon propre groupe à l'Université d'Australie occidentale, j'ai reçu un autre e-mail concernant mon travail de paraspeckle. Jeanne Lawrence, chercheuse en épigénétique basée à la faculté de médecine de l'Université du Massachusetts, a demandé des anticorps contre PSPC1. J'ai partagé avec bonheur mes réactifs, puis je n'y ai plus réfléchi, jusqu'à quelques mois plus tard lorsque Lawrence m'a recontacté pour voir si j'étais intéressé par une collaboration.

Son groupe travaillait sur un lncRNA, défini au sens large comme tout ARN de plus de 200 nucléotides ne semblant coder aucune protéine, appelé NEAT1, et avait utilisé mon anticorps PSPC1 pour montrer que l'lncRNA colocalisé avec des parapeckles. Lorsque le laboratoire a renversé NEAT1, les paraspeckles ne pouvaient plus se former. J'ai pensé, voici le gène formant le parapeckle que je cherchais depuis toutes ces années.

Parce que NEAT1 est si long - plus de 23 000 nucléotides - il est possible de marquer différentes parties de l'ARN et de les voir apparaître dans différentes zones de parapeckles individuels.

Ensemble, nos laboratoires, ainsi que le groupe d'Andrew Chess à l'école de médecine Icahn du mont Sinaï à New York, ont rassemblé un récit, publié en 2009, sur la formation du paraspeckle des graines NEAT1. À peu près à la même époque, deux autres groupes – le laboratoire de Spector à Cold Spring Harbor et celui de Tetsuro Hirose à l'Université d'Hokkaido au Japon – ont rapporté des résultats similaires.

Nous avions une idée que d'autres groupes pourraient travailler sur la même chose, mais cela a quand même été une surprise. C'était troublant de me retrouver soudainement dans un environnement compétitif après avoir travaillé dans une relative obscurité, mais les études indépendantes ont considérablement renforcé les arguments en faveur de NEAT1 en tant que composant majeur des paraspeckles. Les résultats ont également lié les paraspeckles au monde passionnant des lncRNAs à une époque où l'idée émergeait tout juste que les lncRNAs sont fonctionnels, et pas simplement du bruit transcriptionnel. Le débat sur les lncRNAs se poursuit aujourd'hui. Bien qu'il soit généralement admis que des dizaines de milliers d'ARNnc sont produits par le génome humain, le nombre d'entre eux fonctionnels reste controversé. NEAT1 est devenu un modèle d'ARNnc important avec une fonction cellulaire claire : former des para-peckles.

Parce que NEAT1 est si long - plus de 23 000 nucléotides - il est possible de marquer différentes parties de l'ARN et de les voir apparaître dans différentes zones de parapeckles individuels. Un paraspeckle est à peu près sphérique, avec une coquille et un noyau, tel que défini par la composition distincte en protéines et en ARN de chacune de ces régions. En utilisant le marquage à l'or et la microscopie électronique, le groupe de Pierron à Paris, en collaboration avec nous et d'autres, a montré que les extrémités 5' et 3' de NEAT1 se trouvent dans la coquille, tandis que les séquences médianes de l'ARN se trouvent dans le noyau. (Voir l'illustration sur cette page.) Un autre groupe de collaboration dont je faisais partie, dirigé par Shinichi Nakagawa à l'Université d'Hokkaido, l'a confirmé plus tard avec l'imagerie à super-résolution. Le groupe de Hirose, travaillant de concert avec l'équipe de Nakagawa, moi-même et beaucoup d'autres, avons découvert - en fournissant des séquences de graines pour diverses protéines associées au paraspeckle à lier - que différentes régions de NEAT1 étaient nécessaires pour diriger cette organisation noyau-enveloppe.

NEAT1 est maintenant finement disséqué pour comprendre comment cet ARN peut former un échafaudage sur lequel les minuscules organites sans membrane peuvent être construits.


Résumé

Les complexes de pores nucléaires (CNP) fusionnent les membranes nucléaires interne et externe pour former des canaux à travers l'enveloppe nucléaire. Ce sont de grands assemblages macromoléculaires avec une composition complexe et des fonctions diverses. En plus de faciliter le transport nucléocytoplasmique, les PNJ sont impliqués dans l'organisation de la chromatine, la régulation de l'expression des gènes et la réparation de l'ADN. La compréhension des mécanismes moléculaires sous-jacents à ces fonctions a été entravée par un manque de connaissances structurelles sur le NPC. La convergence récente de la cristallographie et de la biochimie in vitro analyse des nucléoporines (NUP), les composants du NPC, avec imagerie cryo-microscopique de l'ensemble du NPC in situ a fourni une première vue pseudo-atomique de son noyau central et a révélé qu'un réseau inattendu de motifs linéaires courts est un principe d'organisation spatiale important. Ces percées ont transformé la façon dont nous comprenons la structure des NPC, et elles fournissent une base importante pour les investigations fonctionnelles, y compris l'élucidation des mécanismes moléculaires sous-jacents aux mutations cliniquement manifestées du système de transport nucléocytoplasmique.


Les cibles médicamenteuses comprennent les enzymes, les canaux ioniques, les transporteurs et les récepteurs (à la fois extracellulaires et nucléaires).

Bonnes caractéristiques de la cible :

  1. Joue un rôle essentiel (non redondant) dans un processus lié à la santé.
  2. Peut être modulé sans tuer les gens. (Tuer le patient guérit toutes les maladies…)
  3. A une structure suffisamment unique.
    • Vous voulez inhiber une protéine parasitaire essentielle ? Les cellules humaines reposent-elles sur une protéine (presque) identique ?
    • Vous voulez inhiber une protéine humaine avec une poche de liaison à l'ATP ? Combien d'autres protéines se lient à l'ATP ?
  4. Possède une structure moléculaire connue pour permettre la conception de médicaments basée sur la structure (assistée par ordinateur).
  5. Agit à travers un site actif défini (petite molécule). Les interfaces protéine-protéine sont très difficiles à perturber.

Autres questions à considérer :
1.


1. Histoire de la biologie moléculaire

Malgré son importance dans les sciences de la vie contemporaines, la biologie moléculaire est une discipline relativement jeune, originaire des années 1930 et 1940, et s'institutionnalisant dans les années 1950 et 1960. Il ne devrait donc pas être surprenant que de nombreuses questions philosophiques en biologie moléculaire soient étroitement liées à cette histoire récente. Cette section esquisse quatre facettes du développement de la biologie moléculaire : ses origines, sa période classique, sa migration ultérieure dans d'autres domaines biologiques et son virage plus récent vers la génomique et la post-génomique. La riche historiographie de la biologie moléculaire ne peut être utilisée que brièvement dans cette histoire abrégée (voir, par exemple, Abir-Am 1985, 1987, 1994, 2006 Burian 1993a Canguillhem 1989 de Chadarevian 2002, 2003 de Chadarevian et Gaudilliere 1996 de Chadarevian et Strasser 2002 Deichmann 2002 Fisher 2010 Hausmann 2002 Holmes 2001 Judson 1980, 1996 Kay 1993 Marcum 2002 Morange 1997a, 1998 Olby 1979, 1990, 1994, 2003 Powell et autres 2007 Rheinberger 1997 Sapp 1992 Sarkar 1996a Stegenga 2011 van Holde et Zlatanova 2018 Witkowski 2005 Zallen 1996 Voir aussi les récits autobiographiques de biologistes, tels que Brenner 2001 Cohen 1984 Crick 1988 Echols 2001 Jacob 1988 Kornberg 1989 Luria 1984 Watson 1968, 2002, 2007 Wilkins 2003).

1.1 Origines

Le domaine de la biologie moléculaire est né de la convergence des travaux de généticiens, de physiciens et de chimistes structurels sur un problème commun : la nature de l'hérédité. Au début du XXe siècle, bien que le domaine naissant de la génétique ait été guidé par les lois de Mendel de ségrégation et d'assortiment indépendant, les mécanismes réels de la reproduction, de la mutation et de l'expression des gènes restaient inconnus. Thomas Hunt Morgan et ses collègues ont utilisé la mouche des fruits, Drosophila melanogaster, comme organisme modèle pour étudier la relation entre le gène et les chromosomes dans le processus héréditaire (Morgan 1926 discuté dans Darden 1991 Darden et Maull 1977 Kohler 1994 Roll-Hanson 1978 Wimsatt 1992). Un ancien élève de Morgan, Hermann J. Muller, a reconnu le « lquogène comme une base de la vie », et a donc entrepris d'étudier sa structure (Muller 1926). Muller a découvert l'effet mutagène des rayons X sur Drosophile, et a utilisé ce phénomène comme outil pour explorer la taille et la nature du gène (Carlson 1966, 1971, 1981, 2011 Crow 1992 Muller 1927). Mais malgré le pouvoir de la mutagenèse, Muller a reconnu qu'en tant que généticien, il était limité dans la mesure où il pouvait expliquer les propriétés les plus fondamentales des gènes et leurs actions. Il conclut un essai de 1936 :

Le généticien lui-même est impuissant à analyser plus avant ces propriétés. Ici, le physicien, ainsi que le chimiste, doivent intervenir. Qui se portera volontaire pour le faire ? (Müller 1936 : 214)

La demande de Muller n'est pas restée sans réponse. La décennie suivante a vu plusieurs physiciens célèbres tourner leur attention vers la nature de l'héritage (Keller 1990 Kendrew 1967). Dans Qu'est ce que la vie, le physicien Erwin Schroedinger (1944) a proposé des moyens par lesquels les principes de la physique quantique pourraient expliquer la stabilité, mais la mutabilité, du gène (voir l'entrée sur la vie) (Elitzur 1995 Moore 1989 Olby 1994 Sarkar 1991 pour une réinterprétation voir Kay 2000). Max Delbrueck s'est également intéressé aux bases physiques de l'hérédité après avoir entendu une conférence de son professeur, le physicien quantique Niels Bohr (1933), qui exposait un principe de complémentarité entre la physique et la biologie (McKaughan 2005 Roll-Hansen 2000). Contrairement à Schroedinger, Bohr (et par la suite Delbrueck) n'a pas cherché à réduire la biologie à la physique, l'objectif était de comprendre comment chaque discipline se complétait l'autre (Delbrueck 1949 Sloan et Fogel 2011). Pour étudier la caractéristique auto-reproductrice de la vie, Delbrueck a utilisé des bactériophages, des virus qui infectent les bactéries puis se multiplient très rapidement. La création de &ldquoThe Phage Group» au début des années 1940 par Delbrueck et un autre physicien devenu biologiste Salvador Luria a marqué un point critique dans l'essor de la biologie moléculaire (Brock 1990 Cairns et al. 1966 Fischer et Lipson 1988 Fleming 1968 Lewontin 1968 Luria 1984 Morange 1998 : Ch. 4 Stent 1968). Le collègue de Delbrueck à Cal Tech, Linus Pauling, a utilisé ses connaissances en chimie structurale pour étudier la structure macromoléculaire. Pauling a contribué à la fois à des travaux théoriques sur la nature des liaisons chimiques et à des travaux expérimentaux utilisant la cristallographie aux rayons X pour découvrir la structure physique des composés macromoléculaires (Pauling 1939, 1970 Olby 1979 Hager 1995 Crick 1996 Sarkar 1998).

Comme suggéré dans le bref historique ci-dessus, l'expérimentation a figuré en bonne place dans l'essor de la biologie moléculaire (voir l'entrée sur l'expérimentation en biologie). La cristallographie aux rayons X a permis aux biologistes moléculaires d'étudier la structure des macromolécules. Alfred Hershey et Martha Chase (1952) ont utilisé des virus phagiques pour confirmer que le matériel génétique transmis de génération en génération était de l'ADN et non des protéines (voir Hershey-Chase Experiment dans Other Internet Resources). Muller (1927) a utilisé les rayons X pour intervenir et modifier la fonction des gènes, révélant ainsi l'application de méthodes de la physique à un domaine biologique (voir Elof Carlson sur Muller&rsquos Research in Other Internet Resources).

Reconnaissant assez tôt l'importance de ces nouvelles approches physico-chimiques structurales de la biologie, Warren Weaver, alors directeur de la section Sciences naturelles de la Fondation Rockefeller, introduisit le terme « biologie quomoléculaire » dans un rapport de 1938 à la Fondation. Weaver a écrit,

Et progressivement, une nouvelle branche de la science et de la biologie moléculaire commence à découvrir de nombreux secrets concernant les unités ultimes de la cellule vivante et hellip. 1994 : 442).

Mais peut-être qu'un compte rendu plus révélateur de l'origine du terme est venu de Francis Crick, qui a dit qu'il avait commencé à se qualifier de biologiste moléculaire parce que :

quand des ecclésiastiques interrogateurs me demandaient ce que je faisais, je me lassais d'expliquer que j'étais un mélange de cristallographe, biophysicien, biochimiste et généticien, explication qu'ils trouvaient de toute façon trop difficile à saisir. (cité dans Stent 1969 : 36)

Cette brève récapitulation des origines de la biologie moléculaire reflète des thèmes abordés par les philosophes, tels que la réduction (voir section 3.1), le concept de gène (voir section 2.3) et l'expérimentation (voir section 3.4). Pour Schroedinger, la biologie devait être réduite aux principes les plus fondamentaux de la physique, tandis que Delbrueck résistait plutôt à une telle réduction et recherchait ce qui rendait la biologie unique. Le passage de Muller de la génétique mendélienne à l'étude de la structure des gènes soulève la question de la relation entre les concepts de gènes trouvés dans ces domaines distincts de la génétique. Et l'importation des méthodes expérimentales de la physique à la biologie a soulevé la question de la relation entre ces disciplines.

1.2 Période classique

La période classique de la biologie moléculaire a commencé en 1953, avec la découverte par James Watson et Francis Crick de la structure en double hélice de l'ADN (Watson et Crick 1953a,b). La relation scientifique entre Watson et Crick a unifié les diverses approches disciplinaires discutées ci-dessus : Watson, un étudiant de Luria et du groupe des phages, a reconnu la nécessité d'utiliser la cristallographie pour élucider la structure de l'ADN Crick, un physicien séduit par Schroedinger Qu'est ce que la vie? de se tourner vers la biologie, s'est formé et a contribué à la théorie de la cristallographie aux rayons X. À l'université de Cambridge, Watson et Crick ont ​​découvert qu'ils partageaient un intérêt pour les gènes et la structure de l'ADN (voir l'article sur les révolutions scientifiques).

Watson et Crick ont ​​collaboré pour construire un modèle de la structure en double hélice de l'ADN, avec ses deux brins hélicoïdaux maintenus ensemble par des paires de bases à liaison hydrogène (Olby 1994). Ils ont largement utilisé les données des travaux de cristallographie aux rayons X sur l'ADN de Maurice Wilkins et Rosalind Franklin au King'rsquos College de Londres, de manière épouvantable sans la permission ou même la connaissance de Franklin (Maddox 2002), les travaux théoriques de Crick sur la cristallographie (Crick 1988) et le techniques de construction de modèles pionniers par Pauling (de Chadarevian 2002 Judson 1996 Olby 1970, 1994, 2009).

Avec la structure de l'ADN en main, la biologie moléculaire s'est concentrée sur la façon dont la structure en double hélice a aidé à élucider les mécanismes de réplication et de fonction génétiques, les clés pour comprendre le rôle des gènes dans l'hérédité (voir les entrées sur la réplication et la reproduction et l'hérédité systèmes). Cette recherche ultérieure a été guidée par l'idée que le gène était un informatif molécule. Selon Lily Kay,

Jusque vers 1950, les biologistes moléculaires et hellip décrivaient les mécanismes génétiques sans jamais utiliser le terme informations. (Kai 2000 : 328)

&ldquoInformation&rdquo a remplacé le discours antérieur sur la &ldquospécificité&rdquo biologique. Watson et Crick&rsquo, le deuxième article de 1953, qui discutait des implications génétiques de leur structure en double hélice récemment découverte (Watson et Crick 1953a), utilisait à la fois &ldquocode&rdquo et &ldquoinformation&rdquo :

&hellipit semble donc probable que la séquence précise des bases est la code qui porte la génétique informations&hellip. (Watson et Crick 1953b : 244, italiques ajoutés)

En 1958, Francis Crick utilise et caractérise le concept de informations dans le cadre de l'énoncé du « dogme central » de la biologie moléculaire. Crick a caractérisé le dogme central comme suit :

Cela indique qu'une fois que &ldquoinformation&rdquo est passé en protéine il ne peut plus sortir. Plus en détail, le transfert d'informations d'acide nucléique à acide nucléique, ou d'acide nucléique à protéine peut être possible, mais le transfert de protéine à protéine, ou de protéine à acide nucléique est impossible. L'information signifie ici la détermination précise de la séquence, soit des bases dans l'acide nucléique, soit des résidus d'acides aminés dans la protéine. (Crick 1958 : 152&ndash153, soulignement dans l'original)

Il est important de ne pas confondre code génétique et information génétique. Le code génétique fait référence à la relation entre trois bases de l'ADN, appelées &ldquocodon&rdquo, et un acide aminé. Les tableaux disponibles dans les manuels de biologie moléculaire (par exemple, Watson et al. 1988 : frontispice) montrent la relation entre 64 codons et 20 acides aminés. Par exemple, les codes CAC pour l'histidine. Seules quelques exceptions à ces relations de codage ont été trouvées, dans quelques cas anormaux (voir la liste dans un petit tableau dans Alberts et al. 2002 : 814). En revanche, l'information génétique fait référence à la séquence linéaire de codons le long de l'ADN, qui (dans le cas le plus simple) sont transcrits en ARN messager, qui sont traduits pour ordonner linéairement les acides aminés dans une protéine.

Une fois le code génétique élucidé et la relation entre les gènes et leurs produits moléculaires retracée, il semblait à la fin des années 1960 que le concept de gène était sûr dans son lien entre la structure et la fonction des gènes. La machinerie de la synthèse des protéines a traduit l'information codée dans l'ordre linéaire des bases d'acides nucléiques dans l'ordre linéaire des acides aminés dans une protéine. Cependant, une telle simplicité &ldquocolinear&rdquo n'a pas persisté. À la fin des années 1970, une série de découvertes par des biologistes moléculaires ont compliqué la relation directe entre une séquence d'ADN unique et continue et son produit protéique. Des gènes qui se chevauchent ont été découverts (Barrell et al. 1976), de tels gènes ont été considérés comme se chevauchant parce que deux chaînes d'acides aminés différentes pouvaient être lues à partir du même tronçon d'acides nucléiques en partant de points différents sur la séquence d'ADN. Et des gènes divisés ont été trouvés (Berget et al. 1977 Chow et al. 1977). Contrairement à l'hypothèse de colinéarité selon laquelle une séquence d'acides nucléiques continue générait une chaîne d'acides aminés, il est devenu évident que des segments d'ADN étaient souvent divisés entre des régions codantes (exons) et des régions non codantes (introns). De plus, les exons pourraient être séparés par de vastes portions de cet « ADN indésirable » non codant. La distinction entre exons et introns est devenue encore plus compliquée lorsque l'épissage alternatif a été découvert l'année suivante (Berk et Sharp 1978). Une série d'exons pourrait être épissée de diverses manières, générant ainsi une variété de produits moléculaires. Des découvertes telles que le chevauchement des gènes, les gènes divisés et l'épissage alternatif ont forcé les biologistes moléculaires à repenser leur compréhension de ce qui a réellement fait un gène et un gène hellipa (Portin 1993 pour une étude de ces complications, voir Gerstein et al. 2007 : Tableau 1).

Ces développements en biologie moléculaire ont fait l'objet d'un examen philosophique. Les biologistes moléculaires ont cherché à découvrir mécanismes (voir section 2.1), attirant l'attention des philosophes sur ce concept. De plus, la conceptualisation de l'ADN comme un informatif molécule (voir la section 2.2) était un mouvement que les philosophes ont soumis à un examen critique. Enfin, la notion de gène (voir la section 2.3) elle-même a intrigué les philosophes. Des mécanismes moléculaires complexes, tels que l'épissage alternatif, ont obligé les philosophes à réfléchir à ce à quoi le terme « lquogène » se réfère réellement. L'expérimentation a également figuré en bonne place dans la période classique (voir la section 3.4) Matthew Meselson et Frank Stahl ont utilisé des bactéries cultivées avec différents poids combinés à une centrifugation pour déterminer comment l'ADN, tel que modélisé par Watson et Crick, a été répliqué (Meselson et Stahl 1958 voir aussi The Semi -Réplication conservatrice de l'ADN dans d'autres ressources Internet).

1.3 Devenir moléculaire

Dans une lettre de 1963 à Max Perutz, le biologiste moléculaire Sydney Brenner préfigurait ce que serait la prochaine migration intellectuelle de la biologie moléculaire :

Il est maintenant largement reconnu que presque tous les problèmes "classiques" de la biologie moléculaire ont été résolus ou le seront au cours de la prochaine décennie. Pour cette raison, j'ai longtemps pensé que l'avenir de la biologie moléculaire réside dans l'extension de la recherche à d'autres domaines de la biologie, notamment le développement et le système nerveux. (Brenner, lettre à Perutz, 1963)

Avec Brenner, à la fin des années 1960 et au début des années 1970, de nombreux biologistes moléculaires de premier plan de la période classique ont réorienté leurs programmes de recherche, utilisant les techniques moléculaires nouvellement développées pour étudier des problèmes non résolus dans d'autres domaines. François Jacob, Jacques Monod et leurs collègues ont utilisé la bactérie Escherichia coli pour étudier comment les conditions environnementales impactent l'expression et la régulation des gènes (Jacob et Monod 1961 discutés dans Craver et Darden 2013 Morange 1998 : Ch. 14 Schaffner 1974a Weber 2005 voir aussi l'entrée sur la biologie du développement). L'étude du comportement et du système nerveux a également attiré certains biologistes moléculaires. Trouver des organismes modèles appropriés qui pourraient être soumis à des analyses génétiques moléculaires s'est avéré difficile. Revenant aux mouches des fruits utilisées dans la génétique mendélienne, Seymour Benzer a induit des mutations comportementales dans Drosophile en tant que &ldquogenetic scalpel&rdquo pour étudier les voies des gènes au comportement (Benzer 1968 Weiner 1999). Et à Cambridge, Sydney Brenner a développé le ver nématode, Caenorhabditis elegans, pour étudier le système nerveux, ainsi que la génétique du comportement (Brenner 1973, 2001 Ankeny 2000 Brown 2003). Au cours des décennies suivantes, l'étude des cellules est passée de la cytologie descriptive à la biologie cellulaire moléculaire (Alberts et al. 1983 Alberts et al. 2002 Bechtel 2006). Molecular evolution developed as a phylogenetic method for the comparison of DNA sequences and whole genomes molecular systematics sought to research the evolution of the genetic code as well as the rates of that evolutionary process by comparing similarities and differences between molecules (Dietrich 1998 see also the entries on evolution, heritability, and adaptationism). The immunological relationship between antibodies and antigens was recharacterized at the molecular level (Podolsky and Tauber 1997 Schaffner 1993 see also the entry on the philosophy of immunology). And the study of oncogenes in cancer research as well as the molecular bases of mental illness were examples of advances in molecular medicine (Morange 1997b see also the entry on philosophy of psychiatry).

This process of &ldquogoing molecular&rdquo thus generally amounted to using experimental methods from molecular biology to examine complex phenomena (be it gene regulation, behavior, or evolution) at the molecular level. The molecularization of many fields introduced a range of issues of interest to philosophers. Inferences made about research on model organisms such as worms and flies raised questions about extrapolation (see Section 3.3). And the reductive techniques of molecular biology raised questions about whether scientific investigations should always strive to reduce to lower and lower levels (see Section 3.1).

1.4 Going Genomic and Post-Genomic

In the 1970s, as many of the leading molecular biologists were migrating into other fields, molecular biology itself was going genomic (see the entry on genomics and postgenomics). The genome is a collection of nucleic acid base pairs within an organism&rsquos cells (adenine (A) pairs with thymine (T) and cytosine (C) with guanine (G)). The number of base pairs varies widely among species. For example, the infection-causing Haemophilus influenzae (the first bacterial genome to be sequenced) has roughly 1.9 million base pairs in its genome (Fleischmann et al. 1995), while the infection-catching Homo sapiens carries more than 3 billion base pairs in its genome (International Human Genome Sequencing Consortium 2001, Venter et al. 2001). The history of genomics is the history of the development and use of new experimental and computational methods for producing, storing, and interpreting such sequence data (Ankeny 2003 Stevens 2013).

Frederick Sanger played a seminal role in initiating such developments, creating influential DNA sequencing techniques in the 1950s and 1960s (Saiki et al. 1985 for historical treatments see Sanger 1988 Judson 1992 Culp 1995 Rabinow 1996 Morange 1998 de Chadarevian 2002 Little 2003 Garcia-Sancho 2012 Sanger Method of DNA Sequencing in Other Internet Resources). Equally important was Edwin Southern&rsquos development of a method to detect specific sequences of DNA in DNA samples (Southern 1975). The Southern Blot, as it came to be known, starts by digesting a strand of DNA into many small DNA fragments those fragments are then separated (in a process called gel electrophoresis) based on size, placed on filter paper which &ldquoblots&rdquo the DNA fragments on to a new medium, and then chemically labeled with DNA probes the probes then allow for identification and visualization of the DNA fragments (see also The Southern Blot in Other Internet Resources). Playing off the &ldquosouthern&rdquo homonym, subsequent blotting techniques that detect RNA and proteins came to be called Northern blotting and Western blotting.

In the mid 1980s, after the development of sequencing techniques, the United States Department of Energy (DoE) originated a project to sequence the human genome (initially as part of a larger plan to determine the impact of radiation on the human genome induced by the Hiroshima and Nagasaki bombings). The resulting Human Genome Project (HGP) managed jointly by the DoE and the United States National Institutes of Health (NIH), utilized both existent sequencing methodologies and introduced new ones (Kevles and Hood 1992, see also the entry on the human genome project). While the human genome project received most of the public attention, hundreds of genomes have been sequenced to date, including the cat (Pontius et al. 2007), the mouse (Waterson et al. 2002), rice (Goff et al. 2002) and a flock of bird genomes (Zhang et al. 2014). One of the most shocking results of those sequencing projects was the total number of genes (defined in this context as stretches of DNA that code for a protein product) found in the genomes. The human genome contains 20,000 to 25,000 genes, the cat contains 20,285 genes, the mouse 24,174, and rice 32,000 to 50,000. So in contrast to early assumptions stemming from the classical period of molecular biology about how genes produced proteins which in turn produced organisms, it turned out that neither organismal complexity nor even position on the food chain was predictive of gene-number (see the entry on genomics and postgenomics).

The increased attention to sequencing genomes encouraged a number of disciplines to &ldquogo genomic&rdquo, including behavioral genetics (Plomin et al. 2003), developmental biology (Srinivasan and Sommer 2002), cell biology (Taniguchi et al. 2002), and evolutionary biology (Ohta and Kuroiwa 2002). What&rsquos more, genomics has been institutionalized with textbooks (Cantor and Smith 1999) and journals, such as Genomics et Genome Research. And the human genome project itself has turned its attention from a standardized human genome to variation between genomes in the form of the Human Genome Diversity Initiative (Gannett 2003) and the HapMap Project (International HapMap Consortium 2003).

But just as a number of disciplines &ldquowent molecular&rdquo while molecular biology itself was wrestling with the complexities posed by split genes and overlapping genes, so too are fields going genomic while genomics itself is wrestling with the complexities posed by how a mere 20,000 genes can construct a human while a grain of rice requires 50,000 genes (Baedke 2018 Brigandt, Green, and O&rsquoMalley 2017 Green 2017). A related challenge was making sense of the genetic similarity claims. For example, how to interpret the finding that human and pumpkin genomes are 75% similar? Does this finding tell us anything substantive about our overall similarity to pumpkins (Piotrowska 2009)? To help answer such questions, genomics is now supplemented by post-genomics. There is ongoing debate about what actually constitutes post-genomics (Morange 2006), but the general trend is a focus beyond the mere sequence of As, Cs, Ts, and Gs and instead on the complex, cellular mechanisms involved in generating such a variety of protein products from a relatively small number of protein-coding regions in the genome. Post-genomics utilizes the sequence information provided by genomics but then situates it in an analysis of all the other entities and activities involved in the mechanisms of transcription (transcriptomics), regulation (regulomics), metabolism (metabolomics), and expression (proteomics). (See ENCODE Project Consortium 2012 Germain et al. 2014 (see also the entry on philosophy of systems and synthetic biology).

Developments in genomics and post-genomics have sparked a number of philosophical questions about molecular biology. Since the genome requires a vast array of other mechanisms to facilitate the generation of a protein product, can DNA really be causally prioritized (see Section 2.3)? Similarly, in the face of such interdependent mechanisms involved in transcription, regulation, and expression, can DNA alone be privileged as the bearer of hereditary information, or is information distributed across all such entities and activities (see Section 2.2)? And is it appropriate to extrapolate from information about other species&rsquo genomes to how the human genome operates (see Section 3.3)?


Why Does Covid-19 Make Some People So Sick? Ask Their DNA

To revist this article, visit My Profile, then View saved stories.

To revist this article, visit My Profile, then View saved stories.

SARS-CoV-2, the pandemic coronavirus that surfaced for the first time in China last year, is an equal opportunity invader. If you’re a human, it wants in. Regardless of age, race, or sex, the virus appears to infect people at the same rate. Which makes sense, given that it’s a totally new pathogen against which approximately zero humans have preexisting immunity.

But the disease it causes, Covid-19, is more mercurial in its manifestations. Only some infected people ever get sick. Those who do experience a wide range of symptoms. Some get fever and a cough. For others it’s stomach cramps and diarrhea. Some lose their appetite. Some lose their sense of smell. Some can wait it out at home with a steady diet of fluids and The Great British Baking Show. Others drown in a sea of breathing tubes futilely forcing air into their flooded lungs. Old people, those with underlying conditions, and men make up the majority of the casualties. Mais pas toujours. In the US, an alarmingly high fraction of those hospitalized with severe symptoms are adults under the age of 40. Kids, and in particular infants, aren’t invincible either.

How Long Does the Coronavirus Live on Surfaces?

To understand what accounts for these differences, scientists have been scouring the patchy epidemiological data coming out of hotspots like China, Italy, and the US, looking for patterns in patients’ age, race, sex, socioeconomic status, behaviors, and access to health care. And now, they’re starting to dig somewhere else for clues: your DNA.

On Monday, 23andMe launched a new study intended to illuminate any genetic differences that might help explain why people who’ve contracted Covid-19 have such varying responses to the infection. The consumer genomics company joins a number of emerging academic projects aimed at answering the same question. Prior research indicates that some gene variants can put people at higher risk for certain infectious diseases. Others offer protection, like the CCR5 mutation that makes people who carry it resistant to HIV. At this point, it’s too early to say how big a role DNA might play in vulnerability to Covid-19. But these findings may one day be used to identify people with higher risk for the most serious symptoms and to sharpen the search for potential new treatments.

“We want to understand how your genes influence your response to the virus,” says Joyce Tung, 23andMe’s vice president of research. “Our hope is that by collecting data from people who’ve been tested and diagnosed with Covid-19, that we can learn something about the biology of the disease that we can contribute to the scientific community to help them treat people more successfully.”

While other at-home DNA testing companies have converted their shuttered labs into Covid-testing operations, 23andMe decided to leverage a unique asset: its database of more than 10 million customers, 80 percent of whom have given consent for their genetic information and other self-reported details to be used for research. The company has spent years building out a platform that makes it easy to push out surveys en masse to this trove of potential study participants. As a result, each genetic profile comes with hundreds of phenotypic data points—like how many cigarettes a customer has smoked in their lifetime or whether anyone in their family has ever been diagnosed with diabetes. The sheer volume of data that 23andMe has at its disposal has powered the company’s leap into drug discovery, and made it a genetic research publishing powerhouse.

The latest survey to go live on 23andMe’s customer portal asks questions about where people live, what kinds of social distancing they’ve been doing, and whether or not they have been tested for, diagnosed with, or exposed to Covid-19. (The survey is only open to 23andMe customers in the US.) Company officials hope to enroll hundreds of thousands of customers in the study, including those who have tested positive, those who have tested negative, and those who have experienced flulike symptoms but not yet been tested—as well as those whose family members have experienced infections. People who have tested positive will receive a follow-up survey about the severity of their symptoms and whether or not they were hospitalized, according to Adam Auton, a principal scientist at 23andMe who is heading up the new Covid-19 study. Anyone who participates will get invited back each month to answer more questions, so 23andMe can capture any new cases that develop among this cohort over time.

If the company collects enough responses from people who’ve contracted Covid-19, 23andMe’s research team will conduct a statistical analysis called a GWAS, or genome-wide association study. A mainstay of genetic research, GWAS involves sorting people into different groups—in this case probably based on symptoms—and scanning their DNA data to see if certain single-letter variations in the genetic code show up more often among people with certain symptoms. If that happens a significant number of times, they can say with some confidence that those variants are linked to those symptoms.

It’s hard to predict what sorts of genes will get unearthed during these DNA mining expeditions, but many of them will likely map back to regions of the genome responsible for orchestrating the body’s immune response, says Michael Snyder, chair of the genetics department at Stanford University, who is not affiliated with the 23andMe research. “In general, we know that genetics do influence the course of a viral infection,” he says. That’s to be expected, he adds, given that over history humans evolving in different environments have been exposed to distinctive pathogens. “It’s logical that immune systems are tuned differently inside different people,” he says. (In fact, a dangerous immune overreaction known as a cytokine storm caused the deaths of many SARS patients and is suspected to be responsible for some of the fatalities among young Covid-19 patients.)

Another potential candidate is the gene that codes for the ACE2 receptor. Found on the surface of lung and other human cells, it’s the molecular doorway through which SARS-CoV-2 infiltrates the body. Small variations in this gene may result in versions of the receptor that are easier or more difficult to unlock. Alternatively, variations in the regions of the genome that turn the ACE2 gene on or off might also play a role. Less gene activity would mean the person’s cells have produced fewer receptors for the virus to grab onto.

At this point, it’s too early to venture guesses about the role genes play in determining Covid-19 outcomes, says Snyder. But he is willing to bet that projects like 23andMe’s probably won’t turn up a single genetic variant that determines whether or not someone winds up in the intensive care unit. “I’d be surprised if they find anything as strong BRCA,” he says, referring to one of the most powerful cancer predictors scientists have discovered mutations in BRCA genes quadruple a person’s likelihood of getting certain forms of breast cancer.

That’s because GWAS is a numbers game. It’s best at identifying mutations that occur over and over again throughout a population, with each exerting only a very small effect on an individual person’s disease susceptibility. And because GWAS are usually performed on the kind of limited genetic data 23andMe collects—a snapshot of about 600,000 locations in the genome—these common variants are easier to pick out than rare ones.


Théorie

Hard Sphere Fluid Mixtures.

The theory of HS fluid mixtures is well established and rigorous (10 ⇓ ⇓ ⇓ –14). Before applying it quantitatively to crowding, it is useful to describe qualitatively what it says about the processes depicted in Fig. 1 C–E. This introduces the physical content of the theory and perhaps shakes the automatic assumption that large molecules must be better crowders than small ones.

All molecules must avoid steric overlaps. In statistical mechanics terms, this avoidance lowers the solution entropy relative to an ideal gas at the same number density due to the reduction in the mutual configurational phase space available for all of the molecules. There is a concomitant increase in free energy and chemical potential. Simplifying somewhat, when we place a protein into solution, some fraction of the solvent molecules have their configurational entropy reduced by avoiding overlap with the protein and each other (Fig. 1C). From here on the term solvent refers to everything the protein may encounter: water, ions, cosolutes, and crowders. The change in entropy can be quantified by changes in the local density distributions of the solvent molecules caused by the solute, as described in detail below. These local density changes occur principally for solvent close to or in contact with the protein solute. Now in Fig. 1C, La gauche (no macromolecular crowders) a larger number of small molecules are affected by the presence of the protein, whereas in Fig. 1C, Droit a lesser number of molecules (some large, some small) are affected, because one large crowder replaces many smaller solvent molecules. Note that the solution volume is increased by approximately the same amount in each case, by the protein’s partial molar volume. The net entropy change depends both on the magnitude of local density changes and the number of molecules affected. We must resist the intuition from mechanics that it is somehow harder to move a large molecule out of the way vs. a small one. In thermodynamics the entropy change from a given change in local density is the same for a small molecule and a large one. Of course different size molecules may experience different solute-related perturbations in their local density, but because more molecules are affected by the presence of the protein when we have just small solvent molecules, i.e., no crowders, it should hopefully no longer be obvious that there is a larger configurational entropy decrease upon adding a protein to a solution with large crowders. To proceed further we need the quantitative theory of HS fluids as applied to a mixture of different size molecules.

In the theory of liquids and solutions, a quantity of particular importance is the radial distribution function (rdf) gij(r), which describes the relative probability of finding molecules of types je et j at a distance r de chacun d'eux. gij(r) is the local density of molecule je around j at distance r relative to the bulk density of je, ρje(r)/ρje bulk (and vice versa). For hard sphere species je et j with diameters je et j gij(r) is zero when r < je/2 + j/2, which is the essence of the excluded volume effect. The value of the rdf at the point of contact, gij(r = je/2 + j/2), is denoted here by g 0 ij. HS theory provides expressions for g 0 ij for every (je, j) in terms of the diameters je and mole fractions Xje of all of the species and the packing fraction ξ (the volume fraction filled by the hard spheres) (12, 13). From this one can then determine the excess entropy of the fluid with respect to an ideal gas, S ex (12 ⇓ –14). S ex , which is negative in sign, accurately describes the reduction in entropy due to the mutual avoidance of overlaps between all of the component spheres. From the excess entropy it is straightforward to obtain an expression for the excess HS chemical potential ??je ex of solute je with respect to the ideal solute chemical potential term ln(ρje), where ρje is the number density or concentration of the solute. ??je ex is positive in sign and represents the extra work of introducing a spherical solute into a solvent represented as a mixture of different size hard spheres while avoiding any steric overlaps. For component je in a mixture of two hard sphere components 1 and 2, ??je ex can be written as a cubic polynomial of the solute’s diameter je (14, 15), μ i ex k T = L 0 + L 1 d i + L 2 d i 2 + L 3 d i 3 , [1] where k is Boltzmann's constant, and T is temperature. The coefficients in Eq. 1 are given by L 0 = − ln ( 1 − ξ ) [2] L 1 = 3 ξ D 2 ( 1 − ξ ) D 3 [3] L 2 = 1 2 ( 3 ξ D 2 ( 1 − ξ ) D 3 ) 2 + 3 ξ D 1 ( 1 − ξ ) D 3 [4] L 3 = ξ + ξ 2 + ξ 3 ( 1 − ξ ) 3 D 3 − 3 ξ 2 ( 1 − ξ ) 3 x 1 x 2 ( d 2 − d 1 ) 2 D 3 2 ( d 1 + d 2 + ξ d 1 d 2 D 2 D 3 ) . [5] The factors 1, 2, et 3 are the mole fraction-weighted averages of the solvent diameter, diameter squared, and diameter cubed, respectively. For a two-component solvent D i = x 1 d 1 i + x 2 d 2 i , i = 1 , 2 , 3 [6] and X1 + X2 = 1.

Although the expression for chemical potential given by Eqs. 16 looks rather complicated, there is a straightforward physical interpretation for each of the terms. The cubic and quadratic terms describe the dependence on solute volume and area, respectively. The linear term may be interpreted as the curvature of the solute, so collectively the linear, quadratic, and cubic terms account for the shape and size of the solute. All are positive and so contribute unfavorably to the free energy of introducing the protein solute into solution.

Two physically distinct factors enter into the expressions for the coefficients: (je) the solvent packing fraction ξ et (ii) the diameter averages, je=1,2,3. These averages depend on the solvent composition, which is defined by the amounts and sizes of the two solvent components, namely water (X1 et 1) and crowder (X2 et 2). The constant term L0 is independent of solvent composition and is not discussed further. The other three coefficients L1, L2, et L3 do depend on solvent composition through je=1,2,3. Attention is drawn to the factors of D 3 = x 1 d 1 3 + x 2 d 2 3 in their denominators. Maintenant πD3/6 = Vav is the number-averaged solvent molecular volume. For pure water (X1 = 1) Vav would simply be the hard sphere volume of a water molecule. As increasing amounts of a large crowder are added, Vav increases because 2 >> 1. The number-averaged solvent diameter (1) and diameter squared (2) that appear in the numerators of the coefficients also increase. However, they increase less rapidly than 3 as they depend on lower powers of 2. So as large crowders are added, the volume, area, and curvature coefficients Lje=1,2,3 all decrease.

The coefficient L3 is unique in that it alone depends on (12), the difference in diameter between the two solvent components. This difference appears in the second term of Eq. 5 and reduces the contribution of the volume term to the excess chemical potential. Physically it arises because there are more ways to pack a mixture of small and large spheres together than the pure components separately.

Now consider protein folding or binding. The effect of crowders depends on how they change the difference in excess chemical potential between two states: unfolded vs. folded or free vs. bound, respectively. Partial molecule volume changes, although significant for these processes, are typically less than 1% of the total volume of the proteins themselves for folding (16, 17) and dimerization (18). Changes in solvent accessible area upon folding or binding, in contrast, are of the same order of magnitude as the total protein accessible areas, perhaps 30% or more (19). So the leading contribution from excluded volume effects will be controlled by the magnitude of the area coefficient L2, whatever the sign of the volume change (The area change upon folding or binding of course is negative). The curvature term can be thought of as a correction to the surface area term, but it becomes less important for larger protein solutes (Texte SI). L2 quantifies the excluded volume contribution to a macromolecule’s surface free energy. It favors reduction in solvent exposed area and thus the folded state and the bound state. But large crowders reduce this driving force.

In summary, HS fluid theory states that the steric effect of large crowders reduces the excess chemical potential of a protein in solution relative to pure water. The idea that the small size of water contributes to a high surface free energy at the solute–water interface is not new. Indeed this is the basis for a physical explanation of the hydrophobic effect (20). Large crowders reduce the steric penalty for solvent exposed surface area of a protein, so they disfavor association and folding. Large crowders also act on the volume and curvature contributions in the same manner. The underlying reason is that the entropic cost of avoiding overlaps with a single large molecule is less than that of the many smaller solvent molecules it displaces. This is a nonspecific, purely excluded volume effect that arises when we treat the steric effects of large crowders and small molecules like water and ions on an equal footing.

Relationship to Earlier Applications of Hard Sphere Theory.

In the limit of X2 = 0 in Eq. 1, je = 1 je , L3 = (ξ + ξ 2 + ξ 3 )/((1 − ξ) 3 1 3 ) and we recover the standard equations for scaled particle theory (SPT) (10, 21) in which the solvent (e.g., pure water) is homogeneous with respect to particle size. This form of SPT has been used, for example, to study solvation of apolar solutes in water (21). The other limit, X2 = 1, je = 2 je , corresponds to pure crowder and has been applied to macromolecular crowding (22). However, as illustrated in Fig. 1UNE this omits the effect of water and the crucial fact that the solvent consists of molecules of different sizes. Berg, on the other hand, treated the solvent as a mixture of different size spheres representing water and crowders (7). The expression he used for excess chemical potential is mathematically identical to Eqs. 15 used here, with two distinctions. First, the coefficients were not explicitly factored into separate solvent packing and composition terms in the manner of Snider and Herrington (14). So the effects of crowder size and solvent packing were not separately analyzed, as they are here. Second, Berg applied the theory in a manner whereby the composition and solvent density covary in a complex way to balance what is known as the virtual HS pressure. This leads to unrealistically large mixing volume changes (Texte SI).


Opening the Black Box of Psychiatric Disorders

Most recently, Krogan has teamed up with Jeremy Willsey, PhD, an assistant professor with the UCSF Institute for Neurodegenerative Diseases, and Matthew State, MD, PhD, professor and chair of psychiatry at UCSF, to found the Psychiatric Cell Map Initiative (PCMI).

The PCMI immediately faces several challenges in mapping gene pathways in psychiatric disorders – these disorders are numerous and diverse they can develop over many years or even decades and they involve the human brain, which is arguably the most complex object in the universe.

UCSF researchers (from left) Jeremy Willsey, PhD Matthew State, MD, PhD and Nevan Krogan, PhD, teamed up to found the Psychiatric Cell Map Initiative, which aims to map gene pathways in psychiatric disorders. Photo by Gina Nguyen

“One of the challenges in psychiatric disorders is that there’s little agreement over what the underlying pathological mechanisms are, which complicates diagnosis and development of effective therapeutics,” Willsey said. “Protein and genetic interaction mapping could open that black box to find how genetic risk factors actually cause psychiatric disorders, potentially revealing therapeutic targets.”

Willsey and State, both members of the UCSF Weill Institute for Neurosciences, have already made rapid progress unraveling the genetic basis of psychiatric disorders including autism and Tourette Disorder by looking for extremely rare mutations presented in affected children but not unaffected relatives. These mutated genes act as a starting point from which to explore what other related cell systems and pathways may play a role in the disease.

“Having these precise maps of how these genes and proteins fit into larger cellular networks allows us to make predictions about which pathways treatments should target, and then test these predictions in a targeted manner in model systems,” Willsey said.

Like the other initiatives, PCMI researchers benefit from the mapping research in other labs across all three mapping initiatives.

Cell Mapping Initiatives

UCSF’s Quantitative Biosciences Institute has collaborated to launch three initiatives.

“Seeing overlap between disorders will help in understanding why a given mutation might lead to schizophrenia in one case or autism in another,” Willsey said. “We already see that a lot of autism genes are cancer genes. We don’t know what that means, but the more genes we map the better we can understand that overlap.”

For Ideker, the overlap is the point of the initiatives. His lab produces computer models to predict how cells will respond to disruptions – from cancer-causing mutations to viral attacks. For these models to make sense of the data, they require ever more complex contextual data about how different cellular components are interrelated.

From genes to protein complexes to cell-spanning signaling networks, the layers of data Ideker feeds the models help them predict how cells will react more and more accurately. “We want to capture all the cellular interactions that we’re finding in these initiatives, and everything else that’s out there,” he said. “We’ll model the entire cell, at every level.”

Recently the three cell mapping initiatives held their first annual Cell Mapping Symposium, featuring scientists from all three initiatives and hundreds of guests, who overflowed the lecture hall at the Gladstone Institutes and spilled over into satellite rooms. Krogan was ecstatic at the response.

“Ultimately this whole project is about making connections – not only making connections between genes and proteins, but also between people,” he said. “We’re learning we’re all more connected than we thought we were.”


Voir la vidéo: Hatha jooga algajate kursuse tund nr 1. - (Décembre 2021).