Ni Dieu ni gène
Jean-Jacques Kupiec pose de sacrées questions. Et si l’idée de « programme génétique » était une illusion qui nous vient en droite ligne de l’essentialisme d’Aristote ? Et si la biologie moléculaire procédait elle aussi de phénomènes aléatoires, qui se voient simplement retenus (ou non) par un phénomène de « sélection » darwinien ?
Ce texte consiste en la retranscription de la conférence donnée par Jean-Jacques Kupiec dans le cadre des soirées « L’année Dieu » de l’école de la cause freudienne, en novembre 2003. L’article a été publié dans la revue La Cause freudienne, 2005/3, n° 61 (pp. 155 à 172). Nous le publions ici avec l’aimable autorisation de l’auteur.
- L’élaboration historique de la théorie génétique
- Les raisons de la nécessité d’un changement de paradigme
- Le principe d’ordre à partir du désordre de la physique
- Au contraire, la biologie est régie par un principe d’ordre à partir de l’ordre
- La réalité de l’espèce biologique est-elle ontologique ou épistémologique ?
- Que s’est-il passé depuis la biologie moléculaire ?
- Les constantes cinétiques d’équilibre
* *
*
Dans un premier temps, je voudrais rappeler rapidement ce qu’est la génétique ; vous dire d’emblée que, d’une certaine manière, la génétique n’est pas une science au sens où l’on dit, par exemple, que la physique est une science. Actuellement on confond ces deux termes, « génétique » et « hérédité ».
L’élaboration historique de la théorie génétique
À proprement parler, la génétique n’est qu’une théorie de l’hérédité et non la science de l’hérédité. De la même manière que la théorie du Newton n’est pas la physique mais une théorie de la physique. Dans l’Antiquité, les premiers biologistes avaient déjà remarqué la ressemblance entre les générations et, à cette époque, on appelait justement ce phénomène « la génération ». Le terme « hérédité » n’est, quant à lui, apparu qu’au XIXe siècle. L’objet de la théorie génétique est donc la transmission des caractères héréditaires. C’est une des théories qui existe et a existé concernant le problème de l’hérédité. Elle est historiquement datée, conceptuellement délimitée.
La génétique, apparue vers la deuxième moitié du XIXe siècle, faisait rupture avec les conceptions préexistantes alors appelées théories pangénétiques. La dernière des théories pangénétiques formulée fût celle de Darwin. Elle consistait à penser que l’ensemble de l’organisme se reproduit parce qu’il y a des molécules surnuméraires dans tous les organes et que ces molécules migrent vers les parties génitales pour assurer la reproduction. En ce sens, c’est donc le corps dans son entier qui se reproduirait. Cette théorie laissait possibles des influences du contexte organismique et du contexte environnemental, c’est-à-dire qu’elle laissait la porte ouverte à l’hérédité des caractères acquis.
La première rupture s’est faite avec le biologiste Auguste Weismann qui a proclamé la séparation de la lignée germinale et de la lignée somatique. La séparation de ces lignées implique l’idée que la reproduction s’effectue par des déterminants, les gènes, enfermés dans les cellules germinales et soustraits à toute influence, tant du contexte organismique que de l’environnement.
Je fais ce rappel dans la mesure où, parmi les biologistes, règne à l’heure actuelle une très grande confusion. Une récente enquête demandait à dix-huit biologistes de donner la définition du gène. Chacun y est allé de sa petite définition et, du coup, on ne sait plus ce qu’est un gène ! C’est une situation très paradoxale. Actuellement, il y a en effet un très grand développement empirique de la biologie mais plutôt une régression au niveau théorique, puisqu’on a oublié les définitions de base. C’est ce que je voudrais raconter rapidement.
L’idée de départ de la génétique est que le matériel héréditaire est séparé et qu’il assure la transmission des caractères héréditaires à chaque génération. De par ce fondement, la génétique ne peut être que déterministe puisque ce qui est transmis, le gène, doit reproduire le caractère héréditaire, donc le déterminer.
Vous connaissez, vous avez entendu parler des travaux de Gregor Mendel qui ont été redécouverts par un autre biologiste américain nommé Thomas Hunt Morgan. Il a été possible d’identifier, par des techniques statistiques et cytologiques, les déterminants des caractères dans les chromosomes enfermés dans les noyaux. Pendant la première période qui va de 1870 à 1920, tous les généticiens affirmaient un déterminisme très violent. J’ai là les textes d’un livre intitulé La théorie du gène, écrit par Morgan en 1926, dans lequel il explique carrément que le déterminisme dans la relation entre le gène et le caractère est tellement fort que, si l’on fait une modification donnée dans un gène, on induit une modification très précise dans le phénotype. Je rappelle les définitions : le génotype c’est l’ensemble des gènes et le phénotype les caractères réalisés chez l’adulte.
Dans ce texte, Morgan suggère que la connaissance des mécanismes de l’embryogenèse est relativement peu importante puisque quand on a le gène, on a la cause, et quand on a la cause, on peut manipuler les effets. Donc, à la limite, il importe peu d’élucider les mécanismes de l’embryogenèse qui se situe entre les deux.
Cependant, dès cette époque, Morgan lui-même s’est rendu compte que la relation un gène / un caractère ne tenait pas dans la mesure où l’on a découvert des phénomènes de pléiotropie – on s’est aperçu que quand on touche à un gène, on touche à une infinité de caractères – des phénomènes de multigénie – en sens inverse, de nombreux gènes affectent le même caractère – et des phénomènes d’expressivité conditionnelle à l’environnement. Sont également apparus petit à petit les phénomènes d’expressivité variable qui consistent en une mutation avec une certaine probabilité d’expression phénotypique. En d’autres termes, dans la population, seule une fraction de gens qui portent la mutation expriment le caractère correspondant.
Le même Morgan a donc écrit, dans les années trente, un livre qui a pour titre Embryologie et génétique où il dit exactement l’inverse de ce qu’il disait dans La théorie du gène. Il est intéressant de confronter ces deux ouvrages. Dans le second, Morgan explique que, du fait de tous les phénomènes dont je viens de vous parler, il est impossible d’établir cette relation un gène / un caractère et, qu’à la limite, il est possible de considérer qu’un caractère – dans la mesure où il est le résultat de l’embryogenèse et qu’au cours de celle-ci, tous les gènes vont s’exprimer à un moment donné – est le fruit de l’ensemble du génotype. C’est donc un retour en arrière à 180° et Morgan réintroduit la nécessité de comprendre les mécanismes du développement ontogénique[1] L’ontogenèse (ou ontogénie) décrit le développement progressif d’un organisme depuis sa conception jusqu’à sa forme mûre, voire jusqu’à sa mort [nde].. Mot à mot, c’est une véritable négation de la génétique, parce que l’intérêt de la génétique, c’est qu’elle soit capable de discrétiser[2] Discrétiser : rendre discret (distinct, séparé, discontinu), c’est-à-dire, dégager des valeurs individuelles à partir de quelque chose de continu [nde]. l’individu en caractères phénotypiques et de les relier à un ou à un petit nombre de déterminants génétiques (gènes) qui sont eux-mêmes discrets.
C’est un rappel utile. En effet, si vous avez suivi l’annonce du séquençage du génome humain, il y a deux ans en première page des journaux, les séquenceurs (relayés par des journalistes) expliquaient que, grâce au séquençage du génome, on savait maintenant que la liaison un gène / un caractère, ou un gène / une fonction, ne tenait plus. Mais, comme je viens de vous l’expliquer, tous les généticiens et tous les biologistes savent ça depuis soixante-dix ans. Nous le savions déjà par les techniques de la génétique mendélienne classique, il n’y avait pas besoin de séquencer le génome. Ce n’est qu’une confirmation.
Dans ce livre, Embryologie et génétique, Morgan a mis en avant deux notions toujours actuelles. C’est, d’une part, au niveau des gènes, l’idée de réseaux de gènes. Morgan en parlait déjà à cette époque. Il appelait cela « l’équilibre génique », soit le fait que ce n’est pas un gène mais un ensemble de gènes qui va déterminer un caractère. C’est, d’autre part, la réintroduction de ce que l’on appelle des facteurs épigénétiques, de tout ce qui module l’effet d’un gène.
Indiquons, par un bref résumé, ce qui s’est passé ensuite. En vérité, à ce moment-là, se posait un gros problème théorique par rapport à la conception de départ de la génétique – contrairement à ce que l’on dit maintenant, la génétique est une théorie très précise avec des concepts très bien explicités – il y avait une vraie contradiction avec les résultats expérimentaux. Dans n’importe quelle autre discipline, pas n’importe laquelle mais je pense à la physique, à chaque fois qu’il y a eu une déviation par rapport à un modèle, les physiciens se sont amusés à reconstruire la théorie et à reconstruire leur modèle. En biologie, pour des raisons inexpliquées, c’est comme si on avait mis la théorie entre parenthèses.
Donc Morgan, c’est 1930. À partir de là, s’est développée la biologie moléculaire et la découverte de l’adn a eu lieu. On pensait pouvoir dépasser les problèmes posés par rapport à la théorie génétique grâce à la biologie moléculaire. À la limite on n’y pensait même pas, surtout parce qu’on avait découvert matériellement le gène. On était porté par l’enthousiasme et plutôt que d’analyser les problèmes conceptuels, il y a eu cette croyance dans le développement technologique et l’analyse moléculaire. On allait poursuivre l’analyse et dépasser tous les problèmes.
Où en est-on aujourd’hui, comment les biologistes se représentent-ils le modèle théorique qui les guide ? On n’a pas remis en cause le noyau dur de la génétique, le déterminisme, la relation un gène donne un caractère. Étymologiquement, gène, c’est genos, le genre, l’espèce, et l’origine en même temps.
On a le gène, donc une origine. Tout l’organisme est dans le génotype, mais on tempère le déterminisme en rajoutant soit les « réseaux de gènes » soit « les facteurs épigénétiques ». C’est une situation très connue en science. Quand il y a une contradiction avec la théorie, on rajoute des hypothèses ad hoc. Ainsi, il est toujours possible de réussir à faire tenir une théorie en rajoutant autant d’hypothèses qu’il est nécessaire.
Les raisons de la nécessité d’un changement de paradigme
La question que je me suis posée – ce n’est pas exactement comme ça que je suis sorti de ce cadre de pensée, mais aujourd’hui on peut poser la question – c’est : peut-on toujours tenir et rester dans ce cadre du paradigme génétique, ou faut-il en changer ? Je pense que la théorie génétique est trop plombée, qu’on est obligé de changer de paradigme, pour un certain nombre de raisons que je vais expliquer maintenant.
C’est l’objet du livre que vous avez cité, Ni Dieu ni gène[3] Jean-Jacques Kupiec et Pierre Sonigo, Ni Dieu ni gènes. Pour une autre théorie de l’hérédité, Seuil, 2003 [nde].. La motivation pour l’écrire était qu’en vérité les contradictions sont trop grandes à l’heure actuelle, qu’il faut remettre les choses à plat, qu’on ne peut plus continuer à faire du rafistolage.
Épigénétique fait penser à épicycle. Ce n’est pas une analogie purement linguistique. Le système de Ptolémée dit que les planètes tournent autour de la terre et qu’elles tournent autour d’un deuxième point appelé épicycle. Ces épicycles étaient très pratiques. Avant Copernic, quand il y avait contradiction entre la trajectoire prédite et les observations expérimentales du mouvement des planètes, on rajoutait des épicycles – les mathématiciens étaient déjà très astucieux –, on arrivait ainsi à toujours faire coller les données avec la théorie.
Le système de Ptolémée était un système horriblement compliqué à cause de ces hypothèses supplémentaires qu’on rajoutait sans cesse. Mais, dans un premier temps, il collait mieux aux données expérimentales que le système de Copernic qui supposait les cycles des planètes circulaires alors que ce sont des ellipses.
Je pense que les hypothèses épigénétiques mises en avant actuellement sont des hypothèses ad hoc, similaires aux épicycles. C’est un rafistolage de la théorie génétique. Ce qu’il faut, au contraire, c’est tout revoir, remettre les choses à plat et, pour aller dans cette direction, je vais essayer d’argumenter deux points :
– 1/ La génétique est une version moderne de la philosophie d’Aristote. Cette métabiologie aristotélicienne imprègne la génétique. Elle n’est pas qu’une curiosité pour les historiens, elle a des conséquences très pratiques et elle induit des contradictions qui empêchent le développement de la biologie expérimentale.
– 2/ Pour s’en sortir, une solution consiste à appliquer ce que j’appelle le darwinisme cellulaire. Ainsi, à la place de la théorie du programme génétique, il s’agit d’introduire à l’intérieur de l’organisme, au niveau du comportement même de la cellule, les principes darwiniens de hasard et sélection pour expliquer l’ontogenèse.
Tout d’abord, je voudrais rappeler la différence entre un système déterministe et un système probabiliste. Dans un système déterministe, lorsque vous appliquez la cause, vous avez une probabilité 1 d’obtenir l’effet et, à chaque fois que vous appliquez la même cause, vous avez le même effet : si je lâche ce stylo, il tombe, et cela va se reproduire chaque fois que je répéterai l’expérience. Donc la probabilité d’occurrence de l’événement du stylo qui tombe est de 1.
Dans le système probabiliste, lorsque vous appliquez la cause, vous n’avez pas un seul effet possible, mais plusieurs. Chacun est affecté d’une probabilité qui est comprise entre 0 et 1. L’exemple canonique est le jeu de dés ou le jeu de pile ou face : quand vous lancez la pièce vous avez une probabilité d’un demi d’avoir pile ou face.
Ce sont des définitions assez simples, mais l’erreur souvent faite consiste à croire qu’un système probabiliste, fait d’événements aléatoires, parce qu’il introduit du hasard, ne serait pas reproductible, qu’il serait chaotique, erratique. Ceci est faux. Un système fait d’événements aléatoires est reproductible statistiquement et cela veut dire que, dans le cadre de la théorie statistique, vous pouvez le décrire avec deux paramètres qui sont la moyenne et la variance.
Tout le monde sait ce qu’est la moyenne. La variance est une mesure de la dispersion dans la population par rapport à la moyenne lorsque vous avez une série d’événements aléatoires. Par exemple, on considère toutes les personnes présentes ici ce soir, on prend un paramètre, poids ou taille, on obtient un poids ou une taille moyenne et ensuite on va avoir une dispersion. Certaines personnes seront très loin de la moyenne, d’autres plus près. La variance mesure donc l’étalement de la variable aléatoire dans une population.
Cette variance est un paramètre mathématique défini, ainsi mesurable. Pour ceux qui s’en souviennent, une courbe de Gauss peut-être très pointue – tous les membres de la population sont proches de la moyenne – ou bien être beaucoup plus plate et étalée – dans ce cas-là, la variance est très grande, c’est-à-dire que la dispersion est grande par rapport à la moyenne de la population. L’important, lorsque la variance est petite, c’est qu’un phénomène peut être de causalité probabiliste mais ressembler à un système déterministe.
Ceci est d’autant plus vrai qu’une autre loi de la théorie statistique, la loi des grands nombres, loi de Kolmogorov, dit que lorsque vous avez un système, un processus, un mécanisme composé d’événements aléatoires, plus le nombre de ces événements aléatoires est grand, plus la population est grande, plus la variance va être petite. Cela a des conséquences très importantes que je peux essayer de vous faire comprendre intuitivement. Vous jouez à pile ou face, vous faites des séries de dix tirages, cent séries de dix tirages et, à chaque fois, vous comptez le nombre de piles ou de faces. Si vous faites le résultat moyen global vous serez assez proche de 1/2. Mais si vous regardez dans chaque série de dix tirages, parfois vous aurez eu six fois pile, quatre fois face, parfois sept fois pile, trois fois face. Donc dans ce cas-là, vous aurez 70 % de pile, ce qui veut dire une déviation de 20% par rapport à la moyenne théorique qui est de 50%. Si vous refaites le même jeu mais qu’au lieu de faire des séries de dix tirages, vous faites des séries de un million de tirages, la loi des grands nombres dit que la variance va devenir extrêmement petite : pour avoir un écart de 20%, il faudrait avoir tiré sept cent mille fois pile ce qui est impossible. La probabilité est quasi nulle, donc vous aurez peut-être cinq cent dix mille, un écart de 1%. Les conséquences de cette loi sont très importantes.
Le principe d’ordre à partir du désordre de la physique
Revenons à la biologie dont je me suis un peu écarté. En fait, je suis en train de reprendre la partie introductive du livre Qu’est-ce que la vie ?, écrit par le physicien Erwin Schrödinger qui a eu une influence importante sur les débuts de la biologie moléculaire. Dans la première partie de cet ouvrage publié en 1944, Schrödinger s’interroge sur l’origine de l’ordre dans les systèmes naturels et, notamment, il compare l’origine de l’ordre dans les systèmes physiques et biologiques et explique que toute la physique statistique fonctionne sur la loi des grands nombres.
À cause de cette loi, le monde dans lequel nous vivons, les processus à notre échelle macroscopique ont l’air parfaitement déterminés. Il est possible de les écrire avec des équations déterministes, alors qu’à l’échelle moléculaire, les particules atomiques sont soumises à l’agitation brownienne, c’est-à-dire qu’elles sont soumises au hasard. En effet, si vous mettez du vinaigre dans de l’eau et regardez le trajet de chaque molécule individuellement, elle fait une marche au hasard. Cela signifie qu’à chaque unité de temps elle part dans une autre direction, au hasard, et chaque mouvement de chaque particule est irreproductible, différent de tous les autres.
Si vous remettez une même goutte de vinaigre dans un verre d’eau et que vous suivez l’évolution de la concentration du vinaigre dans l’eau, vous suivez la cinétique, au bout d’un certain temps vous aurez une concentration égale dans tout le verre. Si vous recommencez l’expérience et que vous regardez globalement, vous aurez à chaque fois le même phénomène, la même évolution de la concentration de vinaigre que vous pouvez décrire de manière totalement déterministe et pourtant, au niveau de chaque molécule, le phénomène est aléatoire. Il y a un écrasement de la variance du fait du nombre immense de particules, des milliards. Au niveau moléculaire le phénomène est aléatoire, tandis qu’à notre échelle il est déterministe à cause de la loi des grands nombres.
C’est ce que Schrödinger appelle « le principe d’ordre à partir du désordre » qui opère en physique. Toute la physique fonctionne sur ce principe et Schrödinger en arrive à la question : est-ce que le même principe peut opérer en biologie ? Sa réponse est non. Pourquoi ? Parce que le nombre de particules impliquées est trop petit. Nous sommes en 1944. Il a en tête la génétique et pour lui, les particules qui sont impliquées dans le déterminisme des phénomènes biologiques sont les gènes, quelques milliers voire quelques dizaines de milliers, ce qui est très petit, versus les milliards de molécules qui composent les systèmes physiques.
En conséquence, la loi des grands nombres ne pourrait pas opérer en biologie parce que le nombre de particules impliquées est trop petit. Donc le principe d’ordre à partir du désordre ne peut fonctionner. La conclusion de Schrödinger est qu’il doit exister un principe qui contraint les molécules, les fait échapper à l’agitation brownienne et les dirige pour faire ce qu’elles doivent faire, à savoir construire un individu correctement au cours de l’ontogenèse.
Au contraire, la biologie est régie par un principe d’ordre à partir de l’ordre
C’est ce que l’on appelle aujourd’hui « l’information génétique ». 1944, ce sont les débuts de la biologie moléculaire et, dans ce livre, Schrödinger a popularisé les idées d’un autre physicien considéré comme le père fondateur de cette discipline nouvelle, Maxime Delbrück, qui à cette époque avait déjà émis l’idée d’un code dans l’adn, le code génétique. Donc, en biologie, on a un principe d’ordre, l’information génétique. Un peu d’étymologie : « information », c’est « donner la forme » et il s’agit vraiment de ça. Je vous ai parlé de la génétique comme théorie aristotélicienne. Effectivement, l’idée qu’un principe d’ordre doit guider l’ontogenèse est très ancienne dans l’histoire des systèmes de pensée. Chez Buffon, il y avait l’idée d’un moule intérieur qui devait guider les molécules et, surtout, cela renvoie à la cause formelle d’Aristote. Dans le système d’Aristote, pour réaliser l’ontogenèse d’un individu, la matière par elle-même est indéterminée. Il faut l’informer à l’aide de la cause formelle, l’essence, donc la spécificité, qui permet de construire un objet. Chez Aristote, il y avait un système global, une physique et une biologie et, bien que ce soit peu su, Aristote était beaucoup plus biologiste que physicien. Un tiers du corpus aristotélicien est composé d’ouvrages de biologie, une biologie dans laquelle la cause formelle s’appelait « âme ».
En 1944, l’idée du code génétique existe déjà. La découverte de l’information génétique en tant que concept précède la découverte expérimentale de l’adn puisque la découverte de la structure de l’adn, c’est, en 1953, James Watson et Francis Crick.
La question qui s’est posée immédiatement aux biologistes moléculaires après avoir émis l’hypothèse qu’il y avait un code inscrit dans l’adn est : comment l’information virtuelle qui représente l’organisme et qui est contenue dans les chromosomes va-t-elle être transformée en processus matériel au cours de l’ontogenèse ?
Schrödinger postulait l’existence de lois physiques particulières à la biologie. Il imaginait des lois analogues à ce qui se passerait au zéro absolu – température à laquelle il n’y a plus de hasard brownien, d’agitation – des processus mécaniques parfaits et faisait l’analogie avec un mécanisme d’horlogerie dans lequel les chromosomes serviraient en quelque sorte de moules par un système d’engrenage et de démultiplication.
Aujourd’hui, on sait qu’il n’y a pas de loi physique particulière à la biologie. Toutefois l’idée d’un principe d’ordre a perduré et a été remplacée par la notion de stéréospécificité. Le concept de stéréospécificité est central dans l’ouvrage de Jacques Monod Le hasard et la nécessité. Mais Monod n’a fait que synthétiser la pensée de la biologie moléculaire. Initialement ce concept a été introduit par les immunologistes pour expliquer la relation spécifique entre antigènes et anticorps.
Stéréospécificité veut dire spécificité solide, et on revient une nouvelle fois à un concept aristotélicien, puisque la différence spécifique est ce qui appartient à une collection d’objets et à eux seuls et qui les définit en tant qu’espèce.
Cette notion est transposée au niveau des molécules. Les molécules du vivant, les protéines, de par leurs propriétés physico-chimiques, leur forme et leur charge électrique, sont capables – un peu comme les pièces d’un puzzle – de se reconnaître en évitant le hasard. Les relations spécifiques font qu’une molécule va reconnaître un partenaire et pas un autre.
C’est ce que j’ai figuré ici, ces molécules vont se reconnaître, s’emboîter selon ces règles de reconnaissance stéréospécifiques. Imaginez une autre molécule qui serait ronde, elle ne pourrait pas rentrer dans le système. De ce fait, ça élimine le hasard, un peu comme dans un jeu de mécano, un jeu d’enfant, un jeu de cubes. Cela permet de construire cette structure, le rectangle suivant :
Comme la forme et les propriétés physico-chimiques des molécules – vous savez que les protéines sont des polymères d’acides aminés – dépendent de la succession des acides aminés et que la succession des acides aminés dépend elle-même de la succession des nucléotides dans l’adn qui correspond à l’information génétique, ces propriétés d’assemblage stéréospécifique sont le reflet matériel, en trois dimensions, de l’information contenue dans l’adn. Ce processus est la transformation physique de l’information génétique, l’actualisation, pour reprendre un terme aristotélicien, de ce qui était virtuel, de ce qui était en puissance dans le gène.
Cette propriété de stéréospécificité est à la base du réductionnisme génétique qui suggère que le vivant se construit par niveaux – il y a plusieurs niveaux d’organisation du vivant, le niveau cellulaire, le niveau des tissus, le niveau des organes et ensuite l’organisme – et que cette construction se fait à partir des gènes.
Ce processus est un mouvement ascendant qui part du gène permettant de fabriquer des molécules qui, du fait de cette stéréospécificité, vont se reconnaître pour former des agrégats qui, toujours par ce jeu de reconnaissance stéréospécifique excluant le hasard, construisent des cellules qui, elles, fabriquent des protéines qui se trouvent à leur surface ou diffusent dans le milieu extracellulaire et échangent des signaux. En biologie, vous avez entendu parler de signalisation ou de transduction du signal : ces protéines, à la surface des membranes, se reconnaissent et s’assemblent en tissus. Les tissus, toujours par ces phénomènes de signalisation vont former les organes, etc. :
Ainsi, en partant du gène, vous pouvez reconstruire l’organisme entier grâce à cette propriété de stéréospécificité. C’est quasiment mot pour mot ce qu’explique Monod dans Le Hasard et la Nécessité. François Jacob dit à peu près la même chose en employant un langage différent. C’est ce que disent tous les biologistes moléculaires de cette époque et qui reste le paradigme non encore transformé, toujours valide, mais qui pourtant bat de l’aile pour des raisons que je vais évoquer.
En fait on est toujours dans la biologie d’Aristote. C’est sidérant si on prend la peine d’aller regarder dans les textes. Dans Les Parties des animaux, Aristote décrit un mécanisme où les quatre éléments fondamentaux, la terre, le feu, l’eau et l’air, se composent, se mélangent selon certaines proportions et donnent les chairs et les os qui s’assemblent pour donner les organes, etc. Tout cela guidé par la cause formelle, par une âme spécifique qui permet l’ontogenèse des individus appartenant aux différentes espèces.
Évidemment on n’était pas dans le contexte de la chimie moderne, mais conceptuellement ce modèle est tout à fait identique au réductionnisme génétique par l’idée que la matière n’est pas capable de s’organiser sans un principe d’ordre qui lui est extérieur et par l’existence des niveaux d’organisation.
On voit donc cette similitude. En vérité ce n’est pas très original, les biologistes le savent, y compris les biologistes moléculaires, Delbrück notamment. Il a écrit un article où il pointe l’analogie entre l’information génétique et la cause formelle d’Aristote. Mais pour lui cela ne posait pas problème.
La réalité de l’espèce biologique est-elle ontologique ou épistémologique ?
On peut quand même ici se poser une question.
Comme vous le savez, la révolution copernicienne, la révolution scientifique, a donné naissance à la nouvelle physique à partir de la Renaissance et a consisté en l’effondrement du système d’Aristote, en l’abandon de l’idée de ce principe d’ordre, de la cause formelle. En biologie cette idée perdure. On considère habituellement que c’est pour une raison interne à l’objet biologique. C’est-à-dire qu’il y a une différence de nature entre l’objet physique et l’objet biologique qui fait que dans un cas la notion est valide et non dans l’autre. La différence serait ontologique.
Ceci dit, on peut aussi se demander si la raison n’est pas épistémologique. Si, au lieu d’être dans l’objet, elle n’est pas dans nos têtes. Du fait que la cause formelle définit l’espèce – on parle de spécificité –, ce qui est en jeu ici n’est-il pas la solidité du concept d’espèce lui-même ?
En d’autres termes, la question que je pose est la suivante : s’il nous est relativement acceptable de mettre entre parenthèses l’espèce quand il s’agit de rivières ou de nuages, lorsqu’il s’agit du vivant n’avons-nous pas un problème particulier qui mettrait en danger notre identité à nous, directement en tant qu’humains ?
La raison réelle serait à chercher de ce côté-là et pas dans l’objet biologique lui-même. Habituellement les explications consistent à dire que l’espèce biologique est plus naturelle que l’espèce physico-chimique. Mais pourquoi ?
L’argument avancé par tout le monde dit que ce serait à cause de la reproduction, parce que l’espèce biologique serait le fruit du mécanisme de reproduction à l’identique. Mais en réalité on peut poser la question : en quoi un mécanisme géophysique qui donne naissance à des montagnes, à des choses qu’on va mettre sous l’espèce Montagne, en quoi ce processus géophysique est-il moins naturel que le processus biologique de la génération ?
Que s’est-il passé depuis la biologie moléculaire ?
Aujourd’hui on sait que la stéréospécificité n’existe pas. Tout le programme de recherche de la biologie moléculaire, à partir des années soixante, a consisté à essayer d’isoler les molécules stéréospécifiques, donc les gènes spécifiques qui codent pour ces molécules.
En conséquence, pour tout phénomène physiologique qu’il soit normal ou pathologique, pour les maladies, pour le développement embryonnaire, on cherche les gènes à la base, avec l’idée de trouver les molécules stéréospécifiques qu’ils codent. Puisque c’est un jeu de puzzle, à partir de là, on pourra trouver les molécules partenaires qui « s’emboîtent » et analyser la cascade des interactions qui sont le processus lui-même (voir la Figure 1).
Prenons un exemple. En 1976 on a découvert le premier gène du cancer, le gène Sarc. À l’époque c’était une de ces grandes découvertes extraordinaires, de ces avancées spectaculaires qui font la une des journaux. On pensait vraiment avoir la clef explicative et régler le problème du cancer dans la foulée.
On croyait trouver la molécule spécifique du cancer, la regarder, la décortiquer et trouver l’essence du cancer. En fait, on a trouvé une molécule appelée protéine kinase qui est un enzyme qui a la propriété de phosphorylation – c’est-à-dire qu’elle rajoute des atomes de phosphore sur les protéines – un des enzymes les plus communs du métabolisme, et là il y a eu une surprise et un point d’interrogation. On croyait trouver quelque chose de très particulier et on trouvait quelque chose de très commun.
On a continué malgré tout et, à l’heure actuelle, on a isolé probablement plusieurs centaines de gènes du cancer et de protéines du cancer mais, comme vous le savez, on n’a pas encore d’explication, de compréhension rationnelle des mécanismes qui permettrait d’agir sur cette maladie.
En résumé, on a découvert des tas de molécules parce que la technologie est très performante dans tous les domaines de la biologie. Mais ce qui apparaît clairement aujourd’hui quand on analyse les propriétés d’interactions de ces molécules, c’est qu’elles ne sont pas stéréospécifiques. En d’autres termes, vous ne pouvez pas trouver de partenaire unique – on a des techniques qui permettent de les détecter –, elles sont ubiquitaires[4] Ubiquitaire : qui manifeste la faculté de se trouver en différents endroits à la fois [nde]., non spécifiques et peuvent interagir avec beaucoup d’autres molécules.
D’une certaine manière, c’était prévisible parce que la spécificité n’est pas un concept expérimental, ce n’est pas un concept scientifique mais un concept métaphysique, directement issu de la métaphysique d’Aristote, qui correspond à une idéalisation de la matière.
On est dans une situation un peu curieuse. Lorsque les biologistes analysent les interactions entre les molécules au laboratoire, ils ne peuvent pas mesurer la spécificité qui n’est pas un paramètre quantitatif. La spécificité c’est tout ou rien. On est ou on n’est pas. Au laboratoire, on utilise les technologies habituelles de la physico-chimie et tout ce que l’on est capable de faire c’est de mesurer les paramètres appelés « constantes cinétiques d’équilibre ».
Les constantes cinétiques d’équilibre
Qu’est-ce que ça veut dire ?
Dans la nature tout interagit potentiellement avec tout, s’associe avec tout mais avec des affinités variables. Je simplifie à coups de hache. Ce qui change c’est la stabilité de l’interaction, et une constante cinétique d’équilibre mesure le temps de stabilité de l’interaction.
Il y a des molécules qui ont tendance à interagir longtemps, ce sont des temps très brefs à notre échelle, et des molécules qui vont interagir dans un temps très très bref, c’est-à-dire qu’elles ont très peu d’affinité entre elles.
Effectivement on a trouvé le gène du développement embryonnaire qui doit vous donner l’oreille tordue et on s’est dit c’est génial, on va trouver stéréospécifiquement où va la molécule mais, quand on regarde avec quoi elle interagit, elle est capable d’interagir avec des milliers d’autres molécules.
On en est là à l’heure actuelle. Ce problème se pose et en général on ne le dit pas trop. De temps en temps, c’est trois lignes dans Le Monde quand ça paraît dans le grand public, et même dans les articles scientifiques qui paraissent dans Nature, souvent on n’en parle pas ou alors c’est quatre mots à la fin de l’article dans la discussion.
C’est pour cela qu’on patine. Nous n’avons pas une biologie théorique reconnue comme il y en a par exemple en physique, et pourquoi ? On peut se poser la question. Il y a peut-être des traditions puisque c’est une science naturelle liée à l’observation et on peut se demander aussi si on n’est pas dans un gros pétrin épistémologique puisqu’on n’a pas fait les bonnes choses au bon moment.
Si vous reprenez ici (voir la Figure 1), à cause de la stéréospécificité, chaque fois que vous mettiez en présence ces molécules, vous aviez toujours le même être, ce rectangle qui apparaissait.
Maintenant, si on introduit le fait que les molécules ne sont pas spécifiques, qu’elles peuvent interagir au hasard, vous allez en avoir une multitude parce que vous aurez de nombreuses possibilités d’interaction et d’autres structures qui apparaîtront puisqu’il n’y a plus de règle de spécificité :
Si on intègre cette donnée expérimentale, tout le schéma du réductionnisme génétique tombe puisqu’à partir d’un ensemble de molécules, vous n’avez plus une seule structure qui sort quasi automatiquement par ce mécanisme d’assemblage, mais vous avez plusieurs structures potentielles. Lorsque la question est évoquée – on n’aime pas trop l’évoquer –, la réponse habituelle consiste à dire, dans la partie discussion des articles, qu’il existe un co-facteur non encore identifié qui va conférer la spécificité, qu’il y a ce système-là mais qu’une autre molécule non encore découverte viendra se mettre sur les premières, leur donner de la spécificité et contraindre le système à évoluer vers le rectangle, qu’il faut continuer le même programme de recherche.
Cet argument est usé et archi-usé depuis vingt ans, trente ans. Au tout début, quand j’ai fait mes premiers topos, j’avais beaucoup de mal à suggérer que les protéines ne sont pas spécifiques. Aujourd’hui c’est un fait, mais vous pouvez toujours rajouter un cofacteur postulé. Évidemment ce n’est pas un argument scientifique. C’est un argument, au sens de Popper, irréfutable.
Le problème qui s’était posé à Morgan au niveau de la génétique formelle réapparaît au niveau moléculaire puisqu’on n’a pas fait l’effort théorique en 1930. À l’époque, la spécificité de la relation entre le gène et le caractère phénotypique était en jeu. On n’avait pas trouvé cette spécificité des gènes et on retombe exactement dans le même problème. On est parti dans la fuite en avant technologique et ce qu’on a voulu éviter nous rattrape.
Donc le co-facteur spécifique, évidemment, mais comment se fait-il que depuis trente ans on n’isole que des facteurs non spécifiques ? Un malin génie s’acharne contre les biologistes et on n’arrive pas à trouver la bonne combinaison spécifique.
Avec le temps qui passe, on commence à lire de plus en plus d’articles qui font référence à des mécanismes stochastiques[5] Stochastique : qui dépend, qui résulte du hasard ; qui relève du domaine de l’aléatoire, du calcul des probabilités [nde].. C’est obligatoire puisqu’en vérité, on n’est plus dans un système statique déterministe. On est dans un système dynamique où tout s’accroche avec tout, plus ou moins. Des interactions plus ou moins stables se font et se défont en permanence. On est dans un système dynamique d’équilibre et chaque structure a une probabilité d’existence en fonction des concentrations de chaque constituant et de ses constantes cinétiques.
Alors, la solution que j’ai proposée – en fait je ne l’ai pas proposée dans le sens où je vous l’expose, j’étais parti d’un problème plus concret au départ – est d’introduire les mécanismes darwiniens de hasard et sélection à l’intérieur de l’organisme.
C’est l’idée que, d’une part, les gènes fabriquent des protéines qui par elles-mêmes peuvent donner naissance à une diversité de structures mais que, d’autre part, ce n’est pas suffisant pour construire un être, que s’adjoint une contrainte sélective, un mécanisme de sélection qui vient dans l’organisme trier – là aussi je simplifie à coups de hache – parmi l’ensemble des possibles :
Les gènes donnent cette diversité de structures possibles. Un mécanisme de sélection vient de l’organisme, du phénotype lui-même, pour trier et contraindre le système[6]À différentes reprises l’auteur utilise le terme « pour » (ici, dans la formule « pour trier et contraindre »), non pas dans une optique finaliste, mais pour … Voir plus, par exemple sélectionner la structure rectangle.
Dans le réductionnisme génétique, l’organisme se construit en sens unique à partir des gènes (ori-gine). Dans ce schéma darwinien, l’ontogenèse se fait par un double mouvement : 1) contrainte sélective qui rentre dans l’organisme et 2) qui vient trier sur l’ensemble des possibles produits par les gènes :
C’est un peu abstrait. Je vais essayer d’expliquer dans des termes plus concrets, mais simplement pour dire que, dans ce schéma-là, ça n’a l’air de rien puisque c’est juste rajouter une flèche dans ce sens-là, de ce côté-là. Mais en vérité c’est sortir du paradigme génétique tel qu’il a été formulé au départ. Ce paradigme n’a jamais été remplacé.
Remarque : pourquoi mécanismes darwiniens ? C’est l’idée qu’il y a du hasard moléculaire qui crée une diversité de possibles puis la sélection vient contraindre et on retrouve à ce stade-là, cellulaire, un mécanisme de hasard-sélection de type darwinien. Il est important de souligner que pour décrire ce mécanisme on emploie deux mots, hasard-sélection, mais les deux phénomènes se produisent en même temps, c’est un processus sans origine. Dans le mécanisme génétique, l’origine ontogénique c’est le gène. Ici il n’y a plus d’origine donc plus de gène. L’adn est un générateur probabiliste de protéines. La cellule ou l’organisme vient choisir celle dont il a besoin à un moment donné en fonction de ce qu’il est en train de vivre. Ce n’est pas le gène qui en permanence détermine par son programme ce que fait la cellule ou l’individu.
Là je fais « l’hypothèse de l’ontophylogenèse[7]La phylogenèse désigne la formation et le développement des espèces au cours du temps ; l’auteur utilise ici le terme d’ontophylogenèse pour signifier que la phylogenèse découle … Voir plus » ou « hypothèse du tas de cellules », postulat que la sélection naturelle rentre directement dans l’organisme : la pression sélective de l’environnement rentre dans l’organisme, va le contraindre et l’organiser.
D’un point de vue phylogénétique, nous sommes des tas de cellules. Encore aujourd’hui existent des formes de tas de cellules, ce sont soit des colonies bactériennes, soit des protistes eucaryotes, des champignons très rudimentaires. Dans le cadre de la théorie de l’évolution, comprendre un phénomène en profondeur, c’est en même temps comprendre sa cause évolutive.Ce que je vais vous raconter est une hypothèse sur le développement embryonnaire, sur l’ontogenèse, une hypothèse sur l’origine de la multicellularité. La première et principale des contraintes des premiers êtres vivants, encore aujourd’hui, est d’avoir accès à des ressources nutritives pour se développer.
Si vous considérez un tas de cellules, une colonie de cellules qui se développent dans n’importe quel environnement – j’ai figuré un environnement solide avec nutriment dans le sol, pour un environnement liquide c’est la même chose – toutes les cellules ne vont pas être dans une position équivalente par rapport aux ressources.
Les cellules de la première couche ont un accès direct au nutriment, celles de la deuxième auront un peu moins de nourriture que les premières, etc.
Pour que cette colonie puisse se développer verticalement, il faut qu’il y ait transfert du nutriment, soit dans l’espace intercellulaire, soit à travers les premières cellules par diffusion et, obligatoirement, va se former un gradient de nutriment, sa concentration décroît dans la colonie :
Ces cellules doivent consommer une certaine quantité de nutriment pour se multiplier. Va arriver un moment où il n’y en aura pas suffisamment parce que sa concentration diminue dans le gradient à mesure que vous vous élevez dans la colonie et, à un moment donné, les cellules ne pourront plus se multiplier.
Dans ce schéma, ces cellules se situent toutes dans un micro environnement différent et, pour continuer à se développer[8] Ici non plus, « pour » n’a pas de signification finaliste, mais est un raccourci courant (mais inexact) pour rendre compte du processus de hasard-sélection [nde]., elles vont devoir s’adapter, changer, se différencier, activer des enzymes différents qui leur permettront, soit de fonctionner avec moins de nutriment, soit d’utiliser les produits du métabolisme des cellules voisines.
D’une part, l’environnement n’est pas seulement l’environnement extérieur à l’organisme. L’environnement se propage à l’intérieur de l’organisme via ces gradients de métabolites, de nutriments, et donc chaque cellule se trouve dans un microenvironnement différent.
J’ai insisté sur les ressources mais, en vérité, l’environnement n’est pas que la nourriture. Ça peut être aussi la température, la pression, donc l’environnement. Ce sont tous les paramètres, les cellules sont toutes dans des micro-environnements différents.
Nous savons aujourd’hui que le rôle du génome n’est pas celui d’un programme génétique. Ça ne peut l’être puisque les gènes ne sont pas spécifiques et que le génome fonctionne de manière aléatoire. Je ne vais pas rentrer dans les détails, mais j’ai construit un modèle de fonctionnement probabiliste du génome qui permet de produire cette diversité de structures. Donc au niveau moléculaire, vous avez tous ces possibles et, en fonction du gradient dans les cellules, en fonction de la position des cellules dans ce micro-environnement, une sélection se fait et la cellule se différencie en fonction de cette contrainte.
L’idée de base est que la sélection naturelle rentre à l’intérieur de l’organisme – puisque l’environnement n’est pas seulement extérieur mais qu’il se propage à l’intérieur –, que le génome n’est pas un programme mais un générateur aléatoire de protéines, et que les deux activités en même temps arrivent à créer une structure.
Alors, la question qui vient inévitablement est : comment ça se reproduit ? La réponse est, comme pour tout processus physico-chimique : chaque fois que vous êtes dans les mêmes conditions, vous reproduisez le même effet. Donc quand vous serez dans des conditions semblables, de génotype et d’environnement, vous reproduirez le même être.
Évidemment c’est une hypothèse sur l’origine, l’histoire ne s’est pas arrêtée là, d’autres mécanismes sont apparus au cours de l’évolution mais, fondamentalement, l’idée de base est celle du darwinisme.
Pour comprendre ce qui s’est passé par la suite, il est inévitable de comprendre le point de départ qui est ce darwinisme cellulaire. Vous avez du hasard-sélection, les cellules changent de manière aléatoire à cause de la non-spécificité des événements moléculaires et elles s’adaptent à leur micro-environnement cellulaire.
Contre nature ne partage pas nécessairement le point de vue de ses contributrices et contributeurs. Si vous souhaitez critiquer, développer ou échanger sur cet article, n’hésitez pas à le faire sur notre page Facebook et notre compte Twitter. Pour proposer un texte pour publication, prenez connaissance de nos directives de publication puis contactez-nous.
Abonnez-vous à notre newsletter
Notes et références
↵1 | L’ontogenèse (ou ontogénie) décrit le développement progressif d’un organisme depuis sa conception jusqu’à sa forme mûre, voire jusqu’à sa mort [nde]. |
---|---|
↵2 | Discrétiser : rendre discret (distinct, séparé, discontinu), c’est-à-dire, dégager des valeurs individuelles à partir de quelque chose de continu [nde]. |
↵3 | Jean-Jacques Kupiec et Pierre Sonigo, Ni Dieu ni gènes. Pour une autre théorie de l’hérédité, Seuil, 2003 [nde]. |
↵4 | Ubiquitaire : qui manifeste la faculté de se trouver en différents endroits à la fois [nde]. |
↵5 | Stochastique : qui dépend, qui résulte du hasard ; qui relève du domaine de l’aléatoire, du calcul des probabilités [nde]. |
↵6 | À différentes reprises l’auteur utilise le terme « pour » (ici, dans la formule « pour trier et contraindre »), non pas dans une optique finaliste, mais pour expliciter que ce mécanisme a pour effet de trier et contraindre [nde]. |
↵7 | La phylogenèse désigne la formation et le développement des espèces au cours du temps ; l’auteur utilise ici le terme d’ontophylogenèse pour signifier que la phylogenèse découle du même processus de hasard-sélection que l’ontogenèse. |
↵8 | Ici non plus, « pour » n’a pas de signification finaliste, mais est un raccourci courant (mais inexact) pour rendre compte du processus de hasard-sélection [nde]. |