Note de lecture : Philosophy and Simulation III

Un résumé du chapitre 3  du livre Philosophy and Simulation – The emergence of a synthetic reason intitulé Artificial Chemistries and the Prebiotic Soup.

Définitions préalables.

  • pH : gradient qui détermine l’acidité ou la basicité (alcalinité) d’une solution. L’acidité étant l’exportation par une substance chimique de protons (généralement des atomes d’hydrogène dépourvus d’électrons) tandis que la basicité est la tendance inverse à recevoir les protons.

  • Redox : gradient qui met en jeu des transferts d’électrons entre deux substances. Est appelé « oxydant » la substance qui capte les électrons et « réducteur » celle qui les cède.
  • Polymère : molécule ou macromolécule constitué par la répétition, la combinaison et la variété de ses parties constitutives. Dans ce chapitre, elles sont considérées comme des chaînes linéaires bien qu’elles puissent être tridimensionnelles en réalité. Elles peuvent déjà être étudiées dans cette configuration tandis que les recherches portant sur leur aspect géométrique occupent intensivement la communauté scientifique actuelle.
  • Protéine : polymère constitué par la répétition, la combinaison et la variété d’unités appelés acides aminés. Ils sont au nombre de 20 actuellement.
  • Gènes : polymère constitué par la répétition, la combinaison et la variété d’unités appelés nucléotides. Ils sont au nombre de 4 actuellement.
  • Catalyseur : substance chimique capable d’accélérer une réaction particulière sans en être affectée. Cela est réalisé par le biais d’une complémentarité géométrique entre la substance catalysée et le catalyseur, ce dernier servant de support pour déséquilibrer, accrocher, tordre ou déformer la première afin d’en faciliter le transport.
  • Enzyme : protéine possédant des capacités catalytiques par elle-même. La chaîne d’acides aminés le constituant servant de navette pour le proton ou l’électron à transférer d’une substance à une autre.
  • Soupe prébiotique : modèle expérimental qui se propose d’analyser l’émergence des conditions nécessaires à la création des êtres vivants à partir de substances inertes.

Les données du problème.

 Introduction de nouveaux gradients (c’est-à-dire de nouvelles virtualités) liés à la prise en compte d’une réalité plus complexe, à savoir la composition hétérogène du milieu aqueux (c’est-à-dire un composé liquide qui contient en plus de l’eau d’autres substances chimiques) :

  • le gradient pH (ou potentiel hydrogène)
  • le gradient redox (ou oxydoréduction)

Il est à noter qu’à travers ces deux gradients, on conserve la tendance vers un état neutre ou de dissipation mais cette fois on ne considère plus des flux d’énergie mais des flux de matière.

Il faut tout d’abord expliquer la formation de nouvelles substances chimiques, composées à partir de substances primordiales. Ces nouvelles substances, susceptibles de se comporter selon les nouveaux gradients, ne se contentent donc pas d’apporter de la nouveauté dans un espace de possibilités défini une fois pour toutes ; elles modifie l’espace de possibilité en augmentant les potentialités. Conséquence : il faut trouver d’autres moyens pour explorer l’espace de possibilités lié à la chimie, c’est-à-dire formuler autrement les singularités et la causalité indépendante de tout mécanisme.

 On considère que dans les conditions de la soupe prébiotique, les premières polymérisations ont été le fait de protéines archaïques. Dans cette situation, les polymérisations doivent s’opposer à l’action dissolvante du milieu aqueux. C’est le rôle des catalyseurs puisqu’ils accélèrent une réaction chimique sans en être eux-même affectés. Les catalyseurs combinent donc des flux d’énergie (pour produire l’accélération) et des flux de matière (pour accélérer telle réaction et non telle autre).

 Mais la catalyse par une substance extérieure présente un inconvénient. Elle demande une concentration élevée de cette substance qui est à terme un obstacle à la croissance d’un organisme. Une réponse à ce problème est apportée par les enzymes qui, en dotant l’organisme d’un pouvoir catalytique autonome, libère les possibilités de croissance et de complexité. Le souci étant que les enzymes supposent un organisme constitué. On suppose alors que dans les conditions de la soupe prébiotique les capacités auto-catalytiques des premiers polymères ont été réalisés par la formation de boucles auto-catalytiques. C’est-à-dire qu’on suppose qu’un polymère rudimentaire se constitue et favorise également, en tant que catalyseur, la formation d’un autre polymère qui la catalyse en retour. À partir de ce premier circuit, un autre polymère ne peut s’y intégrer qu’à la condition qu’il favorise la formation d’un des membres présents et si en retour sa formation peut être catalysée par un des polymères déjà présents.

 La question devient donc de savoir si la formation d’une telle boucle auto-catalytique est possible dans les conditions de la soupe prébiotique. Et puisque celle-ci doit être reconstituée artificiellement, cela revient à explorer les espaces de possibilité de l’hypothétique soupe prébiotique reconstituée.

L’exploration des espaces de possibilités.

Il faut en effet compter au moins deux espaces de possibilités.

Le premier concerne les possibilités de composition et de longueurs des polymères possibles (on le nommera ci-après espace A). Le second concerne l’ensemble des réactions chimiques possibles entre tous ces polymères envisagés (on le nommera ci-après espace B).

a) Dimensions

Soit le problème visant à définir la taille de ces espaces. Dans le cas de l’espace A, et sachant qu’il existe de nos jours 20 aminoacides et qu’une petite enzyme de nos jours compte une longueur d’environ 300 aminoacides, on obtiendra, rien que pour un polymère de 5 aminoacides de long, un espace de plus de trois millions de possibilités (205). Dans le cas de l’espace B, on va encore plus loin. En effet, chaque polymère considéré en tant que résultat peut l’être à partir de plusieurs combinaisons possibles, tandis que considéré en tant qu’élément constitutif, il peut servir réciproquement à la formation de plusieurs composés différents. Enfin, l’espace B n’est pas qu’un espace de composition, il est également un espace de décomposition équivalent ; une réaction chimique pouvant indifféremment former ou casser un polymère.

Enfin, il aurait bien un autre paramètre à considérer. Ce serait celui de la distribution des capacités catalytiques à la jointure entre ces deux espaces. Mais puisque le problème de la formation tridimensionnelle des protéines n’est pas résolue, il sera admis que cette distribution est aléatoire puisque des résultats significatifs peuvent quand même apparaître.

À partir de là, il faudrait obtenir une probabilité significative quant à la formation de boucles auto-catalytiques.

b) Représentations.

Chaque polymère représente un point. Chaque réaction chimique est représenté par un trait reliant deux points. Étant donné que le nombre de traits croît exponentiellement par rapport au nombre de points, la probabilité que se forme des boucles auto-catalytiques croît proportionnellement. Mais pour renforcer cet argument, il faudrait pouvoir suivre à travers une simulation l’évolution d’une population de polymères, les voir croître en longueur et former pas à pas des boucles auto-catalytiques.

Deux types de représentations peuvent être explorées. La première repose sur une discrétisation des polymères, c’est-à-dire qu’on suit un polymère en tant qu’individu et on observe les interactions auxquelles il est confronté. La seconde, appelée métadynamique, repose sur une approche continue à partir d’équations différentielles. Ce qui est observé, ce ne sont plus les individus mais les taux de variation (clivage ou condensation des polymères), les taux de concentration de polymères d’une longueur donnée, etc.

c) Simulations

L’approche métadynamique : la soupe prébiotique est représentée comme une cuve à réaction chimique, appelé aussi réacteur, dans laquelle un nombre fini de réactions chimiques a lieu, chacune de ces réactions pouvant être représenté sous la forme d’une équation différentielle. Ainsi, on a établi un espace de possibilité pour ce jeu précis d’équations. Il faut toutefois se rappeler qu’à partir de réactions chimiques données, de nouvelles réactions peuvent apparaître. Autrement dit, l’espace de possibilités du réacteur augmente par rapport à sa situation initiale. C’est pourquoi il faudra coupler à l’espace de possibilités en points et en arêtes, un espace d’états qui permette d’associer une configuration du premier en fonction d’une évolution marquée par le second. On admettra qui plus est que cet espace est structuré autour d’une unique singularité consistant en un attracteur représentant un état d’équilibre en fonction d’un seuil de concentration pour toutes les espèces de polymères qu’on a introduit.

Car, en effet, le réacteur doit être alimenté par une population de monomères ou de polymères rudimentaires qui sont identifiés. Le processus est lancé à l’intérieur de la cuve jusqu’à l’obtention de l’état d’équilibre. Une fois en ce point, on fait la liste des polymères obtenus au-delà et en deçà du seuil de concentration lié à l’attracteur. Les polymères au-delà du seuil sont conservés et ceux en-deça sont supprimés. Le graphe représentant les polymères et leur réactions est mis à jour en introduisant les nouvelles espèces ainsi que les nouvelles réactions possibles. Le jeu d’équations caractérisant ce nouvel espace est également mis à jour. La simulation est alors relancé et ainsi de suite jusqu’à ce que le réacteur atteigne un état d’équilibre constant, c’est-à-dire qu’il n’est plus susceptible d’évolution. On observe alors le graphe pour voir s’il contient des nœuds reliés en un réseau fermé. Un tel réseau fermé sur lui-même représente une boucle auto-catalytique. L’expérience est reconduite en modifiant divers paramètres de contrôle et on observe que la formation de boucles auto-catalytiques est récurrente donc très vraisemblable.

Mais si d’autres simulations, construites sur des modèles différents, arrivaient aux mêmes résultats, ce serait encore plus vraisemblable.

L’approche discrète : les polymères sont décrits à partir d’une chaîne de symboles. Mais cette chaîne n’est pas seulement un nom ou une étiquette à des fins d’identification, elle doit pouvoir être également traité par le processus que l’on simule. À ce titre, la chaîne de symboles qui décrit un polymère, et le traitement qu’on veut lui faire faire, a des propriétés que l’on trouve également dans certains types de programmes informatiques, ceux que l’on appelle les programmes récursifs. Il faut pour cela admettre que tout programme informatique est double : étant lui-même assimilable à une chaîne de symboles (les symboles étant 1 et 0), il peut soit servir de données pour un autre programme (comme c’est le cas lorsqu’on le copie d’un disque vers un autre), soit être lui-même exécuté en tant que programme et manipuler d’autres chaînes de 1 et de 0. Il en va de même pour une enzyme : tantôt elle est un simple polymère pouvant subir des changements, tantôt, sous réserve qu’elle trouve la forme géométrique adéquate, elle est un catalyseur pouvant affecter d’autres polymères. Mais si on se rappelle qu’un polymère peut soit être brisé, soit être augmenté par une réaction, sans cesser d’être un polymère et au-delà en conservant la possibilité de devenir une enzyme, il faut bien admettre qu’un programme tiers ne peut modifier, ajouter, effacer la chaîne de 1 et de 0 qu’est un programme conventionnel sans le détruire en tant que programme. C’est pourquoi on ne considère que les programmes dits récursifs qui se caractérisent par la transformation des paramètres qu’ils reçoivent en entrée en données produites en sortie. Pour peu que les entrées soient des programmes, il est alors produit en sortie d’autres programmes. De ce point la similarité avec les enzymes est reproduite et il devient possible d’imaginer comment à partir d’instructions rudimentaires répétées récursivement un ensembles de fonctions peut progressivement produire un ensembles d’autres fonctions plus complexes.

La simulation démarre avec une population d’environ 1000 fonctions. Pour simplifier, on considère que ces fonctions entrent en collision de manière aléatoire, c’est-à-dire qu’on fait fi d’éventuelles proximités spatiales entre elles ou, ce qui revient au même, qu’on leur impose un environnement hautement excité. Le programme récursif consiste à prélever deux fonctions dans l’environnement dont l’une va agir comme un enzyme et l’autre comme un polymère cible puis de relâcher les fonctions produites en sortie dans la population. On déduit que plus une chaîne de symboles est fréquente plus la concentration du polymère concerné augmente. La population est conservé à un chiffre constant en supprimant aléatoirement les chaînes de symboles en excès ce qui équivaut à faire jouer un mécanisme de sélection. De cette façon, il ne reste à une chaîne de symboles qu’à devenir le résultat d’une séries stables d’interactions entre fonctions pour avoir une chance non négligeable de rester présente. Et la seule façon qu’il existe de créer des séries stables d’interactions consiste à afficher une fermeture catalytique. Ainsi, la plus simple des boucles auto-catalytique consiste-t-elle en une fonction qui agit sur une autre en tant que simple chaîne de symboles pour en produire une troisième. Cette dernière ayant la capacité, en tant que fonction, de produire la première.

Conclusion

L’isomorphisme qui a été établi entre les deux méthodes de simulation s’étend aux résultats observés dans les réalisations de la chimie expérimentale. Autrement dit, en s’interrogeant sur la soupe prébiotique, qui est une fiction théorique, on dégage la structure d’espaces de possibilités qui permettent de comprendre les réactions chimiques réalisées aujourd’hui.

Concernant l’apparition de la vie, la possibilité de boucles auto-catalytiques ne suffit pas à l’expliquer entièrement. En effet, ces boucles ne savent pas garder l’information qui a produit leur émergence et ne peuvent donc la transmettre. Une solution possible consiste à partir du fait que les boucles auto-catalytiques ne s’appliquent pas parmi les polymères qu’aux seules protéines mais également au nucléotides qui ont la possibilité de servir de modèles pour se répliquer.

Ce sera l’objet du prochain chapitre.

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s