Philosophy and Simulation : Interlude

Manuel DeLAnda

Cette série d’articles sur le livre de Manuel DeLanda doit être comprise comme une tentative de vulgarisation scientifique à travers le prisme philosophique. Il ne s’agit pas de décrire des réalités scientifiques en tant que telles mais d’en extraire progressivement un ou plusieurs concepts scientifiques et de voir comment ils peuvent intéresser la formation d’un ou plusieurs concepts philosophiques. Par exemple, le concept d’émergence est un concept scientifique déduit à partir d’observations elles-même scientifiques et, à l’intérieur de chaque chapitre, Manuel DeLanda décrira comment ce concept se conserve et se spécifie selon la nature des phénomènes observés. Ce n’est qu’après avoir fait le tour de ces descriptions que l’on se demandera quel peut-être la caractérisation et la pertinence d’un concept philosophique d’émergence. C’est aussi le cas en ce qui concerne la simulation. Après en avoir étudier à chaque fois les procédés, on se proposera d’en tirer des hypothèses sur les continuités et les ruptures qui sont introduites par rapport au type de représentation ainsi forgée.

1) On se souvient que tout système étudié peut l’être en :

  • ses propriétés actuelles ;
  • ses capacités potentielles ;
  • et ses tendances virtuelles.

Manuel DeLanda ne détaille pas ces termes (peut-être l’a-t-il fait dans un précédent livre ?) mais on peut néanmoins affirmer que l’existence de tendances virtuelles dans un système est liée à l’existence de gradients. Ainsi la tendance à l’équilibre du système que représente un volume d’eau est-il lié à l’existence des gradients à l’œuvre à travers les propriétés de pression et de température. Si l’on veut se pénétrer de la rupture qu’introduit la notion scientifique d’émergence, la compréhension de ce qui est virtuel me semble fondamentale et peut se résumer ainsi :

La virtualité est un second mode d’existence réelle.

Le premier mode, c’est le mode actuel et c’est celui que nous connaissons tous : « je ne crois que ce que je vois ! ». Autrement dit, il n’y a de réalité que tangible, mesurable, matérielle, décomposable en ses élements constitutifs.

La réalité virtuelle n’existe pas en soi mais existe à travers les éléments actuels sur lesquels elle agit sous l’effet des gradients. Ainsi, les équations différentielles se basent sur des mesures d’éléments actuels (vitesse et position par exemple) et identifient des comportements à travers des variations qui affectent les grandeurs mesurées. L’étude des comportements peut faire apparaître des tendances structurelles liées au phénomène observé. Autrement dit, les gradients agissent dans la matière comme des tenseurs qui la polarise ou des vecteurs qui l’oriente. Que les comportements provoqués soient réguliers, périodiques ou chaotiques, la réalité virtuelle apparaît lorsque l’observation ne concerne plus uniquement la nature des choses (leur réalité actuelle) mais les comportements et les évènements auxquels on peut les rapporter. Ce statut de la réalité virtuelle, à la fois dans la matière et immatérielle, (on dira que la réalité virtuelle est immanente à la matière) appelle à la construction d’un espace spécifique et à la découverte de causalités spécifiques à l’intérieur de cet espace. On appelera avec DeLanda « espace des possibilités » d’un système l’espace dans lequel les gradients agissent sur le système, « singularités » les points autour desquels se structure cet espace et « cause indépendante de tout mécanisme » le type de causalité qu’on découvrira à l’intérieur de cet espace. Enfin, on prend soin de ne parler d’espace de possibilités que pour et par un système étudié. On peut en effet imaginer un espace de possibilités qui contiennent tous les espaces de possibilités mais on ne voit pas pourquoi ce qui est impossible pour l’espace actuel, savoir l’appréhension de son infinité, serait possible pour un « espace total virtuel ». Et ce le serait d’autant moins que l’observation des phénomènes d’émergence nous démontrera scientifiquement la possibilité sans cesse reproduite de la nouveauté dans le monde, possibilité produite une fois pour toutes en ce qui concerne la seule nature actuelle des choses dans l’hypothèse du Big Bang.

2) Lorsqu’on étudiait la formation des tempêtes, on avait affaire à des volumes d’eau, c’est-à-dire à des ensembles d’éléments homogènes que sont les molécules d’eau. Que se passe-t-il si on observe le comportements d’ensemble d’éléments hétérogènes, c’est-à-dire d’éléments dont la composition diffère ? On aborde au domaine de la chimie. Et que se passe-t-il si on considère ces ensembles d’éléments hétérogènes non plus mis en relation par le hasard des rencontres mais constitués et opérés sous une membrane qui les isole ? On aborde au domaine de la biochimie, autrement dit à celui des organismes vivants.

Les phénomènes d’émergence nous font traverser les dimensions plurielles de la réalité, les unes servant de support à d’autres : les éléments matériels servant de support à aux composés chimiques, ces derniers servant de support aux organismes élémentaires et ainsi de suite. Dans le jargon scientifique contemporain, l’imbrication de toutes les échelles ainsi identifiées (imbrication car une échelle de réalité servant de support ne cesse pas de fonctionner pour son propre compte pour autant : la contamination radioactive continue par exemple de chambouler la matière dans un environnement qui aimerait la voir stabilisée une fois pour toutes), l’imbrication de toutes ces échelles donc est nommée « complexité ».

On avait tenté de restituer un tel mouvement susceptible de traverser les strates de la réalité en résumant le « plateau » Géologie de la Morale de Deleuze et Guattari (Mille Plateaux). Il s’agissait dans cet article de montrer les articulations entres divers concepts : strates, péristrates, interstrates, substrates, forme et substance, contenu et expression, déterritorialisation et reterritorialisation. Mais ceux sur lesquels on avait alors insisté était : distinction réelle, présupposition réciproque et relativisme généralisé. À eux trois, il semblait nous servir de clé pour traverser l’ensemble des règnes du cosmos en agençant la première liste de concepts. On serait alors tenté de dire que la tentative deleuzo-guattarienne était l’ébauche d’une pensée apte à formuler la constitution complexe des choses. Ce ne serait pas faux mais ce ne serait pas le plus intéressant. Ce qu’il y a lieu d’observer ne tiendrait-il pas dans l’écart et la spécificité rencontrés entre une construction scientifique de la réalité et une contruction philosophique d’une réalité qui lui fasse écho ? On retrouve alors le concept de « réalité virtuelle » comme nécessaire complément d’une « réalité actuelle », toutes deux formant la réalité matérielle des choses. Présent depuis ses premières œuvres, la prise en compte du virtuel chez Deleuze s’inscrit dans la tradition philosophique qui conteste à la science matérielle au sens strict, c’est-à-dire à la science de la réalité actuelle, également appelée réductionniste, l’épuisement de la réalité des choses. C’était déjà le combat de Bergson et, d’une certaine manière, du point de vue de la postérité académique, ce fut un combat perdu : c’est la conception einsteinienne du temps qui fut retenue contre le concept bergsonien de durée. Bergson se vit rattacher à la tradition spiritualiste de la philosophie et on lui fit le reproche de son mysticisme. Mais la postérité d’un concept philosophique diffère de celle académique. L’entreprise deleuzo-guattarienne de défendre l’existence d’une réalité virtuelle reprit les éléments du bergsonisme, les passa au crible du plan d’immanence spinoziste et les livra a la furia des forces déchaînées par Nietzsche.

Que se passe-t-il quand la science commence à délivrer des résultats qui valident a posteriori les conclusions de travaux philosophiques antérieurs ? On dira alors qu’un néo-matérialisme devient possible ; on garde tout de la matière, on ne lui retranche rien, en fait on la redouble, on lui reconnaît une seconde existence : d’abord actuelle en fonction de ses éléments constitutifs, on la découvre virtuelle en fonction des gradients qui la polarisent ou l’orientent.

3) Ce qui doit également nous interpeller, concernant l’écart et l’écho entre constructions philosophiques et résultats scientifiques, c’est la contemporanéité des œuvres de Deleuze et Guattari d’une part et des premiers travaux scientifiques qui introduisent ces nouveaux concepts dans le domaine scientifiques. C’est la période de l’après-guerre, celle de la seconde moitié du XXème siècle où l’on voit progressivement se consolider les théories informatiques grâce aux travaux de Turing entre autres, la thermodynamique non linéaire d’un Prigogine, la géométrie fractale d’un Mandelbrot, les lois du Chaos d’un Lorenz (entre beaucoup d’autres), la théorie des catastrophes d’un René Thom, etc. De ce point de vue, la démarche de Manuel DeLanda visant à établir les ponts entre ces deux domaines de la pensée, si elle n’est pas la première, doit également être considérer comme inéluctable. Il semble que chaque discipline, en son domaine spécifique, expérimente quelque chose d’analogue à ses voisines. Comment décrire cette vague analogie sans tomber dans la notion on ne peut plus vague d’ « air du temps » ?

Thomas Kuhn et Edgar Morin ont formulé le concept de paradigme pour expliquer ces rapports non linéaires entres disciplines diverses. Pour des raisons de familiarité, je m’arrêterais sur le concept d’épistémè inventé par Michel Foucault pour les Mots et les Choses. Il écrit : « Une telle analyse, on le voit, ne relève pas de l’histoire des idées ou des sciences : c’est plutôt une étude qui s’efforce de retrouver à partir de quoi théories et connaissances ont été possibles […]. Il ne sera donc pas question de connaissances décrites dans leur progrès vers une objectivité dans laquelle notre science d’aujourd’hui pourrait enfin se reconnaître ; ce qu’on voudrait mettre au jour, c’est le champ épistémologique, l’épistèmè où les connaissances, envisagées hors de tout critère se référant à leur valeur rationnelle ou à leurs formes objectives, enfoncent leur positivité et manifestent ainsi une histoire qui n’est pas celle de leur perfection croissante, mais plutôt celle de leurs conditions de possibilités ; en ce récit, ce qui doit apparaître, ce sont, dans l’espace du savoir, les configurations qui ont donné lieu aux formes diverses de la connaissances empiriques ». Autrement dit, on serait tenté de dire que l’épistémè agit comme un espace de possibilités pour des énoncés de savoir et l’analyse, l’archéologie, tente d’en dégager les singularités. C’est une tentation, c’est-à-dire que c’est une hypothèse, et il faudra précisément caractériser, dans le cadre néo-matérialiste proposé par DeLanda, en quoi des énoncés de savoir entrent (quitte à le modifier) dans un quelconque espace de posssibilités.

On peut néanmoins déjà remarquer qu’à l’instar des populations de molécules d’eau, ou des populations de composés chimiques, l’étude foucaldienne telle qu’elle se réfléchit dans l’Archéologie du Savoir prend pour objet d’études des populations d’énoncés. L’expression « population d’énoncés » existe chez Foucault et on peut affirmer que la caractérisation qu’il en donne s’accorde avec la façon dont on caractérise une population en général et telle qu’elle sont décrits par DeLanda en particulier. On identifie tout d’abord une population par une loi superficiellement paradoxale de rareté. En effet, une population quelle qu’elle soit n’épuise pas la possibilité qui la fonde. Pour le dire vite, une population d’êtres vivants n’est qu’un instantané des possibilité de l’espèce qu’elle actualise. Autrement dit, une population implique un espace statistiques de possibilités qui la déborde et c’est la raison pour laquelle elle obéit à une loi de rareté. Ensuite, la population ne se donne qu’à travers une loi d’extériorité entre ses éléments. Comment en effet pourrait-on étudier une population en tant que telle si son concept implique une unité supérieure qui la transcende et par là annule la composition populeuse de ce même ensemble ? Loi d’extériorité veut dire qu’aucune relation a priori n’est établie entre les éléments d’une population, autrement dit que toutes les relations qui pourraient être établies ne le sont qu’à partir de la description des éléments actuels. C’est là la condition même de l’immanence qu’on observe entre gradients virtuels et éléments actuels ; s’il n’y a pas d’éléments actuels, aucun gradient virtuel ne peut exister en soi. Enfin, les populations s’appréhendent à traves une loi de cumul qui redouble dans la dimension du temps l’extériorité qu’on leur prête dans la dimension spatiale. Il n’y a pas plus d’unité transcendante dans le temps qu’il n’y en a dans l’espace ; il existe par contre des phénomènes de répétition, de rémanence, de récursivité ou d’additivité qui rendent possibles l’établissement a posteriori de relations entre éléments. Quant au concept d’énoncé, on pourrait se demander si la définition qu’en donne Foucault ne vise pas à réduire un simple fait de langage à sa plus pure actualité, à débarrasser tout fait de langage des virtualités qu’on serait tenté d’y inclure a priori ou des actualisations qui le dépouilleraient de sa singularité. Ainsi, si l’énoncé se distingue de la phrase, c’est qu’on souhaite ne pas prendre en compte la virtualité que serait le sens de telle ou telle phrase, virtualité qui nous ouvrirait les portes de l’interprétation infinie. S’il faut distinguer l’énoncé d’une proposition, c’est pour ne pas prendre en compte la virtualité que forme le raisonnement logique dans lequel on chercherait à l’inclure pour ensuite l’infirmer ou le confirmer en fonction d’un critère de vérité qui lui serait extérieur. S’il faut enfin se garder d’identifier énoncé et acte illocutoire, c’est parce qu’il faudrait ne pas tenir compte de l’actualité d’un dispositif dans lequel l’énoncé à une fonction qui lui assigné par le dispositif lui-même et lui retire sa singularité. Réduire l’énoncé à sa pure actualité, à ses modalités d’existence (c’est-à-dire : qui parle ? Quel en est le support ? D’où parle-t-on ? En réponse à quels autres énoncés ? Quels énoncés vont-ils être suscités en retour ?) delivrera alors la possibilité de découvrir de nouvelles intelligibiltés à l’intérieur de pratiques discursives, c’est-à-dire à l’intérieur de phénomènes de population discursive. Alors ce sont les régularités discursives qui émergeront, puis les savoirs et enfin l’épistémè. L’important c’est que la démarche archéologique ne déduise rien en terme de relation ou d’effet d’ensemble qui ne soit préalablement et strictement extrait d’une population d’énoncés ordonnée dans un espace qui en configure la dispersion et la dissémination.

4) Les thèses des Mots et des Choses sont célèbres. L’épistémè classique (XVI,XVIIème) n’est pas l’épistémè de la renaissance (XVème) et n’est pas non plus l’épistémè moderne (XVIII, XIXème). Et, il ajoutera en conclusion que l’épistémè moderne, en 1966, est quand même bien finisssante. Plusieurs questions se posèrent dès la parution de l’essai : pourquoi l’analyse archéologique pour un découpage somme toute assez peu révolutionnaire ? Pourquoi annoncer une fin (notamment une mort de l’Homme) quand on reste circonspect sur ce qui serait alors en train d’advenir ? Si on fait nôtre l’hypothèse d’une épistémè du XXIème siècle telle que DeLanda essaie de nous la synthétiser, et en attendant de la décrire plus précisément, on peut rétrospectivement apporter de nouvelles réponses. Ainsi, l’analyse archéologique serait une méthode de la nouvelle épistémè puisqu’elle décompose et recompose dans les termes et les procédés qui lui conviennent les phases historiques qui la précèdent notamment en reconstruisant une mutation historique comme un phénomène émergent à partir d’une population d’éléments historiques réduits à leur plus stricte actualité. Ainsi, il n’est pas nécessaire d’être disert sur ce qui supplante l’ancienne épistémè puisque ce qui importe c’est de se doter progressivement de l’intelligence nécessaire pour apercevoir, sur le sable où s’efface le visage de l’Homme, les figures d’une humanité émergente,ni pire ni meilleure, seulement autre.

La fausse modestie, et le véritable humour, de Michel Foucault sont particulièrement appréciables aujourd’hui où il semble bien que les pratiques discursives que sont l’anticipation et la futurologie fassent dorénavant partie des discours les plus en vogues. Et certes, nous ne nions pas qu’il y ait des analyses de qualités en ces domaines puisque toutes incluent une expérience plus ou moins fine et précise de ce qu’est une évolution. Mais on reconnaîtra justement une bonne analyse d’une mauvaise de l’extension indue qui est donnée à une évolution. Soit l’exemple d’une évolution technologique, l’informatique en nuages. Autour de cette technologie actuelle joue une évolution qui pousse à la concentration monopolistique des espaces stockages de données. Il faudrait dire que cette évolution, qui s’actualise dans la politique de Google entre autres, actualise un gradient qui reste virtuel en tous les cas. Autrement dit, la tendance à la concentration monopolistique existera toujours mais il est faux d’en déduire qu’elle sera réalisée quoiqu’il arrive et surtout épuisée actuellement parce que cela reviendrait à dire que la réalité virtuelle de cette tendance cesse d’exister en tant que réalité virtuelle. Si nos hypothèses s’avèrent fondées, une réalité virtuelle est et reste virtuelle sans cesser d’influer sur une réalité actuelle qui la double en la rendant possible. Inversement, il existe une tendance simplificatrice en histoire (mais l’histoire a toujours été un domaine privilégiée pour toutes les simplifications) strictement liée à l’embellie contemporaine concernant la futurologie qui consiste à donner une profondeur historique insoupçonnée à des tendances observables aujoud’hui seulement. Les outils conceptuels d’une épistémè ne s’exportent pas aussi facilement dans une autre, que ce soit du passé vers l’avenir ou de l’avenir vers le passé, et doivent en conséquence faire l’objet d’une caractérisation précise qui légitiment les conditions d’usage lors d’un tel transport. Ce n’est pas parce que des phénomènes spectaculaires s’observent aujourd’hui que la téléologie est restaurée pour autant. C’est un biais que l’on peut observer dans le domaine du « transhumanisme ». Il est probable qu’une littérature de qualité existe à ce sujet ; il est également certain qu’une littérature de très mauvais goût s’y développe aussi.

La méthode foucaldienne, ou plutôt la démarche tant le philosophe historien refusait toute systémacité dans son œuvre, s’avère être d’une précieuse utilité tant contre les récits rétrospectifs du passé que contre les storytellings prospectifs. Elle oppose la résistance et l’inertie d’un présent souverainement actuel.

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s