Complexité
Sommaire
Définition
La complexité d’un système tient au moins à trois facteurs :
- le degré élevée d’organisation ;
- l’incertitude de son environnement ;
- la difficulté, sinon l’impossibilité d’identifier tous les éléments et de comprendre toutes les relations en jeu. D’où l’idée que les lois permettant de décrire un système ne peuvent être purement déterministes, ou, tout au moins, que son comportement global ne permet qu’une prédictivité réduite.
Pourquoi étudier les systèmes complexes ?
Inaccessible jusqu'à aujourd'hui, l'étude des systèmes complexes révèle des mécanismes et des lois qui s'appliquent à tous les domaines de la vie courante.
Quel est le point commun entre un cerveau, une colonie de fourmis, un marché financier, un réseau aimanté, une société humaine ou une chaîne de production industrielle ? Tous sont des ensembles d'un grand nombre de constituants en interaction. Leur comportement global résulte de la totalité des interactions de leurs constituants les plus élémentaires. Les sciences de la complexité sont nées du constat selon lequel, dans des domaines scientifiques variés, on rencontre des systèmes complexes d'apparences très différentes, mais qui peuvent être étudiés par des méthodes similaires.
Le comportement d'un système complexe n'est en général pas prévisible par les méthodes analytiques classiques. En revanche, l'utilisation de techniques développées dans une discipline pour étudier les systèmes d'une autre discipline s'est montrée extrêmement fructueuse et c'est l'ensemble de ces techniques qu'il est maintenant convenu d'appeler les sciences de la complexité. Les maîtres mots de cette nouvelle science sont modélisation, simulation et optimisation.
Vue d'artiste de l'atmosphère Jovienne
En 1984, l'Institut de Santa Fe est fondé au Nouveau-Mexique pour l'étude des systèmes complexes, dans tous les domaines où ils se manifestent. Il est créé à l'initiative d'un certain nombre de scientifiques de différentes disciplines, tels George Cowan qui avait été directeur de la recherche au Laboratoire de Los Alamos et qui fut le premier président de l'Institut, Murray GellMann, prix Nobel de physique et inventeur des quarks, Philip Anderson, prix Nobel de physique pour ses travaux sur la matière condensée, et encore Kenneth Arrow, prix Nobel d'économie, considéré comme un des pères de l'économie moderne. Des biologistes, des informaticiens et beaucoup d'autres se sont associés à leur entreprise commune: jeter les bases de nouvelles méthodes d'analyse pour mieux prédire et mieux comprendre le comportement des systèmes complexes qu'ils rencontrent dans leur discipline et qui font apparaître un grand nombre de ressemblances. La dynamique économique, par exemple, est semblable par bien des aspects à une dynamique écologique, où de nombreuses espèces en interaction apparais-sent et disparaissent.
Fascinantes complexités
La question est de savoir si, au-delà des ressemblances apparentes, il existe un lien plus profond. La similitude est-elle superficielle (deux phénomènes peuvent se ressembler en apparence, sans avoir de points communs) ou profonde (des mécanismes sous-jacents identiques sont-ils à l'oeuvre) ? Si elle est profonde, il faut alors identifier et décrire ces mécanismes sous-jacents à l'oeuvre dans des domaines si éloignés. Ainsi, les sciences de la complexité font un large usage de la métaphore où un système complexe est utilisé pour en décrire un autre, mais elles respectent des méthodes d'analyse et d'évaluation rigoureuses, et, à ce titre, méritent d'être qualifiées de sciences. Elles utilisent les connaissances acquises dans un domaine en les transférant à un autre : ainsi des connaissances acquises sur le comportement des fourmis sont utilisées pour résoudre des problèmes d'économie ou de management. Les systèmes complexes sont omniprésents, que ce soit en biologie –la source d'inspiration la plus importante–, en physique, en informatique ou en économie. De nouvelles méthodes d'analyse sont indispensables dès que l'on souhaite les étudier en détail, sans faire appel à des simplifications qui les dénaturent. Comprendre comment fonctionne du système et on résoudrait ces équations, mais, générale-ment, on ne sait pas les écrire. Pensons, par exemple, à l'eau dont nous connaissons bien la structure, mais pour laquelle nous sommes incapables de calculer les températures de congélation et d'ébullition à partir des interactions de ses molécules.
Une des méthodes les plus utilisées est la simulation à base d'agents: on construit un modèle du système considéré en se plaçant au niveau de ses constituants –nommés agents – et on décrit, dans ce modèle, les interactions des constituants. Le modèle théorique construit, on développe un pro-gramme d'ordinateur qui simule le fonctionnement de ce modèle. Si le modèle et le programme sont corrects, le déroulement du programme reproduit fidèlement le comportement du système réel. Il suffit alors de laisser tourner le programme et d'observer ce qui en résulte pour savoir comment le système réel se comporte. Bien que la méthode semble simple, il est souvent difficile de construire un bon modèle ou de savoir comment choisir les valeurs des paramètres pour que le programme se déroule correctement.
Lorsqu'on dispose d'un modèle satisfaisant permet-tant une simulation réaliste, on s'interroge souvent sur les conditions qui permettent au système de fonctionner le plus efficacement possible, ce qui ressort de l'optimisation: on fait appel à des algorithmes qui donnent de bonnes solutions sans avoir à examiner la totalité des solutions possibles (en raison de leur nombre astronomique, la méthode serait impraticable même avec les ordinateurs les plus puissants). L'apport de l'informatique illustre pour-quoi le développement des sciences de la complexité est relativement récent alors que beaucoup des problèmes abordés sont anciens. Sans ordinateur, les chercheurs sont impuissants, et ce n'est que dans un passé assez proche que les ordinateurs ont eu la puissance nécessaire pour simuler, dans des temps raisonnables, le comportement de systèmes réels et faire tourner les algorithmes d'optimisation les plus performants.
Aujourd'hui, les sciences de la complexité tentent de répondre à des questions que la science avait laissées de côté, soit parce qu'elle ne disposait pas des moyens techniques pour s'y attaquer, soit parce qu'elle se contentait de réponses superficielles, la deuxième situation résultant souvent de la première. L'augmentation de la puissance des ordinateurs n'est pas étrangère aux progrès réalisés, mais la force brute ne suffit jamais et beaucoup d'idées et de concepts nouveaux ont vu le jour grâce à la fertilisation croisée de différentes disciplines. Les sciences de la complexité sont un premier estompage des frontières disciplinaires, un pas de plus dans la direction imprimée par Galilée et Newton à la science moderne, et qui vise à l'unification des sciences. le cerveau ou le système immunitaire, essayer de prédire l'évolution des cours d'un marché financier, anticiper le comportement d'une foule en cas de panique, comprendre comment les langages se transforment ou comment les sociétés évoluent, tout cela fait partie des sciences de la complexité. On comprend que John von Neumann, le père de l'ordinateur, les ait qualifiées de sciences du XXIe siècle. Pourtant, les systèmes complexes ne se laissent pas aisé-ment apprivoiser en raison de leurs propriétés particulières, souvent contre-intuitives. Notre intuition se limite aux phénomènes linéaires, alors que, dans les systèmes complexes, les interactions des composants sont non linéaires et font souvent appel à des boucles de rétroaction.
Interactions simples, émergences inattendues
Un système complexe a un comportement holistique, c'est-à-dire global : on ne doit pas considérer que ce comportement résulte de la combinaison du comportement isolé de certaines de ses parties, mais on doit l'envisager en bloc, comme un tout. La richesse des interactions au sein d'un système lui permet souvent de s'organiser spontanément. Cette auto-organisation peut se manifester de diverses façons, mais elle fait en général apparaître des propriétés globales du système qu'il est difficile, voire impossible, d'anticiper à partir de la simple donnée des interactions des composants: le système global présente des propriétés émergentes. Ainsi la capacité d'une colonie de four-mis à trouver le chemin le plus court entre la fourmilière et une source de nourriture, la façon dont un vol d'oiseaux migrateurs se coordonne et s'organise et même la formation de molécules qui minimise l'énergie de liaison des atomes constitutifs sont des propriétés émergentes. Des lois simples régissant les interactions des constituants engendrent un comportement global qui surpasse les capa-cités propres à chacun de ces constituants.
Par ailleurs, les systèmes complexes les plus élaborés sont adaptatifs, c'est-à-dire qu'ils ne réagissent pas passivement aux événements externes, mais qu'ils peuvent se modifier pour devenir plus performants dans leur environnement. Cette modification concerne leur structure interne. Le cerveau réorganise en permanence ses connexions neurales en réaction aux modifications de l'environnement, ce qui lui permet, notamment, d'apprendre. Les espèces vivantes évoluent et se modifient pour s'adapter et augmenter leur capacité de survie. Les sociétés humaines changent et modifient leurs règles de fonctionnement en fonction de l'évolution des techniques ou des idées, par exemple. Cette capacité d'adaptation est une caractéristique essentielle des systèmes complexes liée à leur faculté d'auto-organisation. Pour étudier les systèmes complexes, on pourrait tenter d'utiliser les méthodes analytiques classiques : on écrirait un ensemble d'équations censé décrire le comportement global
Hervé ZWIRN est directeur de recherches associé au CNRS (CMLA, à l'École normale supérieure de Cachan, et Institut d'histoire et de philosophie des sciences et des techniques) et président de la Société Eurobios.
Jeu
Un jeu avec un problème à n-corps que je vais continuer à enrichir.