Notes de lecture

Les notes de lecture sont établies par les membres du Réseau Intelligence de la Complexité.

Que vaut un livre?
"... Un livre vaut à mes yeux par le nombre et la nouveauté des problèmes qu'il crée, anime ou ranime dans ma pensée... J'attends de mes lectures qu'elles me produisent de ces remarques, de ces réflexions, de ces arrêts subits qui suspendent le regard, illuminent des perspectives et réveillent tout à coup notre curiosité profonde..."
P. Valéry (Variété V), O.C. Pléiade I (p. 871)


Vous trouverez ci-dessous ou en cliquant ici les notes de lectures les plus récentes à moins que vous n'utilisiez le moteur de recherche alphabétique.

 

 

  • Modéliser & Simuler
    Epistémologies et pratiques de la modélisation et de la simulation (deux tomes)

    Date de l'ouvrage : Juillet 2015
    Ecrit par : VARENNE Franck et al. (Dir.)

    www.materiologiques.com/  (Publications électroniques en sciences et philosophie des sciences) -Tome 1 2013, ISBN: 978-2-919694-37-2 (volume 1); 978-2-919694-38-9 (volume 2) -Tome 2 2014 ISBN: 978-2-919694-72-3 
    Note de : LE MOIGNE Jean-Louis (Juillet 2015)
    Un exploit proprement éditorial, celui de la réalisation d’un ouvrage en deux tomes et trois volumes, 1750 pages agencées en 56 chapitres et au moins autant d’auteurs, le tout fort correctement présenté et illustré, dans une typographie sobre mais suffisamment aérée. Un ouvrage qui se veut aussi pluridisciplinaire que possible (mais l’est-on jamais assez ?) et qui se voudrait interdisciplinaire en privilégiant dés son sous titre la conjonction ‘des épistémologies et des pratiques’ (au pluriel) sans pour autant hélas considérer explicitement l’épistémologie de l’interdisciplinarité alors que l’argument premier du titre, MODÉLISER, le suggère dés l’abord.

Retour

D’emblée saluons l’exploit proprement éditorial, celui de la réalisation d’un ouvrage en deux tomes et trois volumes, 1750 pages agencées en 56 chapitres et au moins autant d’auteurs, le tout fort correctement présenté et illustré, dans une typographie sobre mais suffisamment aérée. Un ouvrage qui se veut aussi pluridisciplinaire que possible (mais l’est-on jamais assez ?) et qui se voudrait interdisciplinaire en privilégiant dès son sous titre la conjonction ‘des épistémologies et des pratiques’ (au pluriel) sans pour autant hélas considérer explicitement l’épistémologie de l’interdisciplinarité[1]  alors que l’argument premier du titre, MODÉLISER, le suggère dès l’abord


Modéliser ? : Le verbe exprime l’action de ‘MODÉLISATION’, (‘the modeling process’), nom du processus de computations conventionnelles de symboles de tous types (de l’ancestral hiéroglyphe à l’emoji contemporain) par lesquelles les perceptions les plus diverses (physiques, physiologiques, mentales, affectives) peuvent être identifiées et interprétées, computations de symboles générant et régénérant des objets-artefacts habituellement appelés ‘Modèles’ des phénomènes perçus. La langue française facilitant la production de substantifs verbaux, nomme ce processus de conception de modèles : la MODELISATION. Mais comme les substantifs verbaux français ne différencient pas explicitement le verbe (l’action de modéliser) et le substantif (le ‘résultat de l’action’ : le Modèle), on succombe  souvent la tentation de ‘prendre le mot pour la chose’ et le mot ‘Modélisation’ pour désigner la chose ‘Modèle’. (Difficulté que la langue anglaise ignore en distinguant ‘The Modeling’ et ‘The Model’. »

Si bien que, trop souvent, le mot ‘modélisation’ que l’on rencontre dans les ouvrages et articles en langue française ne signifiera pas le processus modélisateur mais l’APPLICATION de quelque Modèle (ou Théorie, ou Appareil, ou ...) ‘déjà là’ et présumé validé antérieurement : ce dont convient d’emblée F. Varenne dans l’article d’ouverture du Tome 1 : ‘Les verbes « modéliser » et  «  simuler » nous renvoient donc .... aux substantifs « modèle » et « simulation » (T.1, p. 9).’ Le titre de l’ouvrage s’énonce par deux verbes, mais le titre de ce premier article s’énonce par deux substantifs : ‘Modèles et Simulations dans l’enquête scientifique’. Il ajoutera que, même en remplaçant ‘modélisation’ par’ modèle’, ‘les rapports entre modèle et simulation se compliquent encore à partir du moment où l’on s’aperçoit que les scientifiques parlent tout à la fois de « simulation de modèle » et de  « modèles de simulation » (T. 1, p. 29)

Le lecteur peut pourtant se résigner ici à cet oubli ou à cette indifférence apparente au sens actif ou fonctionnel du concept de modélisation dès lors qu’il en est conscient. Il sait maintenant qu’il ne retrouvera guère ici  le sens qu’il donne volontiers  à ce concept, celui de Processus. N’est-ce pas celui que lui propose, au fil de ses méditations sur ses expériences de modélisation active en situation,  tant de sages expérimentés qu’il s’attache à lire : Evoquons par exemple les pages de N Hanson, dans Patterns of Discovery (1958)[2], celles de H A Simon (1991), sur le ‘Modeling, ... a principal tool ... for studying the behavior of large complex systems[3]’, celles de Léonard de Vinci (1519) sur le ‘Disegno, d’une excellence telle qu’il ne fait pas que montrer les œuvres de la nature, mais qu’il en produit[4], ou celles d’Edgar Morin (1977) sur le paradoxe de ‘l’observateur /descripteur/concepteur[5]’.

Que ce diagnostic ne soit pas dissuasif pour le lecteur soucieux de développer sa réflexions sur ses multiples exercices de modélisation : Il se souvient des deux faces de la modélisation explicitées par P Valéry : « Nous ne raisonnons que sur des modèles » ; Si il n’est pas très éclairé sur les réponses à la face ‘Pourquoi et Comment établit-t-on des modèles ?’, il va trouver en revanche dans cet ouvrage nombre de réponses à la face ‘Comment établit-t-on et légitime-t-on les méthodes de raisonnement par simulation que l’on applique sur des modèles déjà établis ?’ L’essor contemporain des méthodes de raisonnement par simulations informatisables sophistique considérablement le champ d’expérimentation de ces méthodes de raisonnements ; On est ainsi conduit à renouveler nombre de questionnements épistémologiques critiques pouvant légitimer les bons usages de ces méthodes et les interprétations que suscitent ou suggèrent leurs ‘résultats pratiques’ : On comprend que chercheurs et praticiens prêtent attention à ces renouvellements méthodologiques.

Renouvellements qu’éclaire pour une large part, ce gros et riche ouvrage qui nous livre principalement un impressionnant État de l’Art  des méthodes de SIMULATION ; Etat de l’art qui, ici, n’incitera  pas assez à questionner ‘l’autre face’, la genèse et la nature des modèles à simuler, la MODELISATION ? Seront-ils considérés comme donnés, antérieurement ? L’étude de L Coutellec & A-F Schmid : « Modélisation, simulation, expérience de pensée : la création d'un espace épistémologique » (T 2, Ch. 1) propose certes d’éclairer l’identification de tels modèles non strictement disciplinaires ‘à partir des œuvres de V Vernadsky et de R Poincaré’ : « Nous ne pouvons plus définir ce qui est contemporain en science uniquement par des moyens disciplinaires et théoriques. Il nous faut identifier une forme d'espace générique en épistémologie qui nous permette de donner une fonction aux modèles et aux simulations autre que celle d'être au service de la seule théorie dans un cadre disciplinaire ».

L’étude de Coutellec & Schmidt propose pour ce faire le concept d’« Espace épistémologique » - méta- disciplinaire semble-t-il - au sein duquel se forme une épistémologie générique qui permet de ne pas faire dépendre notre compréhension du réel d’une perspective épistémologique particulière.... Elle propose une forme de réalisme pluriel ». Cette formule finale ne me semble pas trés éclairante, suggérant plus une épistémologie de modèles-objets polyvalents (ou poly disciplinaires ?) qu’une contribution à une épistémologie de la modélisation-processus de systèmes complexes. 

Ceci alors que depuis ‘Le Nouvel Esprit Scientifique’ de G Bachelard, (1934), l’impressionnant développement des « nouvelles sciences’ » se voulant, elles aussi, disciplines académiques,  a suscité de solides contributions à une épistémologie de l’inter et de la trans-disciplinarité  et par là, à ‘La modélisation systémique’ des phénomènes perçus complexe (ou à ‘la conception de systèmes complexes’). L’Encyclopédie dirigée par J Piaget en 1967, ’Logique et ‘Connaissance Scientifique’ peut être considérée (au moins dans les cultures de la Francophonie et de la Latinité) comme la base de départ visible de renouvellements épistémologiques, privilégiant l’appréhension des phénomènes entendus comme et par des ‘processus’ et non plus d’abord (ni seulement) par des ‘objets’ présumés identifiables et réductibles a priori en parcelles.

L’Epistémologie Générique’ annoncée plutôt qu’exposée dans ce chapitre souhaite-t-elle se différencier de l’Epistemologie Génétique, murie  dans le creuset du Centre international d’épistémologie génétique animé par J Piaget depuis 1955. Si oui, ne serait-il pas souhaitable d’indiquer aux lecteurs en quoi et pour quoi ? Je confesse que cette inattention ostensible aux contributions épistémologiques majeures aux théories et pratiques de la modélisation (J Piaget, N Hanson, E Morin, H von Foerster, HA Simon, , ...) m’a surpris jusqu’à ce que je m’aperçoive que  « l’espace épistémologique » ouvert par les deux  auteurs de ce chapitre était un espace contenant des modèles objets à utiliser – ici par simulation - et non pas espace au sein duquel se développent des processus de modélisation (de conception – construction) de modèles de phénomènes entendus complexes[6]

C’est sans doute ce qu’il faut entendre, lorsqu’ils écrivent: « Les thèses épistémologiques classiques gardent toutes leurs pertinences concernant les théories mais doivent être réinterprétées et reformulées en fonction des modèles et des simulations.

L’intérêt de cette discussion est de nous inciter à prêter attention à l’interdépendance des deux processus de modélisation et de simulation, Comme toutes les méthodes de type algorithmiques, les méthodes de simulation n’incitent pas à reconsidérer initialement ‘la base de départ’, ici le modèle à soumettre à simulation (‘les données sont dans l’énoncé du problème’). Ces méthodes sont « appliquées » sur des modèles diversement paramétrables lesquels s’avèrent pré-élaborés, et sont présumés pouvoir rendre compte des comportements du ou des divers types de phénomènes considérés. Méthodes pour la plupart de type numériques et computables, mises en forme paramétrables permettant de ‘tester’ des hypothèses susceptibles d’affecter les comportements du modèle retenu. Ainsi pourront être argumentées pour les uns, démontrées pour les autres, et reconsidérées pour les critiques, les anticipations, prédictions ou prévisions de comportement du modèle du phénomène initialement considéré.

Il faut convenir que les méthodes programmables de simulation entendus comme des outils ne livrent guère par elles-mêmes de contributions à l’intelligence des processus de modélisation (conception-construction) de Modèles (tant génériques que génétique), modèles qu’il fallait  mettre en place – ou en œuvre - initialement pour que l’on puisse leur ‘appliquer’ les procédures formalisées et en général programmables des méthodes de simulation. Si bien que la tentation sera permanente de privilégier l’appel à des modèles établis antérieurement selon des procédures de modélisation presque toujours de type analytique et par là ‘fermées’ sur des ensembles d’éléments ou composants postulés potentiellement dénombrables. En aval les méthodes de simulations actuellement formalisées s’y adaptent alors de façon relativement usuelle.

En revanche l’étude d’un phénomène que l’on souhaite considérer par l’appréhension des interactions fonctionnelles et récursives dans un contexte ouvert tel qu’on le perçoit, embarrassera d’avantage les spécialistes de la simulation analytique usuelle. Sous forme de boutade, ils peinent à utiliser ‘le langage des Silmans’ reconnu par Denis Noble, un des pionniers de la modélisation systémique en biologie : ‘ « Tout change sans cesse » disent-ils. Ils utilisent volontiers des verbes. Les noms sont souvent absents dans la langue des ‘Silmans’, ces être venus d’une autre civilisation que Denis Noble, attentif à ‘La Musique de la Vie’ interroge pour s’aider lui-même à se former d’autres points de vue »[7]

Cette incomplétude qui sera sensiblement atténuée par les vertus ‘auto-éco-modélisatrices’ de la simulation par ou sur des modèles : On en fait sans cesse l’expérience . l’exemple des logiciels de  ‘la police prédictive’ est un classique : Les résultats  de la simulation conduisent à mettre plus de forces de police là où ou la fréquence potentielle de crime est élevée, ce qui amène les délinquants à investir d’autres formes et lieux de délits … invalidants à terme le modèle et la simulation et/ou nécessitant ‘l’invention’ un modèle entretenant sa récursivité et son ouverture potentielle, autorisant ainsi l’activation de sa propre ‘intelligence’ (sa capacité d’inquiring, telle qu’elle se manifeste dans les processus de délibération : les ‘means-ends processes’ selon H Simon)

En ‘jouant avec’ un modèle initial présumé donné et en observant pas à pas les conséquences évaluables de ce jeu, on sera souvent conduit à modifier itérativement l’organisation interne du modèle initial (qui devient générique): L’important devient alors l’exercice critique multi critères argumenté de ces ‘résultats intermédiaires’ (plutôt que finaux’).

L’étape finale, celle de l’interprétation en situation des ‘résultats’ des premières simulations peut alors heureusement conduire le ‘simulateur’ (qui privilégie des modes de pensée algorithmique) à dialoguer avec le ‘modélisateur’ (qui privilégie des modes de pensée heuristique), lui faisant quelques suggestions et l’incitant à reconsidérer tels ou tels composant du modèle initial : une sorte de rodage en ligne qui sera singulier et heuristique.

 

Comme je ne peux me vanter d’avoir effectivement lu les 1750 pages de l’ouvrage, je ne peux assurer mon impression, mais je ne crois pas avoir repéré souvent cette insistance sur le primat de cette attitude modeste d’interpretation critique permanente portant tant sur les ‘résultats’ que sur la légitimité éthiques des procédures méthodologiques. Il faut certes nuancer le propos au moins à la lecture des Introductions des deux Tomes rédigés par F Varenne et ses co-directeurs ; mais malgré leurs efforts manifestes, il ne semble pas que la teneur de leur propos invitant chaque famille disciplinaire à s’exercer à la critique épistémique interne de ses méthodes et des interprétations résultantes ait beaucoup infusé dans les textes des spécialistes de chacune des quelques quinze disciplines ayant contribué à cet état de l’art ; ils sont plus attentifs à l’exposition des pratiques méthodologiques qu’à la discussion critique des résultats et des interprétations.

Difficulté culturelle de la communication entre les ‘praticiens du comment’ et les ‘épistémologues du pourquoi’, qui tarde encore à se résorber tant sont fortes les prégnances culturelles et corporatives au sein des pré-carrés disciplinaires. G Canguilhem rappelait pourtant aux praticiens qu’« il n’est pas nécessaire d’être épistémologue de profession pour faire profession d’épistémologie. »

Puis je illustrer anecdotiquement cette difficulté par la lecture d’un des textes de l’ouvrage (T.2, Chap. 8) témoignant du désarroi de l’architecte argumentant ‘la dissimulation’ (devant les foisonnantes méthodes de simulations par CAO) et peut-être ‘l’évaporation de l’architecture’, et de son enseignement  qui se refugierait de plus en plus dans le fantasme’ (T 2, p. 279) ? Diagnostic imparable aussi longtemps que l’on réduit la conception architecturale à l’objet en résultant, habituellement appelé architecture, résultat de l’activité de l’architecte.

Interpretation qui pourtant  ignore les connaissances enseignables qui se forment dans et par l’étude des processus de conception architecturale. (Depuis Vitruve, ‘l’architecture est une science’, développant des connaissances enseignables et actionnables). Dans les contextes contemporains, les formations et les transformations de ces connaissances enseignables des processus de conception architecturale sont épistémologiquement et pratiquement argumentées depuis 1971  par le professeur et architecte Philippe Boudon[8] qui caractérise cet enseignement en l’intitulant « l’Architecturologie », Epistémologie et Pratique  des sciences de la conception architecturale ». Depuis 40 ans, il a, avec ses équipes, ses enseignements et ses travaux, développé ses recherches dans ces domaines, de nombreuses publications en rendent compte. Parmi celles-ci, je cite en particulier un important volume au titre singulier et pluriel à la fois : « Echelle(s) », présenté par Gérard Engrand dans une préface intitulé  L'architecturologie comme travail d'épistémologie »[9]. : Pourquoi et Comment le concepteur peut-il s’attacher à identifier quasi simultanément les multiples «opérateurs d’échelles » - ou points de vue évaluables - qu’il devrait prendre en compte pour ‘modéliser’ l’objet architecturé souhaité. L’important ici est dans le pluriel du concept d’échelle(s) que les modélisateurs ont habituellement du mal à prendre en compte.

Si je mentionne cette référence, c’est parce que j’ai lu dans le chapitre annonçant dès son titre « La fin de l’architecture fictionnelle à l’ère de la simulation intégrale » la phrase suivante « Le principal auteur ayant réfléchi en architecture de façon conséquente à la question du modèle est, en France, Philippe Boudon dans les années 1970 » (Il faut préciser ici que l’introduction du concept d’Epistémologie des sciences de la conception architecturale est publiée en en France en 1971, deux ans avant que paraisse la traduction française de ‘The sciences of the artificial’ de HA Simon (publiée aux USA en 1969) : L’architecturologie anticipait en quelque sorte le moment où les Sciences de l’artificiel et ‘The Science of Design’ allaient s’inscrire effectivement dans le paysage des sciences.

En lisant cette phrase  je me suis enthousiasmé spontanément : la prise de conscience de l’importance de la pensée modélisatrice à la fois téléologique et critique va ici être au moins reconnue et peut-être mise en valeur. Hélas, la réflexion architecturologique n’ayant pas assez privilégié – selon l’auteur -  l’usage des logiciels paramétriques, ni fait des avancées de la computation sa question centrale, les architectes, enseignants ou praticiens, ne s’y sont pas ou plus intéressés ... si bien qu’aujourd’hui ‘la figure de l’architecte n’a plus qu’à quitter le scène’ conclue, peut-être trop vite, l’architecte et l’enseignant mélancolique, découragé pour avoir consenti à la progressive et trop exclusive emprise des logiciels paramétriques sur sa pensée de concepteur et bientôt de citoyen.

Il me faut m’excuser ici d’avoir présenté cette illustration anecdotique de façon trop sommaire. Elle me permet de mettre en valeur l’argument que je présentais initialement au terme de mes itinérances, tout au long d’une semaine caniculaire, dans les 56 chapitres de ‘Modéliser-Simuler ; Epistemologie et Pratiques’ : Si nous bénéficions d’un large enrichissement dans notre intelligence des usages des méthodes de simulations computationnelles, algorithmique et cognitives (‘gedankenexperiment’, ...) pour élaborer des connaissances actionnables et enseignables, nous manquons par trop de l’enrichissement épistémique et pratique que l’on était en droit d’attendre sur la face duale annoncée par le titre de l’ouvrage : MODELISER ; ceci d’autant  plus que l’intention souvent explicite des auteurs est d’appréhender des phénomènes perçus dans leur complexité.

Ne faut-il pas rappeler ici la formule du philosophe et épistémologue Jocelyn Benoist préfaçant l’ouvrage de F. Fraisopi : ‘La Complexité et les Phénomènes. Nouvelles ouvertures entre science et philosophie’ : « Le complexe ne se représente pas, il se modélise».

Ce qui nous incitera, je l’espère, à nous interroger d’avantage sur ce que nous faisons et souhaitons lorsque nous modélisons. Ce sera un des mérites par surcroit de cet Opus  que de nous inviter collectivement à nous interroger, toutes disciplines et toutes techniques entrelacées plutôt que confondues, à poursuivre la quête. Il est vrai que le concept de Modélisation, entendu comme un objet - ou plutôt un projet - de connaissance enseignable, est encore jeune[10], guère moins il est vrai que celui de simulation informatisée.

N’avons nous pas, interrogeait Jean Piaget en 1967 à ‘soumettre à une critique rétroactive les concepts, méthodes ou principes utilisés jusque là de manière à déterminer leur valeur épistémologique elle-même[11]’ ?

Puis je achever par une suggestion éditoriale en renouvelant félicitations et encouragement aux éditeurs qui se sont lancés courageusement dans cette audacieux état de l’art des méthodes de simulation : S’ils procèdent à une réédition, un index paginé des auteurs et ouvrage cités serait un précieux guide pour cheminer dans cet Opus collectif. On identifierait ainsi par surcroit les manques et les oublis, autant de voies qui restent à explorer.

J L Le Moigne, juillet 2015.

PS. On trouve deux autres ‘points de vue’ sur cet ouvrage, références mentionnées sur le Site de l’éditeur :

*Alain PAVE Note de lecture de Modéliser & simuler, tomes 1 & 2  dans Repères Natures Sciences Sociétés, 23, 69-83 (2015)

*F VARENNES et Marc SILBERSTEIN (dir.) Introduction de Modéliser et Simuler T 1, ce dernier, 28 pages, étant plus particulièrement intéressant pour une mise en perspective d’ensemble de l’ouvrage

 


[1] François Kourilsky (dir), « Ingénierie de l’Interdisciplinarité, un nouvel esprit scientifique », Ed L’Harmattan, coll. Ingenium, 2002

[2] Norwood Hanson, Patterns of Discovery, Cambridge University Press, 1958, trad. française Editions Dianoïa, 2001.

[3] H.A. Simon: "Prediction and Prescription in Systems Modeling", 1990, in "Models of Bounded Rationality, Vol.3", 1997, p.115

[4] Léonard de Vinci, ‘CU 15 – R V)). Repris in Traité de la Peinture Traduction A Chastel  éd Berger Levraut, 1987, § 74, p.152.

[5] E. Morin, « La Méthode, Tome 1 », éd. du Seuil, 1977, p.179

[6] Puis je suggérer au lecteur qui trouverait ce propos trop abstrait de lire une nouvelle d’I Calvino (dans son ouvrage ’Palomar’, 1983, coll. Point -Seuil) intitulée ‘Le modèle des modèles’ (rêvé par M Palomar) .Il en trouvera un extrait dans un texte de présentation (p 11) de l’ouvrage collectif,  Expériences de la modélisation, modélisation de l'expérience (2004) par F. Lerbet-Sereni, (dir.)

 

[7] Je m’autorise d’autant plus volontiers ici cet emprunt à « La musique de la vie » de Denis Noble  que celui-ci  est ‘l’Opening Writer’ du volume 2 du Tome 1, volume consacré aux simulations dans les sciences du Vivant. L’éditeur a malheureusement traduit l’anglais Systems biology par l’oxymore ‘Biologie des systèmes’  alors que D Noble veut mentionner la biologie systémique par contraste avec la biologie analytique (ou moléculaire). Incidemment l’éditeur ou l’auteur nous disent qu’ils ne publient pas le huitièmes et le neuvième  des ‘dix  principes de la biologie systémique’ présentés ici (T 1, Vol 2, p 553) par D Noble (l’original anglais est publié en 2007 :  Claude Bernard, the first systems biologist, and the future of physiology), parce qu’ « ils concernent plutôt l’idée de programme dans le cerveau et la nature du soi, qui ne sont guère pertinents ici’ .Ne serait ce pas plutôt parce qu’ils sont assez provocant ?:  « Bien que l’être vivant soit système, on ne peut réduire le vivant au systémique. Réduire au système, c’est chasser l’existence et l’être » rappellera Edgar Morin. Le lecteur curieux pourra aisément  accéder à l’article original en Anglais (‘Paton lecture’,  sur la toile internet).

[8]  Philippe Boudon, <cite>Sur l’espace architectural. Essai d’épistémologie de l’architecture</cite>, Paris, Dunod éditeur Bordas, coll. « Aspects de l’urbanisme »,  1971 

[9] Editions Anthropos-Economica, Paris, 2002,

[10] A ma connaissance Cybernetics Modeling de G Klir et M Valach parait à Prague en 1967 ;  La théorie du système général, théorie de la modélisation, (première édition) parait à Paris - PUF en 1977.

[11] J Piaget, « Nature et méthodes de l’épistémologie » in ’Logique et connaissance  scientifique’, éd  Pléiade, 1967, p 51. 

Haut de Page

 

 

Au sujet du cahier de lectures du réseau

Le "CAHIER des LECTURES MCX" constitue un des moyens d'action privilégiés par le Programme Européen Modélisation de la Complexité depuis 1991-92.

Il exprime le projet de veille épistémologique que nous proposons, tout en rendant visible la progressive constitution d'une bibliothèque des sciences de la complexité qui se construit dans les cultures contemporaines.

Il ne s'agit pas ici de reproduire le prospectus de présentation ou le résumé établi par les éditeurs, mais de proposer des regards à la fois critiques et constructifs sur des textes qui peuvent et doivent intéresser chercheurs scientifiques et responsables d'organisations attentifs à la complexité de leurs initiatives.

On souhaite que cette veille devienne de plus en plus une entreprise collective, chacun pouvant bien sûr proposer un regard "différent" sur un ouvrage déjà introduit, et mieux encore, faire part de ses propres attentions. Ceci en jouant de son mieux les règles du jeu de l'inter- et transdisciplinarité. La critique disciplinaire pointue dispose de nombre de publications qui la privilégient ; il s'agit ici d'un autre regard : une veille épistémologique qui privilégie la modélisation de la complexité et la pensée complexe.

La reliance des projets du Programme Européen MCX et de l'Association pour la Pensée Complexe va nous permettre d'activer davantage cet exercice d'intelligence de la complexité, intelligence qui se développe en s'exerçant dans de multiples cultures.