PLATFORM/VARENNE Franck Épistémologie du Numérique Entre Sciences du Vivant et Architecture (2020)
PLATFORM / VARENNE Franck Épistémologie du Numérique Entre Sciences du Vivant et Architecture (2020)
200205

Colloque « Projeter l’architecture, aux carrefours du numérique et du vivant », ENSA Paris Val-De-Seine, Janvier 2020

Pour commencer, posons quelques hypothèses : nous sommes dans un monde fini, aux ressources finies, dans lequel il devient nécessaire de projeter des architectures, en démarche intégrée, à faibles énergies et à empreinte carbone faible ou nulle. Par ailleurs, rappelons quelques constats : le vivant semble avoir réglé une grande partie de ces problèmes. En outre, les récents progrès en analyse et simulation du vivant incitent à penser que le numérique a retenu quelques leçons concernant ces fameuses solutions biologiques, et qu’il serait bon alors qu’il les communique davantage aux sciences de la conception à forte empreinte carbone comme l’architecture.

À partir de ces hypothèses et de ces constats, la question épistémologique qui me guidera sera donc précisément la suivante : qu’est-ce que le numérique sait déjà du vivant qu’il pourrait enseigner à l’architecture ? C’est une question épistémologique puisqu’elle suppose une approche normative quant aux méthodes.

C’est en effet poser la question, dans la perspective particulière des approches numériques à disposition, des méthodes à privilégier pour développer la conception architecturale en termes de bioassistance, de biomorphisme, ou mieux encore de biomimétisme (Pawlyn, p. 19). Comme vous le savez, une littérature considérable existe déjà sur ces approches en architecture. La perspective ici sera donc plus étroitement orientée, puisque vue à travers le prisme de l’apport du numérique dédié au vivant.

La thèse globale que je soutiendrai est que le numérique nous apprend plus de choses sur le vivant que les types de modélisation formelle des siècles passés. Le numérique sait bien des choses notamment sur les solutions à la fois structurelles et fonctionnelles propres au vivant. En particulier, je soutiendrai que le numérique peut nous aider, sur la base de ce qu’il sait déjà faire en sciences du vivant : à savoir mieux simuler, mieux mimer, mieux analyser et mieux projeter. Evidemment, le numérique n’est pas toujours une solution car il peut être lui- même très énergivore. Ainsi, on doit souvent préférer des solutions biomimétiques low-tech voire no-tech, souvent donc sans numérique du tout, en fonctionnement tout au moins. Toutefois je soutiendrai que certaines stratégies low-tech peuvent justement émerger d’unbiomimétisme auparavant rendu concevable et accessible en amont uniquement grâce à des techniques numériques spécifiques.

Différentes notions

Constatons d’abord que, dans cette interrogation, nous avons en présence des notions bien différentes. Il y a d’abord des pratiques, plus exactement cinq pratiques cognitives : simuler, mimer, analyser, prédire, projeter. Il y a ensuite un type d’entités : le vivant que l’on s’accorde en général à distinguer des autres types d’entités, mais dont la définition exacte fait toujours débat. Il y a ensuite une pratique de conception : l’architecture, mais qui peut désigner aussi à la fois un processus et un produit.

Quant au numérique, vous savez combien il est protéiforme. Dans le contexte qui nous occupe, ce terme désigne en première approche un instrument de connaissance et d’information. Il se distingue des autres instruments de connaissance en ce qu’il est mi-formel mi-matériel, dès lors qu’il nécessite des machines matérielles manipulant du formel. Cependant, là encore, il est nécessaire à mon avis de prendre ce terme au moins en trois déclinaisons distinctes : le numérique calculatoire, le numérique computationnel et le numérique réticulaire.

Le numérique calculatoire

Intéressons-nous d’abord au numérique calculatoire, premier historiquement. C’est ce que les ordinateurs ont d’abord apporté à la modélisation mathématique dans tous les domaines scientifiques et techniques, l’architecture n’y a pas fait exception : c’est le calcul approché par élément finis ou différences finies servant à la résolution d’équationsmathématiques à variables globales, non solubles analytiquement. En calcul de structures, le numérique a très tôt été utilisé ainsi, de façon calculatoire. C’est une technique de discrétisation qui existait déjà au 19ème siècle et qui permet l’applicabilité plus large d’approches mathématiques classiques de type top-down : on représente des contraintes globales mécaniques, thermiques, ou autres, par des équations entre des variables globales caractérisant chacune l’état de tout un élément. Dans ce cas, le numérique compense la non solubilité exacte d’une équation à variables globales par sa capacité à traiter de très grands nombres de petits éléments exemplifiant ponctuellement ces variables.

Il s’agit là de la simulation numérique de modèle : ce qui est simulé, c’est donc moins le phénomène lui-même qu’un processus seulement calculatoire, c’est le comportement local d’un élément fini encadré par une loi mathématique globale. Dans ce cadre, la CAO classique propose ce qu’on appelle des modèles numériques (simples).

Dans une autre perspective, mais avec un même usage qui consiste donc à s’appuyer sur une machine calculatoire programmable dans la stricte mesure où elle manipule une très grande quantité de nombres, on peut faire entrer aussi toutes les méthodes statistiques dans le numérique calculatoire. Dans cet usage, statistique, du numérique calculatoire, les sciences du vivant ont été – et sont toujours – en première ligne. Dès les années 50, en agronomie, en foresterie (Varenne, 2007), en biologie du développement (Varenne, 2010), en génétique et biologie des populations, ce type de numérique devient un instrument indispensable à l’analyse multivariée, aux calculs de régression multiples, à la statistique inférentielle opérant sur ces systèmes complexes multi-factoriels que sont, par excellence, les êtres vivants.

Formons un premier bilan sur le numérique calculatoire. Aussi bien dans la simulation numérique de modèle que dans l’analyse statistique de données, il ne semble pas que les usages du numérique calculatoire dans le vivant puissent enseigner grand-chose à l’usage qu’en fait déjà, depuis longtemps, l’architecture. En réalité, c’est lorsqu’on passe aunumérique computationnel que les choses changent. Mais pour bien faire saisir en quoi le numérique computationnel appliqué au vivant peut mettre sur le chemin de démarches architecturales davantage intégrées, il me semble que l’on doit d’abord distinguer trois niveaux différents d’intégration du vivant : le vivant organique, conçu au niveau d’un organisme unique et entier, le vivant supra-organique, conçu au niveau d’un « organisme étendu » comme le sont les termitières décrites par Edward Wilson ou Scott Turner, et enfin le vivant écosystémique comme le sont les écosystèmes à forte biodiversité, forte résilience, décrits par l’écologue Michel Loreau, par exemple.

Le numérique computationnel

Le numérique computationnel nous ramène au cœur de ce qu’est une computation discrète au sens très large, c’est-à-dire de ce que peuvent faire, par construction, nos computers actuels. Une computation, c’est, a minima, l’application d’une règle qui a pour effet de transformer une structure de symboles discrets en une autre structure de symboles discrets. Un computer n’est donc plus essentiellement une machine à calculer sur des nombres : plus radicalement et largement, il modifie des structures discrètes qui sont ou non perçues ou conçues comme des nombres. Ces structures peuvent implémenter des formalismes différents pour rendre compte de différents aspects ou différentes propriétés du système cible qui nous intéresse. Avec ce numérique-là, c’est la simulation des choses, des éléments et de leurs interactions qui revient alors sur le devant de la scène, au détriment de la représentation d’une ou de deux fonctions mathématiques d’optimisation globale de type top- down qu’on approximerait numériquement.

J’évoquerai ici seulement trois assouplissements permis par le numérique computationnel par rapport à la perspective numérique seulement calculatoire.

Premier assouplissement: l’intégration dynamique de données et de processus hétérogènes dans une maquette numérique évolutive comme le BIM (« Building Information Model »). Cette maquette privilégie une approche de formalisation et de représentation qui n’est plus mono-aspectuelle ni monoformalisée. Divers types de données, de représentations d’objets et de processus sont rendus communicants et interagissants dans la même maquette. La représentation globale, dans ses divers formalismes, mathématiquement et axiomatiquement hétérogènes, gagne donc à la fois en richesse et en épaisseur. Cette épaisseur de la maquette computationnelle est elle-même de nature diverse : à la fois typologique, spatiale et temporelle. Le BIM peut donc être multi-physique, muti-perspectif mais aussi évolutif, c’est-à-dire qu’il permet la projection, dans le futur, d’un réemploi des matériaux ou éléments employés dans une première phase du projet.

Deuxième assouplissement : l’approche bottom-up plutôt que top-down du fait que la simulation n’est plus seulement numérique. On simule le système cible par un système de règles interagissant pas à pas plutôt qu’on ne calcule de manière approchée un unique modèle

monoformalisé et surplombant. La morphogenèse – i.e. la genèse des formes intriquée dans la genèse même des fonctions at runtime, au cours même du processus – est ainsi représentée de manière bien plus conforme à celle du vivant. Ce type de simulation bottom-up a justement été très développé pour le vivant organique mais aussi pour le vivant supra-organique et écosystémique (cf. le tournant IBM des années 1970 puis massivement 1990 en écologie et biologie du développement : Individual-Based Modelling ; cf. à ce sujet Varenne, 2007). Elle se fait à base d’objets informatiques représentés en interactions, sans hiérarchie, dans un écosystème dynamique constitué d’autres objets munis de différentes règles d’actions et d’interactions. Cet usage du numérique computationnel, bottom-up, permet par exemple de simuler à l’avance puis de piloter la conception de bâtiment par accrétion : l’impression 3D, elle-même, ouverte à des matériaux toujours plus différents et nombreux, peut être la technologie finale qui implémente dans la réalité cette manière de projeter. Je pense aux travaux de Neri Oxman, par exemple. On peut penser aussi aux approches recourant aux algorithmes génétiques qui permettent des optimisations extrêmement souples et adaptatives.

Troisième assouplissement : au-delà de la morphogenèse par accrétion, les approches par systèmes multi-agents ajoutent à l’absence de hiérarchie du cas précédent, la capacité d’auto- analyse locale, distribuée, donc d’auto-adaptation, d’auto-organisation, d’intelligence en essaim (Pawlin, p. 175, 194), mais aussi donc de sensibilité à l’environnement, à son hétérogénéité également propre et singulière. Comme j’ai essayé de le montrer dans un travail précédent (Varenne, 2013), ces approches de conception, bottom-up, sans hiérarchie, au moyen d’une myriade d’agents localisés pas seulement physiques mais aussi perceptifs et cognitifs, permettent d’implémenter une sensibilité non seulement à du multi-physique, du multi-fonctionnel, mais aussi à du multi-axiologique : c’est une manière inédite de réconcilier et de rendre communicantes pas à pas des valeurs hétérogènes comme celle visant seulement l’insertion fonctionnelle de la nature du vivant dans l’urbain ou le bâti (bioassistance), avec celle qui vise aussi l’esthétique (biomorphisme), avec celle enfin qui met en avant, en plus, la sobriété et l’efficacité énergétique (biomimétisme). Aves les SMA, on intrique pas à pas non seulement des règles physiques mécaniques, thermiques, hétérogènes, mais on intègre toutes ces règles physiques hétérogènes elles-mêmes à des règles de nature tout autre, axiologique, éthique notamment. Je pense en particulier ici aux travaux d’Alisa Andrasek et à ses œuvres Biothing des années 2009-2013. Remarquons que, comme cette simulation est processuelle et pas calculatoire vis-à-vis d’un modèle unique, c’est sans doute celle qui est la plus à même de servir au biomimétisme dès lors qu’il cherche à reprendre les principes structuro-fonctionnels du vivant. Comme je l’ai montré aussi dans un travail en collaboration avec René Doursat (2015) sur le paradoxe qu’il y a vouloir piloter et programmer l’émergence faible de tels systèmes auto-organisés et morphogénétiquement architecturés, ce que René Doursat nomme l’ingénierie morphogénétique prend précisément son essor dans ce type d’approche.

Le numérique réticulaire

C’est celui qui se caractérise par des réseaux multiples de capteurs et de données, données interopérantes parce que rendues homogènes, en fin de compte, dans leur notation numérique généralisée. C’est le numérique des réseaux de collectes distribuées puis de circulation d’informations. Les capteurs multi-physiques, mais aussi multi-sociaux, les satellites, le GPS, le réseau Galileo, les réseaux d’ordinateurs, l’internet, les géodonnées en temps réel, les capteurs distribués sur le terrain, les re-concentrateurs mobiles et à effet de boucle sur le terrain même de cette distribution que sont aujourd’hui les applis de nos smartphones, etc. C’est au fond l’étape supplémentaire après le numérique computationnel, ou plutôt la couche supplémentaire de numérique, car aucun type de numérique n’en supprime ou invalide un autre : c’est la manière dont le distributif, le non-hiérarchique, la masse des interactions locales d’abord aveugle au global, peut ainsi disposer par le numérique, c’est-à- dire là aussi de manière artificielle, artefactuelle, en temps réel, de certains sauts d’échelles : c’est la manière dont les éléments locaux peuvent nouvellement disposer d’une vision globale sur le système auquel ils appartiennent, avec des effets de bouclage inter-échelles, mais aussi de blocages, de « petits mondes » comme on les nomme parfois en sociologie des opinions, effets d’autant plus nombreux et complexes.

Dans ce cadre et avec ces instruments nouveaux, le numérique réticulaire participe donc d’une immense entreprise, multi-aspectuelle, d’auto-analyse plus ou moins biaisée du système : on analyse des données du moment ou du passé, mais pas seulement car on prédit des comportements, des décisions, des pratiques et on projette par là aussi des tendances. Dèsl’instant présent, on donne une image du futur, de ce que pourrait être l’écosystème auquel nous participons et ces analyses vraies ou fausses sur le futur causent déjà des effets réels, dans le présent. Par ces analyses, prédictions et projections massives et partiellement réentrantes, l’entreprise de projeter l’architecture et les usages de la ville ou du bâti en est démultipliée, distribuée, décentralisée aussi bien dans l’espace que dans le temps.

L’émergence computationnelle traditionnellement considérée comme faible devient ici forte, puisque, en s’adjoignant les réseaux, qui sont comme des filets de captage et de renvoi d’informations, les patterns émergents peuvent être représentés à tous en temps réel et avoir un effet réellement causal du haut vers le bas, donc sur leurs éléments et composants locaux. Or, cet effet causal en retour a lieu précisément lorsque les agents individuels sont motivés non plus seulement par des contraintes de lois physiques mais aussi par des valeurs de type axiologique (bien que la diffusion de phéromones volatiles ou la stigmergie installe déjà une sensibilité du local au global émergé dès le vivant non humain) : ils sont par excellence à même de pouvoir juger et réagir face à l’image changeante du tout auxquels ils appartiennent, sinon leur action locale ne serait que localement réactive et ne changerait donc pas de celle d’un élément physico-chimique à l’occasion de cet apport d’information sur le tout.

C’est donc sans doute ainsi, lorsqu’on couple le numérique réticulaire au numérique computationnel, qu’on peut espérer non seulement simuler mais, davantage, mimer voire projeter (plutôt donc que prédire) l’implémentation de valeurs axiologiques, voire jusqu’à l’évolutivité et l’inventivité même de ces normes de l’action dans nos systèmes inséparablement techniques, biologiques et sociaux. Si un être vivant est un être normé, comme l’enseignait Canguilhem, c’est parce qu’il a aussi la spontanéité de poser et de renouveler ses normes. Dans cet usage du numérique réticulaire associé au computationnel, l’évolutivité, la durabilité, des projets ne serait donc plus seulement liée à la capacité de résilience du système, entendue ici au simple sens d’une résistance à la perturbation, mais aussi à la capacité qu’aurait le système d’inventer, pour lui-même, des normes axiologiques nouvelles. Ce serait alors un « se faire projet » ou un « projeter » éminemment dynamique puisqu’incluant la possibilité de modifier et d’inventer ses propres normes d’accomplissement.

Conclusion

Ainsi, donc, j’ai suggéré très succinctement ici que le numérique, comme mode de formalisation de plus en plus souple et articulé, nous apprend plus de choses – ou bien d’autres choses – sur le vivant que les types de modélisation formelle des siècles passés. Comme telle, le numérique peut aider l’architecture et il le fait déjà depuis longtemps, sur la base de ce qu’il sait déjà faire en sciences du vivant : à savoir mieux simuler, mieux mimer, mieux analyser, mieux prédire et mieux projeter.

Mais, pour finir, je ne voudrai pas donner l’impression qu’il faut être – au sujet du numérique – d’un optimisme béat. Indépendamment même des problèmes d’éthique des données et de la vie privée, le numérique réticulaire, les réseaux, comme aussi ce qui participe de l’auto-observation et de l’auto-analyse des systèmes, à commencer par les techniques d’IA numérique, comme l’apprentissage machine en particulier, sont pour l’heure d’énormes consommateurs d’énergie carbonée. À mon avis, au vu des techniques actuelles très énergivores, il faut même décourager systématiquement l’usage de ce type d’algorithmes non pas certes dans la conception ponctuelle mais dans le fonctionnement permanent – at runtime – d’un système socio-technico-biologique.

Je souhaite également alerter sur le fait que la complexité, celle qui est à moteur non hiérarchique comme je l’ai succinctement rappelé ici, celle qui favorise par là des émergences non administrées hiérarchiquement n’est pas toujours bonne en soi. Elle est causée par des effets d’interactions locaux et/ou par des effets de bouclage inter-échelle : de ce fait, elle donne lieu parfois à certaines propriétés émergentes dont l’inévitabilité et la robustesse sont absolument redoutables. Par exemple la fractalité des structures urbaines (Frankhauser, 1993) se révèle un attracteur robuste, inévitable presque partout, donc une malédiction pour le changement biomimétique que nous prônons, puisqu’expliquant de manière socio- mécanistique imparable – en contexte démocratique tout au moins – la tragédie du mitage et de l’étalement urbain.

Je dirai donc de l’auto-organisation et de la complexité quelque chose de proche de ce que Pascal disait de l’imagination : elle est « d’autant plus fourbe qu’elle ne l’est pas toujours». Quasi-analogiquement, on peut dire que «la complexité est d’autant plus complexe qu’elle ne l’est pas toujours » : la complexité des interactions et interconnexions est en effet aussi un redoutable moteur de simplification et de fixation de patterns robustes qui se révèlent parfois humainement, biologiquement et socialement inacceptables. La complexité a des effets autonomes de simplification indésirables que les sociologues ou psychologues sociaux appellent effets pervers. Ce qui peut détourner la complexité de ce type de trajectoires perverses, c’est notre possibilité de conserver la main sur l’existence même de certaines échelles, donc aussi de certains éléments qui participent de l’auto-organisation. Ce qu’on peut dire, à l’heure actuelle me semble-t-il, c’est que la valeur de la résilience doit elle-même être placée plus haut, ou au moins aussi haut, que celle de l’auto-organisation et de la complexité, fussent-elles biomimétiques. Mais apprendre à savoir comment – et au nom de quelle valeur – administrer les hommes et les choses pour favoriser la résilience des systèmes est sans doute un défi tout aussi redoutable. Je vous remercie.

Bibliographie sélective : 

Andrasek, A., Biothing, Orléans, HYX, 2009.


Benyus, J., Biomimétisme, Paris, Rue de l’échiquier, 2011 [1998].


Brayer, M.A., Migayrou, F., (eds.), Naturaliser l’achitecture / Naturalizing architecture, Orléans, HYX, 2013.


Oxman, N., “Material Ecology”, in Brayer & Migayrou, op. cit., p. 214-217. Accessible en ligne : https://www.editions-hyx.com/sites/default/files/public/media/neri_oxman.pdf 


Oxman, N., “Material Ecology”, in Brayer & Migayrou, op. cit., p. 214-217. Accessible en ligne : https://www.editions-hyx.com/sites/default/files/public/media/neri_oxman.pdf 

Oxman, R., « Naturaliser la conception architecturale / Naturalizing Design », in Brayer & Migayrou, op. cit. , p. 106-121. 

Pawlyn, M., Biomimétisme et Architecture, Paris, Rue de l’échiquier, 2019 [2016].


Varenne, F., Du modèle à la simulation informatique, Paris, Vrin, 2007.


Varenne, F., Formaliser le vivant : lois, théories, modèles ?, Paris, Hermann, 2010.


Varenne, F., Théories et modèles en sciences humaines. Le cas de la géographie, Paris, Éditions Matériologiques, 2017. Site Matériologiques


Varenne, F., « Le parti-pris des choses computationnelles – Modèles et simulations en design et architecture / The Nature of Computational Things – Models and simulations in Design and Architecture», in Brayer & Migayrou, op. cit. , p. 96-105. Accessible en ligne: https://www.editions-hyx.com/sites/default/files/public/media/f.varenne.pdf 

Varenne, F., Chaigneau, P., Petitot, J., Doursat, R.,“Programming the Emergence in Morphogenetically Architected Complex Systems”, Acta Biotheoretica, September 2015,Volume 63, Issue3 ,pp 295-308. http://link.springer.com/article/10.1007/s10441-015-9262-z 

Colloque « Projeter l’architecture, aux carrefours du numérique et du vivant », ENSA Paris Val-De-Seine, Janvier 2020

Pour commencer, posons quelques hypothèses : nous sommes dans un monde fini, aux ressources finies, dans lequel il devient nécessaire de projeter des architectures, en démarche intégrée, à faibles énergies et à empreinte carbone faible ou nulle. Par ailleurs, rappelons quelques constats : le vivant semble avoir réglé une grande partie de ces problèmes. En outre, les récents progrès en analyse et simulation du vivant incitent à penser que le numérique a retenu quelques leçons concernant ces fameuses solutions biologiques, et qu’il serait bon alors qu’il les communique davantage aux sciences de la conception à forte empreinte carbone comme l’architecture.

À partir de ces hypothèses et de ces constats, la question épistémologique qui me guidera sera donc précisément la suivante : qu’est-ce que le numérique sait déjà du vivant qu’il pourrait enseigner à l’architecture ? C’est une question épistémologique puisqu’elle suppose une approche normative quant aux méthodes.

C’est en effet poser la question, dans la perspective particulière des approches numériques à disposition, des méthodes à privilégier pour développer la conception architecturale en termes de bioassistance, de biomorphisme, ou mieux encore de biomimétisme (Pawlyn, p. 19). Comme vous le savez, une littérature considérable existe déjà sur ces approches en architecture. La perspective ici sera donc plus étroitement orientée, puisque vue à travers le prisme de l’apport du numérique dédié au vivant.

La thèse globale que je soutiendrai est que le numérique nous apprend plus de choses sur le vivant que les types de modélisation formelle des siècles passés. Le numérique sait bien des choses notamment sur les solutions à la fois structurelles et fonctionnelles propres au vivant. En particulier, je soutiendrai que le numérique peut nous aider, sur la base de ce qu’il sait déjà faire en sciences du vivant : à savoir mieux simuler, mieux mimer, mieux analyser et mieux projeter. Evidemment, le numérique n’est pas toujours une solution car il peut être lui- même très énergivore. Ainsi, on doit souvent préférer des solutions biomimétiques low-tech voire no-tech, souvent donc sans numérique du tout, en fonctionnement tout au moins. Toutefois je soutiendrai que certaines stratégies low-tech peuvent justement émerger d’unbiomimétisme auparavant rendu concevable et accessible en amont uniquement grâce à des techniques numériques spécifiques.

Différentes notions

Constatons d’abord que, dans cette interrogation, nous avons en présence des notions bien différentes. Il y a d’abord des pratiques, plus exactement cinq pratiques cognitives : simuler, mimer, analyser, prédire, projeter. Il y a ensuite un type d’entités : le vivant que l’on s’accorde en général à distinguer des autres types d’entités, mais dont la définition exacte fait toujours débat. Il y a ensuite une pratique de conception : l’architecture, mais qui peut désigner aussi à la fois un processus et un produit.

Quant au numérique, vous savez combien il est protéiforme. Dans le contexte qui nous occupe, ce terme désigne en première approche un instrument de connaissance et d’information. Il se distingue des autres instruments de connaissance en ce qu’il est mi-formel mi-matériel, dès lors qu’il nécessite des machines matérielles manipulant du formel. Cependant, là encore, il est nécessaire à mon avis de prendre ce terme au moins en trois déclinaisons distinctes : le numérique calculatoire, le numérique computationnel et le numérique réticulaire.

Le numérique calculatoire

Intéressons-nous d’abord au numérique calculatoire, premier historiquement. C’est ce que les ordinateurs ont d’abord apporté à la modélisation mathématique dans tous les domaines scientifiques et techniques, l’architecture n’y a pas fait exception : c’est le calcul approché par élément finis ou différences finies servant à la résolution d’équationsmathématiques à variables globales, non solubles analytiquement. En calcul de structures, le numérique a très tôt été utilisé ainsi, de façon calculatoire. C’est une technique de discrétisation qui existait déjà au 19ème siècle et qui permet l’applicabilité plus large d’approches mathématiques classiques de type top-down : on représente des contraintes globales mécaniques, thermiques, ou autres, par des équations entre des variables globales caractérisant chacune l’état de tout un élément. Dans ce cas, le numérique compense la non solubilité exacte d’une équation à variables globales par sa capacité à traiter de très grands nombres de petits éléments exemplifiant ponctuellement ces variables.

Il s’agit là de la simulation numérique de modèle : ce qui est simulé, c’est donc moins le phénomène lui-même qu’un processus seulement calculatoire, c’est le comportement local d’un élément fini encadré par une loi mathématique globale. Dans ce cadre, la CAO classique propose ce qu’on appelle des modèles numériques (simples).

Dans une autre perspective, mais avec un même usage qui consiste donc à s’appuyer sur une machine calculatoire programmable dans la stricte mesure où elle manipule une très grande quantité de nombres, on peut faire entrer aussi toutes les méthodes statistiques dans le numérique calculatoire. Dans cet usage, statistique, du numérique calculatoire, les sciences du vivant ont été – et sont toujours – en première ligne. Dès les années 50, en agronomie, en foresterie (Varenne, 2007), en biologie du développement (Varenne, 2010), en génétique et biologie des populations, ce type de numérique devient un instrument indispensable à l’analyse multivariée, aux calculs de régression multiples, à la statistique inférentielle opérant sur ces systèmes complexes multi-factoriels que sont, par excellence, les êtres vivants.

Formons un premier bilan sur le numérique calculatoire. Aussi bien dans la simulation numérique de modèle que dans l’analyse statistique de données, il ne semble pas que les usages du numérique calculatoire dans le vivant puissent enseigner grand-chose à l’usage qu’en fait déjà, depuis longtemps, l’architecture. En réalité, c’est lorsqu’on passe aunumérique computationnel que les choses changent. Mais pour bien faire saisir en quoi le numérique computationnel appliqué au vivant peut mettre sur le chemin de démarches architecturales davantage intégrées, il me semble que l’on doit d’abord distinguer trois niveaux différents d’intégration du vivant : le vivant organique, conçu au niveau d’un organisme unique et entier, le vivant supra-organique, conçu au niveau d’un « organisme étendu » comme le sont les termitières décrites par Edward Wilson ou Scott Turner, et enfin le vivant écosystémique comme le sont les écosystèmes à forte biodiversité, forte résilience, décrits par l’écologue Michel Loreau, par exemple.

Le numérique computationnel

Le numérique computationnel nous ramène au cœur de ce qu’est une computation discrète au sens très large, c’est-à-dire de ce que peuvent faire, par construction, nos computers actuels. Une computation, c’est, a minima, l’application d’une règle qui a pour effet de transformer une structure de symboles discrets en une autre structure de symboles discrets. Un computer n’est donc plus essentiellement une machine à calculer sur des nombres : plus radicalement et largement, il modifie des structures discrètes qui sont ou non perçues ou conçues comme des nombres. Ces structures peuvent implémenter des formalismes différents pour rendre compte de différents aspects ou différentes propriétés du système cible qui nous intéresse. Avec ce numérique-là, c’est la simulation des choses, des éléments et de leurs interactions qui revient alors sur le devant de la scène, au détriment de la représentation d’une ou de deux fonctions mathématiques d’optimisation globale de type top- down qu’on approximerait numériquement.

J’évoquerai ici seulement trois assouplissements permis par le numérique computationnel par rapport à la perspective numérique seulement calculatoire.

Premier assouplissement: l’intégration dynamique de données et de processus hétérogènes dans une maquette numérique évolutive comme le BIM (« Building Information Model »). Cette maquette privilégie une approche de formalisation et de représentation qui n’est plus mono-aspectuelle ni monoformalisée. Divers types de données, de représentations d’objets et de processus sont rendus communicants et interagissants dans la même maquette. La représentation globale, dans ses divers formalismes, mathématiquement et axiomatiquement hétérogènes, gagne donc à la fois en richesse et en épaisseur. Cette épaisseur de la maquette computationnelle est elle-même de nature diverse : à la fois typologique, spatiale et temporelle. Le BIM peut donc être multi-physique, muti-perspectif mais aussi évolutif, c’est-à-dire qu’il permet la projection, dans le futur, d’un réemploi des matériaux ou éléments employés dans une première phase du projet.

Deuxième assouplissement : l’approche bottom-up plutôt que top-down du fait que la simulation n’est plus seulement numérique. On simule le système cible par un système de règles interagissant pas à pas plutôt qu’on ne calcule de manière approchée un unique modèle

monoformalisé et surplombant. La morphogenèse – i.e. la genèse des formes intriquée dans la genèse même des fonctions at runtime, au cours même du processus – est ainsi représentée de manière bien plus conforme à celle du vivant. Ce type de simulation bottom-up a justement été très développé pour le vivant organique mais aussi pour le vivant supra-organique et écosystémique (cf. le tournant IBM des années 1970 puis massivement 1990 en écologie et biologie du développement : Individual-Based Modelling ; cf. à ce sujet Varenne, 2007). Elle se fait à base d’objets informatiques représentés en interactions, sans hiérarchie, dans un écosystème dynamique constitué d’autres objets munis de différentes règles d’actions et d’interactions. Cet usage du numérique computationnel, bottom-up, permet par exemple de simuler à l’avance puis de piloter la conception de bâtiment par accrétion : l’impression 3D, elle-même, ouverte à des matériaux toujours plus différents et nombreux, peut être la technologie finale qui implémente dans la réalité cette manière de projeter. Je pense aux travaux de Neri Oxman, par exemple. On peut penser aussi aux approches recourant aux algorithmes génétiques qui permettent des optimisations extrêmement souples et adaptatives.

Troisième assouplissement : au-delà de la morphogenèse par accrétion, les approches par systèmes multi-agents ajoutent à l’absence de hiérarchie du cas précédent, la capacité d’auto- analyse locale, distribuée, donc d’auto-adaptation, d’auto-organisation, d’intelligence en essaim (Pawlin, p. 175, 194), mais aussi donc de sensibilité à l’environnement, à son hétérogénéité également propre et singulière. Comme j’ai essayé de le montrer dans un travail précédent (Varenne, 2013), ces approches de conception, bottom-up, sans hiérarchie, au moyen d’une myriade d’agents localisés pas seulement physiques mais aussi perceptifs et cognitifs, permettent d’implémenter une sensibilité non seulement à du multi-physique, du multi-fonctionnel, mais aussi à du multi-axiologique : c’est une manière inédite de réconcilier et de rendre communicantes pas à pas des valeurs hétérogènes comme celle visant seulement l’insertion fonctionnelle de la nature du vivant dans l’urbain ou le bâti (bioassistance), avec celle qui vise aussi l’esthétique (biomorphisme), avec celle enfin qui met en avant, en plus, la sobriété et l’efficacité énergétique (biomimétisme). Aves les SMA, on intrique pas à pas non seulement des règles physiques mécaniques, thermiques, hétérogènes, mais on intègre toutes ces règles physiques hétérogènes elles-mêmes à des règles de nature tout autre, axiologique, éthique notamment. Je pense en particulier ici aux travaux d’Alisa Andrasek et à ses œuvres Biothing des années 2009-2013. Remarquons que, comme cette simulation est processuelle et pas calculatoire vis-à-vis d’un modèle unique, c’est sans doute celle qui est la plus à même de servir au biomimétisme dès lors qu’il cherche à reprendre les principes structuro-fonctionnels du vivant. Comme je l’ai montré aussi dans un travail en collaboration avec René Doursat (2015) sur le paradoxe qu’il y a vouloir piloter et programmer l’émergence faible de tels systèmes auto-organisés et morphogénétiquement architecturés, ce que René Doursat nomme l’ingénierie morphogénétique prend précisément son essor dans ce type d’approche.

Le numérique réticulaire

C’est celui qui se caractérise par des réseaux multiples de capteurs et de données, données interopérantes parce que rendues homogènes, en fin de compte, dans leur notation numérique généralisée. C’est le numérique des réseaux de collectes distribuées puis de circulation d’informations. Les capteurs multi-physiques, mais aussi multi-sociaux, les satellites, le GPS, le réseau Galileo, les réseaux d’ordinateurs, l’internet, les géodonnées en temps réel, les capteurs distribués sur le terrain, les re-concentrateurs mobiles et à effet de boucle sur le terrain même de cette distribution que sont aujourd’hui les applis de nos smartphones, etc. C’est au fond l’étape supplémentaire après le numérique computationnel, ou plutôt la couche supplémentaire de numérique, car aucun type de numérique n’en supprime ou invalide un autre : c’est la manière dont le distributif, le non-hiérarchique, la masse des interactions locales d’abord aveugle au global, peut ainsi disposer par le numérique, c’est-à- dire là aussi de manière artificielle, artefactuelle, en temps réel, de certains sauts d’échelles : c’est la manière dont les éléments locaux peuvent nouvellement disposer d’une vision globale sur le système auquel ils appartiennent, avec des effets de bouclage inter-échelles, mais aussi de blocages, de « petits mondes » comme on les nomme parfois en sociologie des opinions, effets d’autant plus nombreux et complexes.

Dans ce cadre et avec ces instruments nouveaux, le numérique réticulaire participe donc d’une immense entreprise, multi-aspectuelle, d’auto-analyse plus ou moins biaisée du système : on analyse des données du moment ou du passé, mais pas seulement car on prédit des comportements, des décisions, des pratiques et on projette par là aussi des tendances. Dèsl’instant présent, on donne une image du futur, de ce que pourrait être l’écosystème auquel nous participons et ces analyses vraies ou fausses sur le futur causent déjà des effets réels, dans le présent. Par ces analyses, prédictions et projections massives et partiellement réentrantes, l’entreprise de projeter l’architecture et les usages de la ville ou du bâti en est démultipliée, distribuée, décentralisée aussi bien dans l’espace que dans le temps.

L’émergence computationnelle traditionnellement considérée comme faible devient ici forte, puisque, en s’adjoignant les réseaux, qui sont comme des filets de captage et de renvoi d’informations, les patterns émergents peuvent être représentés à tous en temps réel et avoir un effet réellement causal du haut vers le bas, donc sur leurs éléments et composants locaux. Or, cet effet causal en retour a lieu précisément lorsque les agents individuels sont motivés non plus seulement par des contraintes de lois physiques mais aussi par des valeurs de type axiologique (bien que la diffusion de phéromones volatiles ou la stigmergie installe déjà une sensibilité du local au global émergé dès le vivant non humain) : ils sont par excellence à même de pouvoir juger et réagir face à l’image changeante du tout auxquels ils appartiennent, sinon leur action locale ne serait que localement réactive et ne changerait donc pas de celle d’un élément physico-chimique à l’occasion de cet apport d’information sur le tout.

C’est donc sans doute ainsi, lorsqu’on couple le numérique réticulaire au numérique computationnel, qu’on peut espérer non seulement simuler mais, davantage, mimer voire projeter (plutôt donc que prédire) l’implémentation de valeurs axiologiques, voire jusqu’à l’évolutivité et l’inventivité même de ces normes de l’action dans nos systèmes inséparablement techniques, biologiques et sociaux. Si un être vivant est un être normé, comme l’enseignait Canguilhem, c’est parce qu’il a aussi la spontanéité de poser et de renouveler ses normes. Dans cet usage du numérique réticulaire associé au computationnel, l’évolutivité, la durabilité, des projets ne serait donc plus seulement liée à la capacité de résilience du système, entendue ici au simple sens d’une résistance à la perturbation, mais aussi à la capacité qu’aurait le système d’inventer, pour lui-même, des normes axiologiques nouvelles. Ce serait alors un « se faire projet » ou un « projeter » éminemment dynamique puisqu’incluant la possibilité de modifier et d’inventer ses propres normes d’accomplissement.

Conclusion

Ainsi, donc, j’ai suggéré très succinctement ici que le numérique, comme mode de formalisation de plus en plus souple et articulé, nous apprend plus de choses – ou bien d’autres choses – sur le vivant que les types de modélisation formelle des siècles passés. Comme telle, le numérique peut aider l’architecture et il le fait déjà depuis longtemps, sur la base de ce qu’il sait déjà faire en sciences du vivant : à savoir mieux simuler, mieux mimer, mieux analyser, mieux prédire et mieux projeter.

Mais, pour finir, je ne voudrai pas donner l’impression qu’il faut être – au sujet du numérique – d’un optimisme béat. Indépendamment même des problèmes d’éthique des données et de la vie privée, le numérique réticulaire, les réseaux, comme aussi ce qui participe de l’auto-observation et de l’auto-analyse des systèmes, à commencer par les techniques d’IA numérique, comme l’apprentissage machine en particulier, sont pour l’heure d’énormes consommateurs d’énergie carbonée. À mon avis, au vu des techniques actuelles très énergivores, il faut même décourager systématiquement l’usage de ce type d’algorithmes non pas certes dans la conception ponctuelle mais dans le fonctionnement permanent – at runtime – d’un système socio-technico-biologique.

Je souhaite également alerter sur le fait que la complexité, celle qui est à moteur non hiérarchique comme je l’ai succinctement rappelé ici, celle qui favorise par là des émergences non administrées hiérarchiquement n’est pas toujours bonne en soi. Elle est causée par des effets d’interactions locaux et/ou par des effets de bouclage inter-échelle : de ce fait, elle donne lieu parfois à certaines propriétés émergentes dont l’inévitabilité et la robustesse sont absolument redoutables. Par exemple la fractalité des structures urbaines (Frankhauser, 1993) se révèle un attracteur robuste, inévitable presque partout, donc une malédiction pour le changement biomimétique que nous prônons, puisqu’expliquant de manière socio- mécanistique imparable – en contexte démocratique tout au moins – la tragédie du mitage et de l’étalement urbain.

Je dirai donc de l’auto-organisation et de la complexité quelque chose de proche de ce que Pascal disait de l’imagination : elle est « d’autant plus fourbe qu’elle ne l’est pas toujours». Quasi-analogiquement, on peut dire que «la complexité est d’autant plus complexe qu’elle ne l’est pas toujours » : la complexité des interactions et interconnexions est en effet aussi un redoutable moteur de simplification et de fixation de patterns robustes qui se révèlent parfois humainement, biologiquement et socialement inacceptables. La complexité a des effets autonomes de simplification indésirables que les sociologues ou psychologues sociaux appellent effets pervers. Ce qui peut détourner la complexité de ce type de trajectoires perverses, c’est notre possibilité de conserver la main sur l’existence même de certaines échelles, donc aussi de certains éléments qui participent de l’auto-organisation. Ce qu’on peut dire, à l’heure actuelle me semble-t-il, c’est que la valeur de la résilience doit elle-même être placée plus haut, ou au moins aussi haut, que celle de l’auto-organisation et de la complexité, fussent-elles biomimétiques. Mais apprendre à savoir comment – et au nom de quelle valeur – administrer les hommes et les choses pour favoriser la résilience des systèmes est sans doute un défi tout aussi redoutable. Je vous remercie.

Bibliographie sélective : 

Andrasek, A., Biothing, Orléans, HYX, 2009.


Benyus, J., Biomimétisme, Paris, Rue de l’échiquier, 2011 [1998].


Brayer, M.A., Migayrou, F., (eds.), Naturaliser l’achitecture / Naturalizing architecture, Orléans, HYX, 2013.


Oxman, N., “Material Ecology”, in Brayer & Migayrou, op. cit., p. 214-217. Accessible en ligne : https://www.editions-hyx.com/sites/default/files/public/media/neri_oxman.pdf 


Oxman, N., “Material Ecology”, in Brayer & Migayrou, op. cit., p. 214-217. Accessible en ligne : https://www.editions-hyx.com/sites/default/files/public/media/neri_oxman.pdf 

Oxman, R., « Naturaliser la conception architecturale / Naturalizing Design », in Brayer & Migayrou, op. cit. , p. 106-121. 

Pawlyn, M., Biomimétisme et Architecture, Paris, Rue de l’échiquier, 2019 [2016].


Varenne, F., Du modèle à la simulation informatique, Paris, Vrin, 2007.


Varenne, F., Formaliser le vivant : lois, théories, modèles ?, Paris, Hermann, 2010.


Varenne, F., Théories et modèles en sciences humaines. Le cas de la géographie, Paris, Éditions Matériologiques, 2017. Site Matériologiques


Varenne, F., « Le parti-pris des choses computationnelles – Modèles et simulations en design et architecture / The Nature of Computational Things – Models and simulations in Design and Architecture», in Brayer & Migayrou, op. cit. , p. 96-105. Accessible en ligne: https://www.editions-hyx.com/sites/default/files/public/media/f.varenne.pdf 

Varenne, F., Chaigneau, P., Petitot, J., Doursat, R.,“Programming the Emergence in Morphogenetically Architected Complex Systems”, Acta Biotheoretica, September 2015,Volume 63, Issue3 ,pp 295-308. http://link.springer.com/article/10.1007/s10441-015-9262-z