0

Le vivant contient des combinatoires indécidables,
qu’est-ce que cela veut dire ?

Nicolas Bouleau, août 2014 

Les écosystèmes et les êtres vivants qui les constituent utilisent pour leur développement et leurs relations une multitude de réactions chimiques. Durant le demi-siècle qui suivit les grandes découvertes des années 1930 sur l’incomplétude et l’indécidabilité des systèmes formels que l’on rencontre en mathématiques, on s’est demandé si la phénoménologie de l’indécidable pouvait concerner autre chose que des notions logiques abstraites et en particulier si on la rencontrait dans la combinatoire chimique voire chez les êtres vivants eux-mêmes dans leurs processus ontogénétique de synthèse à partir de l’ADN et de son contexte.

Aujourd’hui un grand nombre de résultats théoriques et expérimentaux apportent une réponse positive à cette question. Je présente ici quelques éléments de réflexion sur les enseignements que l’on peut en tirer et discute certaines conclusions qui transparaissent explicitement ou implicitement dans la littérature scientifique spécialisée.

 

En logique mathématique : les résultats des années 1930 ont surpris

A la fin du 19ème siècle Giuseppe Peano avait proposé une axiomatisation de l’arithmétique, David Hilbert avait étudié toutes les variantes imaginables de la géométrie élémentaire euclidienne ou non euclidienne, et les mathématiciens se posaient de façon de plus en plus pressante la question de savoir si l’on pouvait axiomatiser toutes les mathématiques. Une excellente idée due à Gottlob Frege fut de tout ramener à une seule notion, celle d’ensemble. Il suffisait dès lors d’axiomatiser la relation d’appartenance dans un langage codifié bien adapté aux mathématiques.

Malheureusement le système, philosophiquement simple, ainsi construit fut démontré contradictoire par Bertrand Russell en 1903, et il fallut choisir des axiomes moins naturels pour que le concept d’ensemble n’engendre pas cette contradiction. Ce fut fait d’abord par Whitehead et Russell puis sous des formes voisines par d’autres, aboutissant aux mathématiques axiomatisées dont on se sert encore aujourd’hui.

Démontrer la non contradiction de ce nouveau système était évidemment une préoccupation majeure, dans laquelle s’engagea un des plus grands mathématiciens de l’époque David Hilbert avec ses élèves. Très attentif à la rigueur de la méthode à suivre pour éviter tout cercle vicieux il explicita dans un programme les arguments finitistes acceptables. Il est très intéressant que ce fût un immense mathématicien comme Hilbert qui crut à la perspective de démontrer la cohérence des mathématiques formalisées, car cela montre — point épistémologique riche d’enseignement — que la première idée dans l’appréhension du monde est toujours de penser qu’il est simple, et sa non simplicité lorsqu’elle est avérée nous surprend en des registres tout à fait inattendus, qui ne nous apparaissent plausibles qu’a posteriori.

Car en effet, le programme de Hilbert a été démontré impossible, c’est la grande découverte des années 1930 concernant l’impossibilité de preuves de cohérence et l’existence d’énoncés indécidables, dont les principales figures sont Gödel, Church et Turing. Ce que ces auteurs, selon trois approches convergentes, ont établi fondamentalement est que — pour des systèmes d’une complexité égale ou supérieure à l’arithmétique formelle décrite par les neuf axiomes de Peano — la production de conséquences est un processus parfaitement automatisable et mécanisable, mais qu’en revanche la question de savoir si un énoncé est ou non l’aboutissement d’une chaîne déductive, c’est-à-dire d’une démonstration, la question ainsi posée n’est pas soluble par un algorithme. En mathématiques formalisées, les machines peuvent produire des théorèmes, mais la question de savoir si un énoncé est un théorème ou non n’est pas soluble par des procédés mécaniques1.

L’énoncé candidat à être un théorème est une certaine chaîne finie de signes. Mais la longueur des démonstrations à investiguer pour tenter de l’atteindre comme conclusion à partir des axiomes ne peut être bornée au moyen d’un calcul algorithmique mené à partir de ce nombre fini de signes. Les mathématiques procèdent par des excursions : le simple ne s’obtient parfois que par des détours extrêmement longs et complexes.

Ensuite dans le courant du 20ème siècle d’autres systèmes combinatoires plus ou moins éloignés de la combinatoire logique ont été démontrés posséder ces propriétés d’indécidabilité. Aussi la même question concernant la combinatoire chimique et la biologie de synthèse est apparue de plus en plus naturelle.

La conviction de l’indécidabilité en biologie est venue d’exemples formels simples

Comme ni la chimie ni la biologie ne sont des systèmes formels mais des systèmes matériels soumis à la température, à la thermodynamiques et autres lois physiques, ce qui entraîna progressivement la conviction a été l’obtention de l’indécidabilité pour des systèmes formels si simples en comparaison de ce qui est connu des réactions à partir de l’ADN que de tels systèmes formels devaient à l’évidence être considérés comme présents dans la synthèse biologique.

Ceux que l’on appelle « systèmes de Thue » ont joué un rôle de premier plan à cet égard. Il vaut la peine d’écrire les choses explicitement pour ne pas en rester aux propos vagues, d’autant plus que c’est très simple : il s’agit du « problème des mots » pour un semi-groupe :

On considère le semi-groupe libre à deux générateurs, c’est à dire les mots formés avec deux lettres a et b

a, b, aa, ab, aba, … , abbabab, …

muni de la loi de composition par juxtaposition sans parenthèses donc associative. Nous désignons les mots par des lettres majuscules. On définit alors une relation d’équivalence sur l’ensemble des mots de la façon suivante :

On prend deux mots A=abbabab et B= aaba par exemple et on pose

AB (c’est l’axiome)

et on impose les règles suivantes entre mots

C C’ => CD C’D

C C’ => EC EC’

FGH FG’H => G G’.

Alors on peut montrer que

Il existe des axiomes en nombre fini
A1B1

AnBn 

tels qu’il n’existe aucun algorithme permettant de résoudre la question
E
F ?
entre deux mots quelconques.

Par exemple il a été démontré en 1958 par Tsejtin que pour les mots formés de cinq lettres (a,b,c,d,e), les règles de transition étant les suivantes

ac —> ca ; ad —> da ; bc —> cb ; bd —> db ; eca —> ce ; edb —> de ; cca —> ccae

l’itération engendre tant de complexité que la question de savoir si deux mots sont accessibles l’un à partir de l’autre par ces transitions ne peut être résolue par une machine de Turing, autrement dit par un programme d’ordinateur dont la mémoire est potentiellement infinie mais dont on n’use que d’une partie finie pour chaque calcul, a fortiori par un programme d’ordinateur ordinaire de mémoire finie.

L’exemple de Tsejtin est si simple qu’on voit mal comment la combinatoire des nucléotides pourrait être exempte des mêmes phénomènes d’indécidabilité puisqu’on y trouve également des scissions et des accrochages de molécules tout à fait similaires et beaucoup plus compliqués.

Un immense courant de recherches néo-réductionnistes

Il y a trois problèmes typiques en biologie de synthèse : a) le forward problem qui consiste à tenter de prévoir ce que le processus spontané d’assemblage peut donner, b) le backward problem qui pose la question de savoir si telle molécule ou protéine peut être synthétisée par tel système vivant, c) le yield problem est celui de savoir qu’est-ce qui sera effectivement produit par telle configuration biologique parmi tout ce qu’elle peut produire.

L’indécidabilité montre que le second problème est a priori le plus difficile puisque hors d’atteinte par des méthodes systématiques. Pour savoir si telle molécule est accessible à partir de tel ADN on en est donc réduit à faire des essais, c’est ce que fit la nature selon toute vraisemblance, et les trajets chimiques qu’elle a découverts l’ont été probablement par un nombre vertigineux de tentatives dont nous n’avons qu’une très faible trace.

Ces questions induisent les chercheurs à définir des systèmes formels plus proches de ce que l’on sait du noyau de la cellule et un très grand nombre d’articles de biologie ne parlent de biologie que dans l’introduction pour motiver le lecteur et consacre le corps du texte à de l’informatique théorique. Il est parfois difficile de savoir si l’enjeu est réellement biologique ou si la biologie est là comme support interprétatif de considérations purement informatiques, je pense que c’est souvent les deux.

Cela va même plus loin avec le courant du « natural computing » initié par Rozenberg avec la revue du même nom qui entend explorer la possibilité de faire faire du calcul scientifique de haute puissance et massivement parallèle avec l’ADN de cellules vivantes convenablement programmées.

Ces travaux ne sont pas forcément volontairement réductionnistes, mais ils le sont implicitement dans la mesure où ils ne tiennent pas compte de ce qui est spécifique du vivant par rapport aux systèmes formels. La masse gigantesque de ces travaux mi-biologiques mi-informatiques est telle qu’on a vraiment l’impression que dans l’esprit de beaucoup de chercheurs le vivant se réduit à des questions combinatoires.

Il y a de l’indécidable dans le vivant, c’est un point que l’on peut admettre, mais ce n’est pas là sa seule étrangeté, loin de là. Il s’agit d’une propriété qui ne fait pas intervenir le contexte.

C’est le contexte la pierre d’achoppement du réductionnisme

Dire que procéder sur le vivant par essais et erreurs est loisible parce que c’est ce qu’a fait la nature est une argument fallacieux, trop naïvement répété. Les mutations « naturelles » ont été et sont soumises à des contraintes de viabilité beaucoup plus sévères car les mutants doivent non seulement être ontologiquement viables mais adaptés à l’environnement naturel dans lequel ils sont apparus.

L’aventure qu’il faut maintenant appeler bionanotechnologique est fondée sur l’hypothèse implicite d’une résilience de la biosphère au delà de ce que la nature expérimente aujourd’hui dans le contexte qu’elle a engendré. Les êtres vivants sont susceptibles de voir apparaître des mutations dans leurs patrimoines génétiques, mais ils vivent dans des écosystèmes et chaque mutation n’y est pas soumise uniquement à des exigences individuelles.

Le problème est révélé par les ordres de grandeurs : au cours de l’évolution la nature a expérimenté beaucoup plus que tout ce qui a joué un rôle actif à chaque date pour la reproduction et pour la suite et ce faisant elle n’a essayé qu’une infime partie des possibles. Le résultat est que ce qui est essayé dans le contexte naturel d’aujourd’hui est une toute petite partie de ce qui est possible. On doit considérer ce contexte comme une zone « protégée » par la myriade des expériences — échecs ou réussites — passées, et par conséquent la modification artificielle de la combinatoire biologique est fondée fondamentalement sur l’idée que la combinatoire est bienveillante au delà de ce qui est le contexte dans lequel nous nous trouvons. Or cela est fondé sur un principe d’induction abusif puisque la seule loi qui s’est appliquée jusqu’ici est celle d’un contexte naturel.

Soyons plus explicite : les recherches du style « natural computing » si elles sont orientées vers le perfectionnement du calcul parallèle ou autre dispositif informatique doivent être du registre de la recherche confinée et ne sont pertinentes que si le confinement est parfaitement rigoureux. Elles posent donc des problèmes tout à fait similaires à la technologie nucléaire : les précautions indispensables représentent des contraintes sociales énormes à tenir pour les bâtiments et les personnels, la sécurité contre la malveillance ou l’usure technique. Elles ne pourront être tenues sur le moyen ou long terme.

Mais les difficultés du nucléaire sont plus simples à comprendre que celles de l’insouciance de la dissémination de modifications génétiques car on peut décrire les effets des radiations ionisantes mais on ne peut pas faire la liste des dangers des nouvelles espèces invasives, des nouveaux germes, des nouveaux virus susceptibles d’apparaître. Tout ce qui ressemble aux OGM propagés dans l’espace terrestre est une voie dangereuse selon un registre philosophique nouveau à laquelle ne s’appliquent pas les idées optimistes du progrès baconien, fondamentalement fondée sur une vision providentielle de l’environnement.

Nicolas Bouleau, août 2014

1 – Cf. N. Bouleau Philosophies des mathématiques et de la modélisation, L’Harmattan 1999; et N. Bouleau, J.-Y. Girard, A. Louveau Cinq conférences sur l’indécidabilité, Presses des Ponts 1983, arXiv:0711.4717.