Louise Desrenards on Sun, 6 Mar 2005 08:35:19 +0100 (CET)


[Date Prev] [Date Next] [Thread Prev] [Thread Next] [Date Index] [Thread Index]

[nettime-fr] une nouvelle théorie de l'embryogenèse et du cancer


En route vers le changement paradigmatique radical...
http://www.vivantinfo.com/numero9/hasard_selection.html
http://www.criticalsecret.com/jeanjacqueskupiec/



Dans "Vivant"
Entretien



Le darwinisme cellulaire,

une nouvelle théorie de l'embryogenèse et du cancer

     Voilà cinq ans, le livre « Ni Dieu ni gène », signé par Jean-Jacques
Kupiec et Pierre Sonigo, avait fait du bruit dans la communauté des
biologistes francophones. Prenant le contrepied des vues déterministes qui
alimentent la biologie depuis des décennies, il popularisait l'idée que le
hasard joue un rôle moteur dans la différenciation cellulaire et, par là,
dans le développement des organismes vivants. Aujourd'hui, J.J. Kupiec,
épaulé par le physicien Bertrand Laforge, affine sa théorie grâce à une
publication reposant sur des travaux de simulation informatique. Avec des
perspectives quant aux mécanismes et au traitement de la cancérogenèse.


V.
Jean-Jacques Kupiec, vous avez élaboré dans les années 1980 une théorie dite
de hasard-sélection. Elle explique la naissance de différents types
cellulaires à partir d'un seul en s'écartant des modèles déterministes, pour
lesquels les cellules se différencient parce qu'elles ont reçu une
information spécifique leur « disant » de se transformer d'une façon donnée.

Jean-Jacques Kupiec
Les scientifiques essaient toujours d'« aller au large », de donner le plus
d'extension possible à leurs idées, qu'ils appellent alors des théories.
Dans notre cas, il serait plus raisonnable de parler de modèle. Le modèle de
hasard sélection que j'ai proposé en 1981 s'attaque à la question de la
différenciation cellulaire, un phénomène primordial de l'embryogenèse. Je
l'ai appelé a posteriori modèle darwinien, parce qu'il ressemble à la
théorie darwinienne de l'évolution. Comme elle, il suggère que le hasard est
créateur d'une diversité sur laquelle opère la sélection naturelle. Dans mon
modèle, le hasard crée de la diversité cellulaire grâce à l'expression
aléatoire, probabiliste, des gènes ; parallèlement, il y a sélection de l'un
des états cellulaires ainsi produits, par le jeu des interactions entre
cellules.

V.
Charles Darwin en 1854, cinq ans avant la publication de L'origine des
espèces.

Pourquoi s'écarter des modèles déterministes ? Parce qu'ils butent sur une
impossibilité logique. Ils supposent qu'il y aurait d'emblée une asymétrie,
une hétérogénéité entre cellules : une cellule doit dès le départ être
différente des autres puisqu'elle synthétise un signal que les autres ne
produisent pas. Or un bon cadre théorique de la différenciation cellulaire
devrait expliquer l'émergence d'une hétérogénéité à partir d'une situation
d'homogénéité.
La réponse classique des embryologistes est de dire que l'asymétrie existe
bien au départ : les divisions cellulaires initiales de la cellule ouf sont
asymétriques, ou bien l'ouf comporte un gradient de concentration de
certaines protéines, le gradient morphogénétique. Cela suppose dans le
premier cas que quelque chose détermine l'asymétrie des clivages, mais on
n'explique pas ce que c'est, et dans le deuxième cas que l'hétérogénéité est
déjà présente dans la cellule ouf, sans en préciser l'origine.
La seule solution pour sortir de cette impossibilité logique est d'admettre
que les cellules peuvent elles-mêmes se différencier spontanément. Dès lors
que l'on sort du cadre déterministe, les interactions cellulaires
apparaissent non plus comme des inducteurs de la différenciation, mais comme
des éléments de stabilisation de la différenciation.
Votre travail récent réalisé par simulation informatique [1] semble
corroborer le modèle de hasard-sélection en montrant qu'un système organisé,
une bicouche de cellules, peut être généré spontanément à partir de deux
types cellulaires, en présence de facteurs de croissance (voir l'encadré
ci-dessous).

V.
Comment en êtes-vous venus à la simulation informatique ?

Bertrand Laforge
Peut-être le mieux est-il de reprendre l'histoire à son début. J'ai eu
l'occasion de rencontrer Jean-Jacques Kupiec en mars 1999, lors des
Rencontres de Moriond, aux Arcs (Savoie), où se tenaient en parallèle une
conférence internationale de physique et un colloque francophone de
biologie. Deux soirées étaient consacrées à des échanges entre physiciens et
biologistes. Lors de l'une d'elles, Jean-Jacques Kupiec a exposé le travail
qu'il avait réalisé sur les aspects historiques et méthodologiques de la
biologie, et finalement son modèle d'expression aléatoire des gènes.
Je me suis aperçu que ce modèle correspondait à la vision latente que
j'avais de la biologie ; Kupiec parlait mon langage. Je suis physicien, je
sais que les lois qui régissent les systèmes au niveau atomique ont une
nature aléatoire, que les prédictions que l'on peut effectuer sur
l'évolution de tels systèmes sont statistiques : on ne peut jamais prédire
l'état futur du système, mais seulement estimer la probabilité d'un état. En
revanche, dans des systèmes macroscopiques, dans lesquels le nombre d'atomes
est très grand, des phénomènes reproductibles apparaissent, qui
correspondent à des moyennes de distributions d'un grand nombre d'événements
aléatoires. C'est une illustration de la loi des grands nombres qui fait que
la probabilité d'obtenir pile ou face en lançant une pièce un grand nombre
de fois avoisine 0,5, alors qu'il est pourtant impossible de prédire quel
sera le résultat de chaque lancer.
En physique, on peut décrire ce que l'on appelle les « transitions de
phase » de la matière à grande échelle (ses changements d'état), par exemple
les transitions magnétiques des matériaux, par du hasard local qui
s'organise, c'est-à-dire la fluctuation de variables dont la moyenne produit
un effet tangible au niveau macroscopique.
Lors de cette soirée, je me suis rendu compte que les biologistes présents
manifestaient une totale incompréhension de ces notions probabilistes. Ils
ne comprenaient pas que le hasard puisse produire quelque chose de
reproductible au niveau de l'organisme. Il m'est apparu alors qu'une manière
simple de les convaincre serait de faire des simulations sur ordinateur.
C'est ce que j'ai proposé à Kupiec. Nous avons rapidement commencé à
construire un modèle in silico avec l'aide d'un stagiaire de maîtrise puis
de DEA, David Guez.

Jean-Jacques Kupiec
La simulation informatique me convenait bien. Les données qui soutiennent
une vision probabiliste de la différenciation cellulaire se sont accumulées
depuis quarante ans. Pour qu'elles soient prises en compte, digérées et
interprétées par les scientifiques, il faut montrer qu'elles peuvent
parfaitement trouver leur place dans un cadre théorique adéquat. C'est ce
que nous permet de faire la simulation informatique.

Une simulation pour un changement de paradigme

Le modèle de hasard-sélection prédit que les cellules se différencient avant
tout en raison d'événements stochastiques internes tels que l'activation
aléatoire des gènes. De manière concomitante, des interactions cellulaires
stabilisent les phénotypes qui émergent. Chaque gène d'une cellule ne serait
pas systématiquement activé en présence de son « activateur » ou
systématiquement inhibé en présence de son « répresseur » ; il aurait
seulement une certaine probabilité d'être activé ou d'être « réprimé ».
Cette probabilité changerait avec les variations de la concentration locale
des facteurs de transcription qui régulent l'expression du gène. Selon
Jean-Jacques Kupiec, ces variations tiendraient elles-mêmes au déplacement
par diffusion le long de la molécule d'ADN, au sein de la chromatine, des
molécules régulatrices.

Les paramètres en jeu
Pour tester ce modèle, Bertrand Laforge, J.J. Kupiec et leurs collaborateurs
ont conçu une simulation informatique dont les ingrédients sont les
suivants. Une population cellulaire comprend deux types de cellules, A et B,
différenciés par leurs couleurs et le type de protéine qu'ils synthétisent.
Les cellules A peuvent se transformer en cellules B, et inversement. La
probabilité de cette transformation est fonction de la concentration en
molécules S, synthétisées par chaque cellule. Ces molécules peuvent être des
facteurs de croissance, de différenciation, de division ou de survie pour
les cellules, qui diffusent passivement dans les compartiments cellulaires
et entre les cellules (une approximation par rapport à la réalité, mais qui
ne change pas la signification globale du système, indiquent les auteurs).
Ces molécules S ont deux actions possibles : soit elles stabilisent
(c'est-à-dire facilitent la survie) des cellules qui les ont synthétisées
(autostabilisation), soit elles stabilisent les cellules qui ne les ont pas
produites, celles de l'autre type (interstabilisation). Cependant, pour
survivre, chaque cellule d'un type a besoin de molécules S produites par
l'autre type. C'est l'« interdépendance pour la prolifération ».

Les ingrédients ainsi posés, la simulation du modèle consiste à faire varier
la valeur des paramètres correspondants : nombre de molécules S
synthétisées, nombre de molécules S consommées, longueur de diffusion libre
des molécules S, rythme de leur dégradation, taux d'autostabilisation,
d'interstabilisation, taux de division cellulaire et de mort cellulaire,
etc.


Le contrôle de la proliferation cellulaire se fait
par l'équilibre entre les paramètres du modèle.


Les chercheurs ont constaté que pour toute une gamme de valeurs des
paramètres, une structure formée de deux couches de cellules, l'une de
cellules A, l'autre de cellules B, se développe. Dans le jeu de paramètres
nominal étudié, la formation de cette structure se produit dans 79 % des
cas. La structure en bicouche prend longitudinalement une allure différente
à chaque simulation, mais se stabilise toujours alors qu'aucun paramètre n'a
introduit un arrêt de croissance. En revanche, si la simulation informatique
supprime la mort cellulaire (les cellules continuent à vivre même si la
quantité de facteurs trophiques est insuffisante), la structure cellulaire
ne se forme plus que dans 50 % des cas. La mort cellulaire semble donc jouer
un rôle positif dans la formation de la bicouche, qui expliquerait son
origine évolutive.

Ce résultat accrédite la thèse du darwinisme cellulaire : les cellules sont
sélectionnées en fonction de leur environnement. Celles qui sont adaptées
survivent, celles qui ne le sont pas meurent. Ainsi, à l'origine, la
différenciation et la mort cellulaires auraient été deux effets d'un même
processus : la sélection naturelle opérant au niveau cellulaire.

Equilibre et cancer
Cependant, le résultat le plus spectaculaire est sans doute celui-ci : la
modification des paramètres de l'autostabilisation ou de la diffusion
provoque une croissance anarchique de la bicouche qui finit par envahir tout
l'espace disponible, à la manière d'un tissu cancéreux (voir la figure
ci-dessus). Les chercheurs en concluent que l'organisation tissulaire ne
résulte pas de valeurs normales de paramètres cellulaires, mais d'un rapport
entre ces valeurs qui permet de créer un équilibre. Cet équilibre traduit
aussi bien les influences du génome que celles du micro-environnement des
cellules.

V.
Selon Laforge et Kupiec, le cancer correspond à la destruction de cet
équilibre. Un fonctionnement tissulaire normal pourrait être rétabli en
agissant sur l'un ou plusieurs des paramètres stabilisateurs qui participent
à l'équilibre et non plus seulement, comme le prévoit la théorie classique,
en inhibant, en rétablissant ou en réparant un facteur que l'on a trouvé
muté ou surexprimé.
Pourquoi ne pas tester aussi le modèle sur du vivant ?

Bertrand Laforge
Peut-être est-ce une déformation professionnelle de physicien. Mais quand on
veut mettre en évidence qu'une hypothèse est licite, la simulation est
idéale, d'autant plus qu'une cellule vivante est extrêmement complexe :
l'ordinateur permet de savoir exactement quelles sont les propriétés que
l'on met dans le système expérimental et de maîtriser parfaitement celui-ci.
On peut de proche en proche perfectionner le modèle, en regardant à chaque
étape ce que les propriétés mises en jeu sont alors capables de générer.
C'est du réductionnisme méthodologique très efficace. Bien évidemment, cette
démarche n'a de sens que si elle s'inscrit dans le contexte des
connaissances expérimentales de la biologie moléculaire et de
l'embryogenèse.
Jean-Jacques Kupiec
En fait, l'approche informatique et l'approche expérimentale sont
indispensables et complémentaires. La simulation permet de voir si le modèle
produit quelque chose de compatible avec ce que l'on connaît de la réalité.
L'expérience permet de mesurer en direct des modifications cellulaires et
moléculaires. J'ai d'ailleurs effectué un travail expérimental en 2003, en
collaboration avec Thomas Heams, qui effectuait sa thèse, afin de quantifier
la variabilité stochastique d'expression de gènes sur un modèle cellulaire :
des cellules de neuroblastome en culture. Et nous avons confirmé que
l'expression du récepteur de l'insuline varie fortement et aléatoirement
d'une cellule à une autre [2], ce qui va dans le sens d'autres publications.
Reste la critique plus facile affirmant qu'une simulation informatique d'un
modèle ne peut décrire la complexité du vivant ?

Bertrand Laforge
C'est oublier que la compréhension du monde qui nous entoure repose
essentiellement sur des modèles. Affirmer que les électrons existent n'est
jamais qu'un modèle de la réalité physique qui nous permet de rendre
intelligibles les faits expérimentaux. En biologie aussi, il n'y a jamais
que des concepts qui ne traduisent pas exactement la réalité concrète
sous-jacente ; ils n'en sont qu'une approximation. Cela admis, il est
logique en biologie d'utiliser la méthode d'analyse la plus économique,
c'est-à-dire, en l'absence de lois spécifiques du Vivant démontrées, de
concevoir des modèles reposant sur ce que l'on connaît des lois de la
physique et de la chimie. S'il s'avère qu'elles ne peuvent répondre aux
problèmes posés par le Vivant, il sera toujours temps de parler de lois
spécifiques du Vivant. Mais nous n'en sommes pas là.
Votre modèle probabiliste peut-il coexister avec le modèle classique du
programme génétique ? En 1998, vous écriviez par exemple, Jean-Jacques
Kupiec, qu'« il est possible que certains gènes fonctionnent selon le modèle
d'expression aléatoire, alors que d'autres gènes fonctionneraient selon un
modèle classique » [3].
Jean-Jacques Kupiec
Un événement régi par une logique déterministe est un cas limite du modèle
probabiliste pour lequel la probabilité de l'événement est égale à 1. Dans
les systèmes biologiques tels que nous les concevons, soumis à une dynamique
aléatoire, il peut y avoir des cas où la probabilité d'un événement avoisine
1. Ainsi, la probabilité de l'expression d'un gène dépend de la
concentration locale de facteurs de transcription qui activent cette cible ;
dès lors, dans des conditions saturantes, la probabilité d'expression sera
proche de 1.
Néanmoins, le système restera probabiliste au sens où les événements
physico-chimiques sous-jacents sont des interactions de molécules soumises
au hasard brownien. On est donc dans un cas comparable à la physique : des
événements macroscopiques peuvent être décrits par des équations de nature
déterministe, alors qu'au niveau moléculaire chaque particule a un
comportement aléatoire et suit des lois probabilistes.


V.
D'où vient finalement la réticence à considérer le rôle structurant du
hasard pour les organismes alors qu'il est admis pour la théorie de
l'évolution, qui est la pièce maîtresse de la biologie ?

Jean-Jacques Kupiec
Historiquement, il a été très difficile d'admettre que le hasard est le
moteur de l'évolution. Il nous est encore plus difficile d'accepter qu'il
puisse être à la source de notre propre genèse individuelle. La réticence
est du même ordre. L'embryologie a été dominée par les conceptions
déterministes depuis l'Antiquité.
Pour la période plus récente, cette réticence provient également en partie
du livre du physicien autrichien Erwin Schrödinger (1887-1961) « Qu'est-ce
que la vie ? » publié en 1944 [4]. Il a profondément influencé les
biologistes moléculaires à la suite de Max Delbrück et de Watson et Crick
[5]. Schrödinger, prix Nobel 1933 pour ses travaux de physique quantique, se
demandait si la loi des grands nombres, autrement dit la production d'effets
constants par le jeu d'un très grand nombre d'événements aléatoires
constituant un phénomène, pouvait permettre de comprendre l'organisation du
Vivant. Or, en partant de l'observation de l'époque que les gènes
comportaient peu d'atomes et que leur nombre était petit, il en a conclu
qu'ils ne pouvaient se conformer à la loi des grands nombres, que les atomes
les constituant n'étaient pas soumis au hasard brownien.

Bertrand Laforge
En fait Schrödinger se trompait, on le sait maintenant. Le nombre de
constituants moléculaires et d'interactions dans une cellule est
gigantesque, de l'ordre du nombre d'Avogadro (6,02 x 10 puissance 23). Il
n'y a aucune raison de nier l'existence d'une forte variabilité des
phénomènes moléculaires sur lesquels des comportements moyens très
reproductibles peuvent émerger. Malgré ce constat, la plupart des
biologistes ne se posent pas la question de la dynamique des processus
d'expression de gènes. Ils mettent l'accent sur la structure, pas sur la
structuration. Ils oublient le rôle de la variabilité, c'est-à-dire la
dispersion des valeurs d'un paramètre dans le temps.
Ainsi lorsque des embryologistes parlent de l'embryon, ils évoquent les
stades de développement deux cellules, quatre cellules, etc., pour signifier
que le processus d'embryogenèse suit un déroulement temporel similaire d'un
embryon à un autre. Ils gomment par là les différences qualitatives et
quantitatives qui peuvent exister d'un embryon à un autre ; ou s'ils les
observent, ils les considèrent comme négligeables.
Cela étant dit, la dynamique aléatoire ne suffit pas à produire un système
cohérent. Notre simulation le confirme. Cette dynamique ne permet d'évoluer
vers quelque chose de reproductible que si elle est contrainte. Prenons une
image : si je me déplace au hasard, je n'aurai pas la même trajectoire selon
que je parcours un couloir étroit ou un environnement ouvert : dans le
premier cas, mon itinéraire sera déterminé et j'atteindrai la sortie à coup
sûr ; dans le second cas, sans contraintes, la variabilité de parcours sera
très grande. Dans une cellule, les contraintes applicables à la dynamique
aléatoire des paramètres sont multiples : elles sont internes, depuis la
structure de la chromatine, de l'ADN, des gènes et des ARN, jusqu'aux
structures intracellulaires (complexes protéiques, cytosquelette, etc.).
Elles sont aussi externes : hormones, signaux moléculaires, interactions
cellulaires, facteurs physico-chimiques environnementaux (pression,
température, facteurs nutritifs,.), et aussi endogènes, liées à l'émergence
de la structure globale en développement.
Cette notion de « contraintes » est utile car elle relie bien le
microscopique et ses lois physico-chimiques au monde macroscopique et à
l'environnement. De manière heuristique, elle permet d'intégrer le
darwinisme classique et l'ensemble des processus biologiques micro, méso et
macroscopiques dans un cadre théorique unique dont la formalisation est
encore à faire.

V.
Justement votre travail de simulation a produit une nouveauté quant à ce que
provoquent ces contraintes, par rapport au modèle tel qu'il se présentait :
la notion d'équilibre sélectif.

Jean-Jacques Kupiec
Dans la première version du modèle, le hasard intervenait dans la
détermination des types cellulaires ; puis se produisait une sélection par
stabilisation de l'un des ces types grâce à deux types d'interactions : soit
de l'interstabilisation (une cellule fabrique un signal moléculaire qui
stabilise le phénotype d'une autre cellule) ; soit de l'autostabilisation
(une même cellule stabilise son phénotype, par exemple par auto-régulation
d'un gène).
Les deux interactions ont été simulées d'abord indépendamment. On s'est
immédiatement aperçu qu'elles engendraient des résultats différents. Dans
l'interstabilisation, des structures de petite taille étaient favorisées :
une cellule a besoin des autres cellules pour être stabilisée ; plus elles
sont proches, plus vite la cellule est stabilisée dans un état donné. Dans
l'autostabilisation, les structures produites sont plus grandes. Pour la
deuxième version du modèle, nous avons donc couplé l'autostabilisation avec
une forme d'interstabilisation, que nous avons appelée « l'interdépendance
pour la prolifération ».

V.
Fait étonnant, vous montrez que les structures se stabilisent sous forme de
bicouches alors qu'il n'y a aucun élément déterminant dans les ingrédients
de départ ?

Jean-Jacques Kupiec
Nous sommes allés là largement au-delà de ce nous voulions faire
initialement. En effet, la structure cesse de croître alors que le programme
informatique ne spécifie aucune condition d'arrêt de croissance. Il se
produit un état d'équilibre spontané entre les deux processus
d'autostabilisation et d'interdépendance. Or l'arrêt de croissance est une
propriété que l'on attend d'une théorie de l'embryogenèse. Cette question du
contrôle de la prolifération est fondamentale pour la compréhension du
cancer.

V.
L'hypothèse classique sur le cancer est que des mutations de signaux
entraînent une prolifération ou une différenciation anormales. En quoi votre
résultat en diffère-t-il ?

Jean-Jacques Kupiec
L'hypothèse classique de la cancérisation propose que les cellules se
mettent à proliférer ou arrêtent de se diviser parce qu'elles reçoivent des
signaux dans un sens ou dans l'autre. Or nos simulations suggèrent que
l'arrêt de croissance ne résulte pas d'un signal «stop » mais simplement
d'un équilibre quantitatif des différents paramètres qui règlent les
processus de croissance. Si l'on modifie cet équilibre en changeant la
valeur quantitative de certains paramètres, les cellules recommencent à
pousser d'une façon qui évoque le phénomène cancéreux (voir l'encadré
précédent).
Si la prolifération ne tient qu'à un équilibre entre paramètres, ne
devrait-on pas être envahi par le cancer, puisque l'équilibre bascule
facilement vers le déséquilibre ?

Bertrand Laforge
Pas forcément. Un équilibre physique ou physico-chimique peut être
extrêmement robuste. Par exemple, il est très difficile d'inverser
l'équilibre de l'aimantation.

Jean-Jacques Kupiec
L'équilibre n'a pas plus de raison d'être altéré dans notre configuration
que dans le cadre de la théorie classique. Les valeurs quantitatives
d'équilibre en question sont par exemple les constantes d'association ou de
dissociation entre un facteur de transcription et sa cible dans l'ADN. Elles
découlent de la structure de l'ADN et possèdent donc des valeurs fixes,
déterminées au niveau atomique.

V.
Peut-être plus important, vous suggérez que cette notion d'équilibre peut
donner lieu à de nouvelles pistes thérapeutiques. Comment cela ?

Jean-Jacques Kupiec
L'idée est que l'organisation tissulaire résulte d'un équilibre qui peut
être atteint avec différents jeux de paramètres. Si un gène est muté et que
la protéine correspondante diffuse moins dans la cellule et le milieu, la
théorie classique dira qu'il faut rétablir la protéine sauvage ; on fera
donc de la thérapie génique. Selon notre modèle, si par exemple, la mutation
correspond à une altération de l'un des processus nécessaires à l'équilibre,
l'interdépendance pour la prolifération ; on pourrait donc rétablir
l'équilibre grâce à une action sur l'autre processus, l'autostabilisation du
gène, en modifiant par exemple l'interaction d'un facteur de transcription
avec sa cible.

Bertrand Laforge
Une autre explication de la cancérisation est la suivante : si un agent
cancérigène a une certaine affinité pour une molécule qui diffuse dans le
micro-environnement, leur association crée localement des structures
moléculaires plus grosses qui diffusent plus lentement ou plus du tout, et
cela désorganise le tissu. Des cancers pourraient donc naître en l'absence
de mutation, par suite de l'interaction d'un agent environnemental avec une
molécule essentielle à l'équilibre tissulaire.

V.
La mort cellulaire joue aussi un rôle primordial dans l'équilibre que vous
décrivez.

Jean-Jacques Kupiec
C'est un résultat important et relativement inattendu, même si l'on savait
que la mort cellulaire est nécessaire à beaucoup de processus qui
structurent le Vivant. Dans notre modèle, si les cellules ne métabolisent
pas assez de facteurs de signalisation ou de facteurs trophiques, elles
meurent. Mais si l'on empêche la mort cellulaire, le taux de formation de la
bicouche de cellules diminue. La mort cellulaire améliore donc la viabilité
de la bicouche. Cette observation renforce l'idée que la différenciation
cellulaire tire son origine de la sélection naturelle : les cellules non
adaptées à leur environnement local meurent ; empêchées de mourir, elles
provoquent un déséquilibre qui entrave la structuration du système. C'est
une façon darwinienne d'expliquer que la mort cellulaire ait été maintenue
au cours de l'évolution. Nul besoin de faire appel à la notion
d'instructions internes de mort cellulaire ou à celle de programme
génétique.
Si vous vous opposez au dogme du programme génétique en biologie, cela
veut-il dire que vous vous rapprochez des partisans de l'auto-organisation,
qui la contestent également ? Ceux-ci pensent que le Vivant est capable de
s'organiser, de faire émerger de la nouveauté de lui-même, en raison de
propriétés intrinsèques qui le rendent capable de réagir à des perturbations
aléatoires externes ou internes.

Jean-Jacques Kupiec
Le concept d'auto-organisation est devenu très à la mode mais l'on ne
comprend plus vraiment ce qu'il signifie. Ce courant, qui date des années
soixante, est une application à la biologie de la théorie de l'information
et de la cybernétique, ou de la thermodynamique. Il a connu plusieurs
variantes portées principalement par Henri Atlan, Ilya Prigogine et Stuart
Kauffman. Toutes ces variantes s'opposent au paradigme du programme
génétique de la biologie moléculaire, mais aussi au rôle de la sélection
naturelle, jugée insuffisante pour expliquer la complexité du Vivant. Des
propriétés spontanées des cellules produiraient de la complexité. On
retrouve au fond dans ce concept le principe du lamarckisme, une tendance
spontanée à la complexification, mais aussi un néo-finalisme transparent
dans l'idée d'« états attracteurs » qui guideraient les organismes dans leur
développement.
J'ajoute que ce courant n'a jamais pu déboucher sur des modèles précis de
fonctionnement des êtres vivants permettant d'intégrer les données concrètes
acquises par la biologie, comme l'expression stochastique des gènes. Le
modèle de différenciation proposé par Henri Atlan fait appel à un principe
de diminution de la redondance. Il se réfère à la redondance génétique. Mais
ce modèle est oublié aujourd'hui.
Il ne faut donc pas confondre notre modèle de hasard-sélection avec de
l'auto-organisation. Cela relèverait d'une grande confusion intellectuelle.
Nous proposons au contraire une extension du rôle de la sélection naturelle
: un darwinisme interne à l'organisme, découlant du hasard et de contraintes
environnementales ou intracellulaires telles que la structure de l'ADN.

V.
Votre travail va-t-il déboucher sur d'autres publications ?

Jean-Jacques Kupiec
Bien sûr, oui ! Je ne vais pas m'arrêter en si bon chemin, et Bertrand est
d'attaque également. Cependant, je profite de cette question pour rappeler
que nous avons nous-mêmes nos contraintes. En France, il ne se passe pas six
mois sans qu'un rapport ou un colloque fasse l'apologie de
l'interdisciplinarité. Depuis cinq ans, nous avons réalisé un travail
interdisciplinaire sans nous poser de questions de politique scientifique,
mais simplement parce que nous en ressentions la nécessité scientifique. Or
nous n'avons pas reçu le moindre soutien institutionnel. Aucun organisateur
de colloque sur l'interdisciplinarité biologie-physique n'a songé à nous
inviter. J'ai fait toute une série de demandes de financement sur des
aspects expérimentaux ou de simulation. Toutes ont été refusées. Est-ce
normal ? C'est uniquement grâce à la volonté de Bertrand Laforge que nous
avons pu développer cette recherche sur le hasard-sélection en biologie.
Notre travail a tout de même débouché sur une publication de trente pages
dans une grande revue ! Aujourd'hui, les articles sur l'expression
stochastique des gènes fleurissent dans des revues prestigieuses telles que
Nature, Science ou Cell. Il serait quand même bon que la France ne reste pas
à la traîne.


Propos recueillis par Jean-Jacques Perrier


Jean-Jacques Kupiec est chercheur Inserm au sein du Centre Cavaillès de
l'Ecole normale supérieure, à Paris.
Bertrand Laforge est maître de conférence au Laboratoire de physique
nucléaire et des hautes énergies (LPNHE), CNRS/IN2P3, Université Pierre et
Marie Curie, Paris.




[1] B. Laforge, D. Guez, M. Martinez et JJ. Kupiec (2005) Modeling
embryogenesis and cancer: an approach based on an equilibrium between the
autostabilization of stochastic gene expression and the interdependence of
cells for proliferation, Progress in Biophysics and Molecular Biology, à
paraître en avril 2005.
Accessible sur Science Direct pour le résumé ou le texte complet (abonnés)
[2] T. Heams, J.J. Kupiec (2003) Modified 3'-end amplification PCR for gene
expression analysis in single cells, Biotechniques 34: 712-714.
[3] J.J. Kupiec (1998) Un mécanisme de hasard-sélection pourrait expliquer
la différenciation de plusieurs types cellulaires, médecine/sciences 14:
115-121.
[4] E. Schrödinger (1944) What Is Life? The Physical Aspect of the Living
Cell, Cambridge University Press, Cambridge. Trad. Qu'est-ce que la vie ?,
Seuil, Points sciences, 1993.
[5] K.R. Dronamraju (1999) Erwin Schrödinger and the Origins of Molecular
Biology, Genetics 153: 1071-1076. En ligne ici

 Pour aller plus loin


JJ. Kupiec et P. Sonigo (2000) Ni Dieu ni gène. Pour une autre théorie de
l'hérédité, Seuil, Paris, 2e éd. Points Sciences, 2003.
J.J. Kupiec (2004) Vers un darwinisme cellulaire, in: J. Dubessy et al.
(eds) Les matérialismes (et leurs détracteurs), Syllepse, Paris, pp 237-236.
B. Laforge (2004) Prolégomènes à une nouvelle théorie du vivant, in: J.
Dubessy et al. (eds) Les matérialismes (et leurs détracteurs), Syllepse,
Paris, pp. 263-278.
T. Heams (2004) Biologie moléculaire : affronter la crise de la
cinquantaine, in: J. Dubessy et al. (eds) Les matérialismes (et leurs
détracteurs), Syllepse, Paris, pp. 237-262.
Publications récentes sur l'expression stochastique des gènes :
T. Hoang (2004) The origin of hematopoietic cell type diversity, Oncogene
23(43):7188-98.
R.D. Phair et al. (2004) Global nature of dynamic protein-chromatin
interactions in vivo: three-dimensional genome scanning and dynamic
interaction networks of chromatin proteins, Mol Cell Biol. 24(14):6393-402.
En ligne ici
J.A. Izaguirre et al. (2004) CompuCell, a multi-model framework for
simulation of morphogenesis, Bioinformatics 20(7):1129-37.
A. Paldi (2003) Stochastic gene expression during cell differentiation:
order from disorder?, Cell Mol Life Sci. 60(9):1775-8.
W.J. Blake et al. (2003) Noise in eukaryotic gene expression, Nature
422(6932):633-7.
J.M. Levsky, R.H. Singer (2003) Gene expression and the myth of the average
cell, Trends Cell Biol 13:4-6.
Sur l'auto-organisation :
S.P. Atamas (1996) Self-organization in computer simulated selective
systems, Biosystems 39: 143-151.
S. Camazine, J.L. Deneubourg, N.R. Franks, J. Sneyd, G. Theraulaz, E.
Bonabeau (2001) Self-Organization in Biological Systems, Princeton
University Press, 2e éd. 2003, 560 p.
A. Kurakin (2005) Self-organization vs Watchmaker: stochastic gene
expression and cell differentiation, Dev Genes Evol. 215(1):46-52.

© Vivant Editions



 
 
< n e t t i m e - f r >
 
Liste francophone de politique, art et culture liés au Net  
Annonces et filtrage collectif de textes.
 
<>  Informations sur la liste : http://nettime.samizdat.net
<>  Archive complèves de la listes : http://amsterdam.nettime.org
<>   Votre abonnement : http://listes.samizdat.net/wws/info/nettime-fr
<>  Contact humain : nettime-fr-owner@samizdat.net