Déterminisme versus
aléatoire :
réflexions sur des
obstacles épistémologiques et mathématiques
à
la compréhension et à l’enseignement du vivant.
In La Didactique de la Biologie : recherches, innovations, formations P.Clément, H.R.Dahmani et F.Khammar(EDS). Alger :ATED, p.109/126,
Yves
Girault[1]
Muséum National
d’Histoire Naturelle, Paris.
Résumé :
L'histoire de la vie constitue un objet
passionnant offert à la curiosité du
chercheur qui est confronté à
l'interrogation fondamentale: les
phénomènes
qu'il décrit s’inscrivent-ils dans une
perspective déterministes ou non?
Mais, faut-il absolument découvrir un
principe unique régissant les lois
du Monde? Nous tenterons, dans les lignes qui
suivent, d'apporter
quelques éléments de réflexion à ce sujet
tout en focalisant notre propos
sur l'étude de quelques obstacles
épistémologiques propres à ces interrogations.
Summary :
The history of life is a thrilling
subject for the research worker who has
to deal with a fundamental
question : Can the historic phenomena he
describes be integrated into a
determinist perspective or not ?
But, is it essential to find a sole
principle which accounts for the laws
of the World ? In this paper we will try to bring out
some reflections
on that matter while focussing our
discussion on the study of some
epistemological obstacles related to
these questions.
1 –
Introduction.
L’Histoire de la vie ne constitue pas
seulement un objet passionnant offert à la curiosité des chercheurs, elle est
aussi pour l’Homme une profonde source d’interrogations. Cependant les
difficultés rencontrées sont considérables et pour tenter de dégager un ordre
dans la masse des connaissances acquises sur cette question, il importe
d’identifier les phénomènes qui ont joué et continuent d’y jouer un rôle
fondamental. Toute réflexion pour tenter une synthèse conduit à s’interroger sur
la place du déterminisme et celle de l’aléatoire dans l’évolution. Cependant,
historiquement et encore aujourd'hui la notion de hasard (personnellement nous
préférons le terme d’aléatoire) fait l'objet de diverses conceptions plus ou
moins compatibles les unes avec les autres.
“L’étudiant doit acquérir une
compréhension des phénomènes aléatoires à partir des mathématiques, de la
physique, de la botanique, de la zoologie, de la chimie et de la littérature.
Cette introduction au monde des phénomènes stochastiques lui sera bénéfique tout
au long de sa vie qu’il choisisse de devenir ouvrier, ingénieur, employé de
bureau ou scientifique. (Khalil & Dwivedi 1983, p. 22). Selon
Henry & Henry (1992) plusieurs obstacles épistémologiques lui sont liés.
“À l'origine, cette notion , trop liée aux jeux de hasard, se dégageait
difficilement de considérations théologiques, philosophiques ou
idéologiques.” (Henry
& Henry 1992, p. 89).
L’étude des deux grands courants actuels
de pensée en science, permet de reformuler les termes de cette question. Pour les tenants du courant classique
tel qu'il pouvait être défini par Descartes, les lois de l'univers sont simples,
déterministes et réversibles. Dans
le contexte scientifique actuel, les déterministes pensent qu’après l'instant
initial – le big-bang selon la théorie "en vogue"
actuellement – tout résulte d’un enchaînement dont nous pouvons
étudier les lois. Cependant, depuis
environ 1920, le monde scientifique a assisté à une véritable révolution avec
l'avènement des modèles de la mécanique quantique. Ainsi, comme le précise Prigogine
(Sorman 1989) "toutes les théories déterministes fondées sur l'enchaînement
nécessaire des causes et des conséquences sont progressivement remplacées par
des calculs de probabilité".
Ce bouleversement de nature
épistémologique d'une vision déterministe de notre univers vers une vision
"probabiliste" n'est cependant pas admis par l'ensemble de la communauté
scientifique. Certains sont partisans d'un monde chaotique, tels Prigogine,
Popper ou le biologiste Kimura, pionnier de la génétique des
populations – qui a mis en évidence l'importance du polymorphisme (de
la variété) dans les populations humaines et a de ce fait modifié la conception
que l'on se faisait de notre histoire, notamment en y intégrant le hasard comme
l'un des principaux facteurs d'évolution.
Aussi, après les débats entre Einstein et Niels Bohr, nous assistons
actuellement aux oppositions, à propos d'un monde chaotique, entre le chimiste
Ilya Prigogine et le mathématicien René Thom. Devant ces débats passionnels de
natures théoriques et philosophiques relatifs au déterminisme, comment
pouvons-nous, enseignants et éducateurs, guider la réflexion des élèves ? Nous
souhaitons, dans les lignes qui suivent, démontrer que certaines conceptions
peuvent faire obstacle à la perception des phénomènes aléatoires liées aux
sciences du vivant. Cette notion d'obstacle à l'apprentissage a été et demeure
largement étudiée par les communautés didactiques. Cependant, à notre connaissance, il n'y
a pas encore eu de consensus en ce qui a trait à la définition de
l'obstacle. Pour certains il s'agit
d'une connaissance qui fonctionne bien dans un domaine donné, mais qui conduit à
un échec lorsqu'on élargit ce domaine (Brousseau 1984). Pour d'autres il s'agit plutôt d'un
manque de connaissances ou d'une difficulté (Gleaser 1981, 1985). D'autres chercheurs se situent à
mi-chemin entre les précédents. Retenons, pour les fins de notre propos, qu'il
s'agit d'une connaissance qui vient freiner ou gêner le développement et la
construction de nouvelles connaissances ou conceptions plus adéquates à la
situation en jeu.
2 – Arguments
épistémologiques : peut-on actuellement réfuter la théorie de
l'évolution?
À l'heure actuelle souligne Jacob "On
ne reviendra plus sur le principe même de l'évolution, sur le fait que les
espèces dérivent les unes des autres et qu'elles proviennent d'un petit nombre
de systèmes vivants"
(1992). Comment peut-on se
permettre d'émettre une telle assertion ?
En fait les travaux de nombreuses disciplines nous permettent
actuellement de disposer d'un nombre important d'évidences allant dans le sens
de l'évolution (Ginsburg 1979).
Mentionnons trois aspects :
- D'abord, la cohérence: "la théorie
évolutionniste est la seule qui permette de relier tous les phénomènes observés
dans la nature de manière logique" (p.32) ;
- Un deuxième relatif à la prévision
paléontologique: "les prévisions faites par les paléontologistes se sont
réalisées jusque dans les plus minces détails... Chaque année, nous découvrons
des fossiles intermédiaires comblant les lacunes existant entre des fossiles
d'âge encadrant celui du terrain où sont opérées les fouilles. La découverte de fossiles prévus apporte
donc un argument qui a valeur de preuve au même titre que le résultat prévu
d'une expérience."
(p.32) ;
- Enfin des évidences embryologiques et
ontogéniques (développement de la conception à la mort de l'individu): "On
constate que les premiers stades de la division cellulaire à partir de l’œuf
fécondé et la formation des ébauches de tous les organes est exactement la même
chez tous les vertébrés... Chez de nombreux animaux, des ébauches d'organes qui
peuvent apparaître au cours du développement individuel d'un animal donné
esquissent en raccourci les phases par lesquelles ses ancêtres ont passé au
cours de l'évolution. C'est la loi
de récapitulation due à Serre (1824) et à von Bauer (1828), loi qu'Haeckel a pu
condenser sous une forme plus brève et plus frappante : l'ontogénie
(développement d'un individu) récapitule la phylogénie (développement de toute
la lignée des ancêtres au cours du temps)".
-
-
À l'heure
actuelle, aucune expérimentation, aucune observation, ne permet d'invalider la
théorie de l'évolution. En
revanche, les mécanismes de l'évolution posent de nombreuses questions et comme
nous dit Jacob (1992), "les débats passionnés sur les mécanismes et notamment
sur la part de hasard par rapport à celle de la sélection naturelle ou sur les
rythmes de l'évolution témoignent de la bonne santé de la
théorie".
-
Nous
allons, dans les lignes qui suivent, focaliser notre analyse sur quelques
notions importantes se rapportant à la théorie de l’évolution, et qui sont
enseignées aux lycéens français.
3 - Obstacles
mathématiques à l’acceptation d’événements fortuits, et évolution génétique des
populations.
3-1 Présentation succincte des
effets de fondation et des crises.
Si l'on vous donnait à choisir entre deux
billets de loto, l'un portant les numéros 1-2-3-4-5-6 et l'autre les numéros
5-17-23-31-39-45, choisiriez-vous le premier ou le second ? Si vous avez choisi le second parce que
vous pensez qu'il a plus de chances d'être tiré que le premier, alors vous avez,
comme plusieurs, des conceptions mathématiques qui se révèlent inadéquates. Dans ce paragraphe, nous allons voir
comment de telles conceptions peuvent faire obstacle à la compréhension de
certains faits évolutifs. Il peut
aussi s'agir d'un manque de culture mathématique (Paulos 1988, Girault &
René de Cotret 1993) qui conduise à des conceptions fausses en biologie ; ou
encore de connaissances mathématiques nécessaires à la compréhension de concepts
biologiques et qui sont défaillantes (Arnholt 1999, Gutiel & Gelman 1997,
Nicholson & James 1997, Krueger & Clement 1996). A titre d’exemple, et
compte tenu de son importance dans la compréhension actuelle des phénomènes
évolutifs, nous nous attacherons dans les lignes qui suivent à rappeler d’une
part le principe de l’effet de fondation, et d’autre part à identifier quelques
obstacles épistémologiques et didactiques à la compréhension de ce concept.
Au cours de l’histoire de l’évolution,
les populations animales ou végétales ne sont pas restées sédentaires, toujours
fixées dans le même milieu. Les animaux ont migré, les graines des plantes ont
été transportées par le vent ou par les animaux, bref ce monde vivant avait la
bougeotte. Lors de ces migrations plus ou moins volontaires, les
“ candidats au voyage ” étant le plus souvent peu nombreux, leur
patrimoine génétique ne constituait pas un “ échantillon
représentatif ” du pool de gènes des populations initiales. Si la population pionnière se retrouvait
isolée, par le simple effet du hasard, la fréquence de certains allèles pouvait
alors considérablement régresser jusqu'à ce que certains soient parfois
définitivement éliminés. Il s’agit d’un phénomène bien connu des biologistes,
décrit par Mayr sous le nom
d’effet de fondation.
Dans la nature, il serait déraisonnable
de penser que les effets de fondation ne puissent s’appliquer qu’aux différents
allèles d’un même gène. En réalité, de très nombreux locus polymorphes (gènes à
plusieurs allèles) sont en cause, et l’on doit donc prendre en compte ces
variations aléatoires importantes de fréquences géniques (avec la perte probable
de certains allèles), d’autant plus que de nombreux travaux ont montré
l’interdépendance du comportement de certains gènes vis-à-vis de la sélection
naturelle. Génermont et Lamotte ont défini ce principe comme un effet
fondateur de second ordre. Illustrons le à l’aide du célèbre exemple des
pinsons de Darwin. D’après nos connaissances actuelles
(Blondel 1997), les 13 espèces endémiques, plus celle nichant sur les îles Coco,
sont issues d’un groupe fondateur qui a colonisé (par hasard) l’île il y a environ quelques centaines
de milliers d’années. Plus chanceuse que d’autres espèces qui ne purent survivre
à un tel changement, notamment à cause d’un effectif trop faible et donc d’une
trop forte consanguinité, cette première population a été en mesure d’effectuer
ce que Mayr (1963) nomme une “ révolution génétique ”. Celle-ci a pu
remodeler totalement l’espèce d’origine pour aboutir in fine à la transformation
en 14 espèces différentes sous la pression de sélection du milieu environnant
(niches écologiques diverses qui ont permis de sélectionner des formes de bec
différentes).
Ce phénomène d’appauvrissement aléatoire
du patrimoine génétique modifiant les valeurs sélectives du génotype, qui
interagit de façon souple avec les forces directrices de la sélection naturelle
en sélectionnant parfois diverses “ combinaisons gagnantes ”, c’est à
dire de nouvelles espèces... n’est pas un cas d’école isolé. Ozenda[2] rappelle à ce sujet que l’endémisme peut
atteindre jusqu’à 70% à Madagascar, 85% en Nouvelle Calédonie et même 100% pour
les Angiospermes (plantes à fleurs) des Nouvelles Hébrides. L’insularité
est une situation bien particulière et très démonstrative, comment peut-on
extrapoler ces observations au niveau d’un écosystème quelconque
?
Dans un écosystème, toutes les
populations sont dépendantes les unes des autres. A tort on emploie souvent
l’expression “ écosystème en équilibre ”, alors qu’on est en réalité
en présence d’un ensemble complexe de relations et de variations autour d’une
valeur fictive nommée équilibre. Ainsi tout changement dans la composition
d’un écosystème va entraîner des modifications des rapports de compétitions
entre les espèces, notamment de la compétition alimentaire. Les variations des
populations de proies se répercutent ainsi avec un certain décalage sur les
effectifs des populations de prédateurs qui vont agir à leur tour sur les
premières. Un écosystème est donc bien un système dynamique qui interagit de
manière souple avec les facteurs extérieurs. Or, il existe un certain nombre
de phénomènes fortuits tels des effets géomorphologiques, de grandes et petites
crises climatiques, lesquels bouleversent la composition spécifique d’une
biocénose. L’histoire de l’évolution, telle que nous la connaissons
actuellement, est parsemée de grandes crises (-530, -440, -370, -250, -200, -65
millions d’années) qui méritent d’être analysées de plus près. L’une d’elles,
qui est enseignée dans les classes de lycée, même si elle semble bien moins
importante que les autres par son ampleur, s’est déroulée il y a environ 65
millions d’années, à la fin de l’ère secondaire (ou Mésozoïque), marquant la
limite entre le Crétacé et l’ère tertiaire : la crise Crétacé-Tertiaire.
De quoi s’agit-il ? Les travaux les plus récents font état de la disparition de
plusieurs groupes : bélemnites, ammonites, rudistes, mais aussi de plusieurs
lignées de reptiles : les mososaures, les ptérosaures (animaux ailés) et les
célèbres dinosaures à l’exception des oiseaux qui appartiennent à cette
lignée. Au contraire, d’autres lignées zoologiques ont non seulement survécu
mais tiré profit de cette crise, notamment les mammifères qui, apparus en même
temps que les dinosaures, ne s’étaient pas jusqu’alors diversifiés (ils étaient
restés petits et essentiellement insectivores), peut-être en raison de la
présence de nombreux reptiles prédateurs. Plusieurs hypothèses sont retenues de
nos jours pour expliquer ces disparitions : éruptions volcaniques, chute d’une
grande météorite, ou la baisse du niveau des mers ; voire juxtaposition de
plusieurs de ces causes. Cependant certains auteurs comme Philippe Taquet nous
précisent que “ durant cette crise de la fin du Mésozoïque, on constate
un processus graduel d’extinction de certains taxons qui se met en place dès la
fin du campanien, c’est à dire huit millions d’années avant la fin du Crétacé,
et que plusieurs vagues de disparitions se succèdent jusqu’à la limite Crétacé
Tertiaire. ” (Taquet
1993).
Quelles que soient les causes réelles
(rapides ou progressives) de cette extinction massive, on peut prendre
conscience des conséquences très importantes qui en ont résulté pour un certain
nombre de lignées animales. Ainsi, comme le précise David Raup (1993),
“ si plus de
90 % des espèces disparaissent lors des extinctions massives, des groupes
entiers, disparaissent donc... par hasard ou par malchance”. Ces crises ont ainsi favorisé, en
libérant de nombreuses niches écologiques, une forte radiation évolutive de
certaines des lignées survivantes. C’est précisément le cas des Mammifères et de
l’un de ses ordres, les Primates, au sein duquel s’est diversifiée
progressivement l’espèce humaine. On peut donc affirmer que, sans la disparition
des dinosaures il y a 65 millions d’années, l’évolution des mammifères aurait
été très différente et que nous ne serions très certainement pas là pour écrire
ces lignes... ni vous pour les lire !
“ Les
changements génétiques ainsi provoqués sont certes toujours dirigés par la
sélection naturelle liée aux facteurs biotiques, mais la transformation de
ceux-ci constitue un événement totalement indépendant par rapport auquel le
changement génétique apparaît donc comme fortuit. On peut parler à leur endroit
d’effets fortuits de troisième ordre.” (Lamotte
1994).
Les divers exemples que nous venons de présenter qui sont liés plus ou moins directement à la notion de “ l’effet de fondation, ou de “ la dérive génétique ” soulignent très clairement l’existence de nombreux points de rupture et non d’une simple évolution linéaire, ce qui contredit l’idée souvent admise qu’il y a, au sens des sciences de l’ingénieur, une finalité dans l’évolution. Jacques Monod (1971) a déjà clairement montré qu’il n’y a pas de projet d’ingénieur dans la nature, et donc que les résultats obtenus n’étaient atteints ni avec une efficacité maximale, ni de façon définitive. Nous allons maintenant identifier dans les lignes qui suivent quelques obstacles mathématiques importants à la compréhension de cet effet fondateur.
3-2 Obstacles mathématiques mis en évidence
chez des étudiants de 15 à 25 ans.
Comme nous l’avions déjà souligné
(Girault et René de Cotret 1993) une étude de Kahneman et Tversky (1972), (voir
aussi Kahneman et Slovic 1982) met
en évidence divers comportements d'étudiants de 15 à 25 ans qui, à notre avis,
pourraient faire obstacle à la compréhension de concepts biologiques, dont
l'effet fondateur. Nous en avions
retenus quelques-uns.
- Selon des étudiants: "Toutes les possibilités devraient être
présentes dans l'échantillon"
D'abord, pour ces étudiants, il semble
peu probable que dans un échantillon certaines possibilités ne soient pas
représentées. Ainsi, pour
eux :
“Un échantillon dans lequel les
différents résultats possibles sont présents est, en général, plus représentatif
qu’un échantillon comparable dans lequel certains résultats sont absents. Par
exemple, soit un processus binomial avec p= 4/5, une majorité importante
d’étudiants juge qu’un échantillon de 10 succès et 0 échec serait moins probable
qu’un échantillon de 6 succès et 4 échecs, bien que le premier soit en fait plus
probable. ” (Kahneman & Tversky, 1972, p.
433)
En d'autres termes, même si
statistiquement on sait que pour une expérience donnée on a nettement plus de
chances d'obtenir un succès qu'un échec, les étudiants jugeront qu'un
échantillon où il n'y a pas d'échec est moins probable qu'un autre où les deux
possibilités sont présentes, bien que ce dernier soit en fait moins
probable. Ainsi, pour ces
étudiants, il semble qu'un échantillon pris au hasard devrait normalement
contenir toutes les possibilités. Or l’effet fondateur est un exemple où
l'échantillon ne contient pas toutes les possibilités, ce phénomène étant
simplement lié au hasard. Comme
cette possibilité risque de paraître peu probable aux yeux des étudiants, il est
possible qu'ils considèrent que ce n'est pas un hasard si l'échantillon ne
contient pas toutes les possibilités et ainsi attribuer la constitution de cet
échantillon "particulier" à d'autres facteurs, par exemple à un certain
déterminisme.
- Selon des étudiants: "La taille de l'échantillon n'a pas
d'influence sur la probabiblité d'apparition d'un événement.
Pour certains étudiants, chaque partie
d'une population devrait être représentative de la population. Cette "représentativité locale" (Rouan
1990) peut, croyons-nous, être liée au fait que la taille de l'échantillon ne
semble pas avoir d'importance pour évaluer la probabilité d'apparition d'un
événement. Ceci est corroboré par les travaux de Kahneman & Tversky (1971,
1972) “ Il apparaît évident que la taille de l’échantillon n’a pas
d’effet sur l’évaluation subjective de la distribution. Des groupes indépendants, confrontés à
des problèmes se distinguant seulement par la taille de l’échantillon,
produisent des distributions semblables. ” (1972, p.
439)
Cette constatation est importante pour
comprendre ce qui peut amener les étudiants à ne pas saisir ou accepter l'effet
fondateur. Comme la taille de
l'échantillon ne semble pas, pour eux, avoir d'influence sur la probabilité
d'apparition d'un évènement, le fait que le groupe qui a quitté la population
mère représente une proportion plus ou moins grande de la population (et l'on
peut supposer qu'il représente souvent une petite fraction), n'entrera pas en
ligne de compte pour évaluer la probabilité qu'un allèle ne soit pas
représenté. Ainsi, pour certains
étudiants, il apparaîtra comme peu probable, et peut-être douteux, qu'un
caractère soit absent, puisque pour eux tout échantillon, quelle que soit sa
taille, devrait être représentatif de la population.
- Selon des étudiants: Si un échantillon n'est pas
représentatif, il n'a pas été pris au hasard…
Le dernier aspect que nous voulons
souligner est en fait la conséquence des deux précédents. Pour les étudiants, un échantillon pris
au hasard devrait normalement être représentatif de la population sinon il
risquerait de ne pas avoir été réellement pris au hasard. (Cela traduit une vue déterministe des
phénomènes aléatoires). Cette idée nous est suggérée par un exemple donné par
Feller (cité dans Kahneman & Tversky, 1972, pp. 435-436) dans son
Introduction to Probability Theory (1968). Il mentionne que durant la seconde
guerre mondiale, suite à un bombardement intensif de Londres, les gens croyaient
que le bombardement n'avait pu être dirigé au hasard dans la ville parce que
quelques parties de la ville avaient été très durement touchées tandis que
d'autres n'avaient pas été touchées du tout. Après vérification, on a constaté que la
distribution des tirs par petite section correspondait remarquablement bien à la
distribution attendue sous l'hypothèse d'un bombardement au hasard. Il n'en reste pas moins que pour ces
gens l'apparence d'un
échantillon non représentatif de la population les amène à douter qu'il puisse
relever du hasard. (Cf aussi Tversky & Kahneman 1982).
4 - Evolution et
probabilités
La très grande diversité des travaux de
recherche sur l’évolution (dont nous n’avons présenté à titre d’illustration
qu’un aspect très réduit) a évidemment d’importantes conséquences sur les
méthodes d’études et les degrés de formalisation auxquelles on peut prétendre.
Dans ces conditions, que peut-on dire sur la place du Calcul des Probabilités
dans cette partie fondamentale de la Biologie qu’est l’Evolution, ou, plus
largement, le développement de la vie ?
Une réponse claire et objective ne peut
être apportée que dans les domaines qui ont été l’objet d’études approfondies et
précises, donnant lieu à des résultats quantitatifs permettant d’élaborer des
modèles, de type déterministe (relations fonctionnelles) ou aléatoire (définies
par des lois de probabilité). Les études portant sur la génétique, qui se
sont beaucoup développées depuis environ 1920, remplissent pleinement ces
conditions. Non seulement on peut évoquer le hasard pour décrire ces phénomènes,
mais aussi proposer des lois de probabilité, et les vérifier par
l’expérimentation. Le processus élémentaire qui constitue le point de départ de
toute étude de génétique est la rencontre d’éléments (allèles) où plusieurs
éventualités connues sont possibles et également probables. A partir de là, en
appliquant des règles simples du Calcul des Probabilités, on peut développer des
théories décrivant le comportement des systèmes de niveaux supérieur, notamment
la répartition des génotypes dans une population, et en tester les hypothèses.
Cette situation permet aussi des études plus complexes d’évolutions aléatoires
de populations en y intégrant les migrations, l’évolution de caractères, l’étude
des mutations...
Il en va tout autrement des études globales portant sur des ensembles complexes de populations réagissant les unes aux autres et se transformant au cours de très longues périodes (études paléontologiques par exemple). On se situe ici à l’opposé des conditions précédentes. Les conditions d’étude y sont particulièrement difficiles en raison de l’extension du sujet, de la complexité des systèmes étudiés face à la modicité des informations recueillies. Dans de telles conditions, le chercheur ne peut pas espérer pouvoir formaliser les phénomènes étudiés et bâtir des modèles précis susceptibles de les représenter ; toutefois sa vocation l’incite à des réflexions allant dans ce sens, c’est à dire à chercher un ou des fils directeurs permettant de mettre de l’ordre (éléments de structure) dans les connaissances acquises, étape obligée d’une démarche inductive orientée vers l’élaboration de théories réalisant des synthèses partielles ou globales.
C’est dans cette phase de réflexion que le chercheur est confronté à l’interrogation fondamentale : les phénomènes historiques que nous décrivons étaient-ils déterminés ou non ? La réponse n’est pas unique. S’il nous apparaît que le déterminisme a joué un rôle, il n’explique pas tout. Mais alors comment caractériser ce qui ne nous apparaît pas avoir été inéluctable ? Là est toute la question.
Il convient de souligner ici que l’étude
de l’évolution constitue un exemple particulièrement intéressant pour analyser
la démarche de pensée du chercheur. En effet, les énormes difficultés
rencontrées ne permettent pas d’aboutir à des résultats complets et définitifs.
Le chercheur est alors conduit à multiplier les tentatives d’approche et doit
trouver un langage pour exprimer le mieux possible les résultats partiels
obtenus. Dans ce contexte, l’incertitude continuellement rencontrée doit faire
l’objet d’analyses. C’est ainsi que le premier terme qui vient à l’esprit est
celui de “ hasard ” ; mais on emploie aussi les adjectifs
“ incertains, imprévisibles, contingents.... ”. Ces termes empruntés
au langage courant n’ont pas de sens vraiment défini. Par contre on conçoit et
on sait exprimer clairement deux situations extrêmes concernant l’issue d’un
phénomène en cours de réalisation : le résultat est connu d’avance (ou
prévisible) ou il ne l’est pas (imprévisible). Cependant cette manière de
décrire les situations est incomplète. On peut observer que la 2ème situation
est ici décrite négativement, par ce qu’elle n’est pas. Or les situations
rencontrées sont plus nuancées. On n’est pas dans une situation du tout ou rien
de connaissance (ou d’information) : ce qui distingue ici les différents
phénomènes est la connaissance qu’on en a.
A propos d’un phénomène qui va se
réaliser on peut avoir une connaissance dite totale (n’est-ce pas présomptueux
?) ; très forte, partielle etc... L’existence de ce “ marais ” de
situations intermédiaires est bien ressentie puisque la deuxième situation
évoquée ci-dessus est souvent dite “ pur hasard ”. Quels sont alors
les hasards moins purs ? L’usage d’un vocabulaire varié et nuancé : contingent,
imprévisible etc... ne suffit pas à établir une démarche de pensée scientifique.
Pour y voir plus clair et s’orienter vers des notions plus objectives
applicables aux cas intermédiaires, on peut raisonner en termes de
“ connaissances ” ou “ d’information ”, la notion contraire
étant “ l’incertitude ”. Il faut bien reconnaître que les situations à
information nulle sont rares.
Lorsque les résultats d’un phénomène sont
connus, en nombre fini et tous également probables, le praticien qualifie
parfois cette situation de “ hasard pur ” ou “ complètement au
hasard ”. Cette expression traduit le fait que, pour un même ensemble de
possibilités, cette répartition de probabilité conduit à la plus grande
incertitude concernant des résultats ponctuels (ceci est très clairement
illustré dans le cadre de la génétique : détermination du sexe d’un enfant,
lois de Mendel). Pourtant il est préférable d’éviter cette terminologie non
académique et ambiguë car elle néglige ce qui est connu du phénomène. En effet,
le fait que les probabilités soient toutes égales, ou qu’elles soient
différentes (dont l’une très forte par exemple) s’inscrit dans une connaissance
complète du modèle représentatif du phénomène. Ainsi, pour affirmer qu’un
phénomène relève “ du hasard pur ” et en donnant à cette expression le
sens défini ci-dessus, il faut très bien connaître la structure du phénomène,
bien que cette connaissance conduise à la plus grande incertitude du résultat
d’une réalisation ponctuelle de ce phénomène (il n’en serait plus de même des
résultats de nombreuses réalisations de celui-ci).
Nous avons relevé que le déterminisme a
été et reste le plus souvent la référence dans les sciences de la vie ; mais la
variabilité observée systématiquement par les chercheurs dans ces domaines vient
contredire cette manière de voir les choses et conduit à l’interrogation : le
déterminisme est-il ou non la loi fondamentale du Monde ? D’une part on doit
observer que cette question est d'ordre philosophique et que la Science ne peut
pas y donner une réponse définitive. D'autre part, si certains phénomènes
mettent en évidence des invariants, nombreuses sont les situations caractérisées
par la variabilité des résultats. Enfin, on observe l'existence d'épreuves aux
résultats variables mais dont la répétition conduit à des "régulantes"
pseudo-constantes, ce qui constitue une situation intermédiaire entre les deux
cas précédents et dont nous allons montrer toute
l'importance.
Les tenants du déterminisme font valoir
que la variabilité apparaît dans des phénomènes complexes impossibles à analyser
finement car ils mettent ainsi en cause de très nombreux facteurs qui ne peuvent
être mesurés au même moment et avec une précision suffisante (généralisation de
l'idée des "erreurs de mesure"). Il y aurait donc une "vraie valeur"
(hypothétique ?) bien déterminée et dont on ne pourrait que s'approcher.
Cette prise de position est incontestablement de caractère philosophique, elle
ne peut pas être vérifiée, et relève de l'adhésion à un Dogme étranger à la
Science.
Pour apporter un peu de clarté à cette
interrogation fondamentale, plusieurs observations doivent être
présentées.
- Faut-il absolument
découvrir un principe unique régissant les lois du Monde ? C'est là une ambition
du chercheur qui, jusqu'ici, a toujours été déçue. Si le scientifique doit poser
des hypothèses pour guider ses investigations, il doit garder un esprit critique
et savoir remettre en cause ce qui n'apparaît pas
justifié.
- Un caractère des
études mérite une attention toute particulière, à savoir le niveau de généralité
recherché et donc la précision exigée des résultats observés, ce qui conduit à
des approches très différentes. Pour en discuter retenons deux situations
extrêmes :
a) - On peut étudier des phénomènes très simples et très localisés
c'est-à-dire ne mettant en cause qu'un très petit nombre de facteurs. Ces
situations qu'on peut appeler "microphénomènes" ou "phénomènes élémentaires"
peuvent faire l'objet d'études fines et donc être représentées par des modèles
précis : exemple les lois de Mendel..
b) - Au contraire, on peut effectuer des études globales de phénomènes
très complexes, comportant de nombreux facteurs ou portant sur de grands
ensembles. Ces études conduisent à observer quelques grandeurs caractéristiques
de l'ensemble ; mais il est beaucoup plus difficile ici d’aboutir à des modèles
globaux précis.
Cependant, dans les phénomènes de la vie,
on rencontre souvent des situations où un désordre apparant des éléments conduit
à un ensemble cohérent et bien structuré. Ces situations observées peuvent, en
partie, expliquer le choix des systèmes de référence opposés, l'aléatoire
régissant les éléments conduit à un système complexe bien structuré,
sensiblement déterminé. Bien entendu, ce schéma ne saurait être généralisé à
l’ensemble des phénomènes de la vie, mais il semble correspondre à de nombreuses
situations. Comment peut-il en être ainsi ? On peut imaginer de très nombreuses
règles d'associations conduisant à des systèmes structurés stables. Tel est le
cas de modèles où le système évolue en passant par des états successifs d’une
manière aléatoire mais aboutit nécessairement à l’état B. Il en est ainsi de
certaines fourmis qui vont au hasard chercher une source de nourriture autour de
leur nid (Clément P. 1994). Les fourmis qui trouvent la nourriture la plus
proche reviennent plus vite et informent d’autres fourmis qui prennent la bonne
direction. Ce système va évoluer de façon aléatoire, mais immanquablement, il
aboutira au fait que presque toutes les fourmis se rendront en ce lieu le plus
proche, sans qu’interviennent aucun acte intelligent personnel ni aucun
déterminisme.
Ces exemples en montrant bien qu'on peut
s'approcher d'un déterminisme à un niveau supérieur à partir du hasard,
relativisent l'opposition déterminisme - aléatoire. Ces considérations peuvent
être rapprochées des allusions faites à l’existence d'un "anti-hasard" et
également aux références à un "déterminisme biologique", par exemple le
"déterminisme de la sélection naturelle". Ces phénomènes apparaissent
incontestablement aléatoires quand ils sont l’objet d’études locales précises,
mais, lorsqu’ils sont observés globalement, un langage déterministe peut, en
première approximation, les décrire d'une manière suffisamment précise pour les
études qui en sont faites.
Le déterminisme seul, comme le hasard
seul, apparaissent comme des références trop rudimentaires pour présenter des
synthèses des transformations des phénomènes de la vie. S’il paraît chimérique
d’arriver à décrire avec précision ce qu’ont été par exemple les étapes de
l’évolution (ou les transformations de phénomènes globaux), les connaissances
déjà importantes vont s’étendre, et des éléments de plus en plus nombreux sont
susceptibles d’apparaître. Des tentatives de construction de modèles globaux
pourront être envisagées, incluant plusieurs types de relations (fonctionnelles,
aléatoires...) dont la simulation apporterait des éclairages nouveaux sur ces
questions.
Allégre, C. (1992) Introduction à une histoire
naturelle. Du big bang à la disparition de l’Homme. Ed Fayard (409p.)
Arnholt, A. (1999). Simulating sampling distributions. Teaching Statistics,
21(1),
14-16.
Blondel J. (1997) Les adaptations du vivant, chapître 4
du guide de l’exposition du Muséum National d’Histoire Naturelle : Iles vivre
entre ciel et mer.
Brousseau, G. (1984). Obstacles épistémologiques en
mathématiques., In: Recherches
en didactique des mathématiques., Vol 4.2, La Pensée Sauvage, Grenoble, pp.
33-115.
Brousseau., G. In: Recherches en didactique des
mathématiques., Vol 5.2,
La Pensée Sauvage, Grenoble, pp.229-234.
Clément P. (1994) :
De la régulation à l'auto-organisation. Avant-propos à l'ouvrage coordonné par
G.Rumelhard : La régulation en biologie. Approche didactique :
représentation, conceptualisation, modélisation, Éd. I.N.R.P.
(Didactique des disciplines), Paris, p.7-24.
Génermont J. &
Lamotte M. (1986): Place et rôle de l’adaptation dans l’évolution biologique,
Bull. Zool. 53 :
215-237.
Girault Y. & Girault
M. (1999) L’aléatoire et le
vivant Ed Diderot, 182p.
Girault Y. & René de
Cotret S. (1993) Contribution de la didactique des sciences à l’étude des
obstacles relatifs à la destruction du concept racialiste et raciste dans
l’enseignement. In Repères,
Essais en Education, No 15, Université de Montréal.
Ginsburg, L. (1979),
Les vertébrés, ces méconnus. 600 milliers d'années d'évolution, des origines à
l'homme. Hachette, 222
p.
Gleaser, G. (1981). Épistémologie des nombres relatifs.,
In: Recherches en didactique des
mathématiques., Vol 2,
La Pensée Sauvage, Grenoble, pp.303-346.
Gould SJ. (1997) L’éventail du vivant le mythe du
progrés. Ed du Seuil P.
186.
Gutiel G., Gelman, S. (1997) "Children's use of
sample size and diversity information within basic-level categories". Journal of
experimental child psychology 64,
159-174
Henry, A. & Henry, M. (1992). L'enseignement des probabilités dans le
nouveau programme de première, In:
Mathématiques chez les 11-16 ans en France.,
Commission Inter-IREM Premier cycle, pp. 85-114.
Kahneman, D. & Tversky, A. (1972). Subjective Probability: A Judgement of
Representativeness., In: Cognitive Psychology, vol 3, Academic Press, pp.
430-454.
Khalil, Z. & Dwivedi, T.D. (1983). On some problems of teaching probability
theory., In: Actes de la cinquième
rencontre annuelle de PME-NA, J.C. Bergeron & N. Herscovics (Eds.),
Montréal, pp. 19-24.
Krueger, J., Clement, R. (1996)
"Inferring category characteristics from sample characteristics: inductive
reasoning and social projection". Journal of experimental psychology: general
125(1), 52-68
Lamotte M. (1994)
Théorie actuelle de l’évolution. Ed Hachette
.
Mayr E. (1963) Animal Species and Evolution. Belknap,
Cambridge.
Nicholson, James (1997), "The relative effects of sample size and
proportion". Teaching statistics 19(2), 47-48
Paulos, J.A. (1988). Innumeracy. Mathematical illiteracy and its
consequences. Hill & Wang, New York,
135p.
Raup D. M. (1993) De
l’extinction des espèces sur les causes de la disparition des dinosaures et de
quelques milliards d’autres. Ed Gallimard.
Rouan, O. (1990). Hasard et probabilité: conceptions d'élèves de 16 à 18
ans. Séminaire sur la Représentation, CIRADE,
UQAM, 40 pages.
Taquet P. (1993) Les dinosaures grandeur et décadence.
La vie des sciences. Compte rendu de l’académie des sciences, série générale, tome
10, no4, p265-284.
Tversky, A., & Kahneman, D. (1982). Causal schemas in judgments under
uncertainty. In: D. Kahneman, P. Slovic & A. Tversky (Eds.), Judgment under
uncertainty: Heuristics and biases.
(pp. 117-128). New York: Cambridge University Press.
Tversky A. & Kahneman, D. (1971) "Belief in the law of small
numbers.".Psychological Bulletin. 76. 105-110.
Well A.D., Pollatsek A., Boyce S. (1990) "Understanding the effects of sample
size on the variability of the mean". Organizational Behavior and Human Decision
Processes, 47, 289-311.
[1] Cet article, issu d’une synthèse de travaux réalisés depuis de nombreuses années, trouve notamment son inspiration dans un article publié en 1993 : Yves Girault & Sophie René de Cotret “ Contribution de la didactique des sciences à l’étude des obstacles relatifs à la destruction du concept racialiste et raciste dans l’enseignement. ” In Repères, Essais en Education, No 15, Université de Montréal et surtout d’un ouvrage publié aux éditions Diderot en 1999 par Yves & Maurice Girault : “ L’aléatoire et le vivant ” . Enfin je tiens à remercier Linda Gattuso, professeur à l’UQAM au département de mathématiques, qui m’a guidé dans la recherche bibliographique en didactique des mathématioques.
[2] Intervention après une communication de Maxime Lamotte : Phénomènes fortuits et évolution ; au colloque sur l’évolution dans sa réalité et ses diverses modalités, 1988, p 268.