Déterminisme versus aléatoire :

réflexions sur des obstacles épistémologiques et mathématiques

à la compréhension et à l’enseignement du vivant.

In La Didactique de la Biologie : recherches, innovations, formations P.Clément, H.R.Dahmani et F.Khammar(EDS).  Alger :ATED, p.109/126,

 

Yves Girault[1]

Muséum National d’Histoire Naturelle, Paris.

 

 

 

Mots clés : obstacles épistémologiques, aléatoire, biologie, évolution

 

Résumé :

 L'histoire de la vie constitue un objet passionnant offert à la curiosité du

chercheur qui est confronté à l'interrogation fondamentale:  les phénomènes

qu'il décrit s’inscrivent-ils dans une perspective déterministes ou non?

Mais, faut-il absolument découvrir un principe unique régissant les lois

 du Monde?  Nous tenterons, dans les lignes qui suivent, d'apporter

quelques éléments de réflexion à ce sujet tout en focalisant notre propos

sur l'étude de quelques obstacles épistémologiques propres à ces interrogations.

 

 

Summary :

The history of life is a thrilling subject for the research worker who has

to deal with a fundamental question : Can the historic phenomena he

describes be integrated into a determinist perspective or not ? 

But, is it essential to find a sole principle which accounts for the laws

 of the World ?  In this paper we will try to bring out some reflections

on that matter while focussing our discussion on the study of some

epistemological obstacles related to these questions.

 

 

1 – Introduction.

 

L’Histoire de la vie ne constitue pas seulement un objet passionnant offert à la curiosité des chercheurs, elle est aussi pour l’Homme une profonde source d’interrogations. Cependant les difficultés rencontrées sont considérables et pour tenter de dégager un ordre dans la masse des connaissances acquises sur cette question, il importe d’identifier les phénomènes qui ont joué et continuent d’y jouer un rôle fondamental. Toute réflexion pour tenter une synthèse conduit à s’interroger sur la place du déterminisme et celle de l’aléatoire dans l’évolution. Cependant, historiquement et encore aujourd'hui la notion de hasard (personnellement nous préférons le terme d’aléatoire) fait l'objet de diverses conceptions plus ou moins compatibles les unes avec les autres.

“L’étudiant doit acquérir une compréhension des phénomènes aléatoires à partir des mathématiques, de la physique, de la botanique, de la zoologie, de la chimie et de la littérature. Cette introduction au monde des phénomènes stochastiques lui sera bénéfique tout au long de sa vie qu’il choisisse de devenir ouvrier, ingénieur, employé de bureau ou scientifique. (Khalil & Dwivedi 1983, p. 22). Selon Henry & Henry (1992) plusieurs obstacles épistémologiques lui sont liés. “À l'origine, cette notion , trop liée aux jeux de hasard, se dégageait difficilement de considérations théologiques, philosophiques ou idéologiques.” (Henry & Henry 1992, p. 89).

L’étude des deux grands courants actuels de pensée en science, permet de reformuler les termes de cette question.  Pour les tenants du courant classique tel qu'il pouvait être défini par Descartes, les lois de l'univers sont simples, déterministes et réversibles.  Dans le contexte scientifique actuel, les déterministes pensent qu’après l'instant initial – le big-bang selon la théorie "en vogue" actuellement –  tout résulte d’un enchaînement dont nous pouvons étudier les lois.  Cependant, depuis environ 1920, le monde scientifique a assisté à une véritable révolution avec l'avènement des modèles de la mécanique quantique.  Ainsi, comme le précise Prigogine (Sorman 1989) "toutes les théories déterministes fondées sur l'enchaînement nécessaire des causes et des conséquences sont progressivement remplacées par des calculs de probabilité".

Ce bouleversement de nature épistémologique d'une vision déterministe de notre univers vers une vision "probabiliste" n'est cependant pas admis par l'ensemble de la communauté scientifique. Certains sont partisans d'un monde chaotique, tels Prigogine, Popper ou le biologiste Kimura, pionnier de la génétique des populations – qui a mis en évidence l'importance du polymorphisme (de la variété) dans les populations humaines et a de ce fait modifié la conception que l'on se faisait de notre histoire, notamment en y intégrant le hasard comme l'un des principaux facteurs d'évolution.  Aussi, après les débats entre Einstein et Niels Bohr, nous assistons actuellement aux oppositions, à propos d'un monde chaotique, entre le chimiste Ilya Prigogine et le mathématicien René Thom. Devant ces débats passionnels de natures théoriques et philosophiques relatifs au déterminisme, comment pouvons-nous, enseignants et éducateurs, guider la réflexion des élèves ? Nous souhaitons, dans les lignes qui suivent, démontrer que certaines conceptions peuvent faire obstacle à la perception des phénomènes aléatoires liées aux sciences du vivant. Cette notion d'obstacle à l'apprentissage a été et demeure largement étudiée par les communautés didactiques.  Cependant, à notre connaissance, il n'y a pas encore eu de consensus en ce qui a trait à la définition de l'obstacle.  Pour certains il s'agit d'une connaissance qui fonctionne bien dans un domaine donné, mais qui conduit à un échec lorsqu'on élargit ce domaine (Brousseau 1984).  Pour d'autres il s'agit plutôt d'un manque de connaissances ou d'une difficulté (Gleaser 1981, 1985).  D'autres chercheurs se situent à mi-chemin entre les précédents. Retenons, pour les fins de notre propos, qu'il s'agit d'une connaissance qui vient freiner ou gêner le développement et la construction de nouvelles connaissances ou conceptions plus adéquates à la situation en jeu.

 

 

2 – Arguments épistémologiques : peut-on actuellement réfuter la théorie de l'évolution?

 

À l'heure actuelle souligne Jacob "On ne reviendra plus sur le principe même de l'évolution, sur le fait que les espèces dérivent les unes des autres et qu'elles proviennent d'un petit nombre de systèmes vivants" (1992).  Comment peut-on se permettre d'émettre une telle assertion ?  En fait les travaux de nombreuses disciplines nous permettent actuellement de disposer d'un nombre important d'évidences allant dans le sens de l'évolution (Ginsburg 1979).  Mentionnons trois aspects :

-   D'abord, la cohérence: "la théorie évolutionniste est la seule qui permette de relier tous les phénomènes observés dans la nature de manière logique" (p.32) ;

-   Un deuxième relatif à la prévision paléontologique: "les prévisions faites par les paléontologistes se sont réalisées jusque dans les plus minces détails... Chaque année, nous découvrons des fossiles intermédiaires comblant les lacunes existant entre des fossiles d'âge encadrant celui du terrain où sont opérées les fouilles.  La découverte de fossiles prévus apporte donc un argument qui a valeur de preuve au même titre que le résultat prévu d'une expérience." (p.32) ; 

-   Enfin des évidences embryologiques et ontogéniques (développement de la conception à la mort de l'individu): "On constate que les premiers stades de la division cellulaire à partir de l’œuf fécondé et la formation des ébauches de tous les organes est exactement la même chez tous les vertébrés... Chez de nombreux animaux, des ébauches d'organes qui peuvent apparaître au cours du développement individuel d'un animal donné esquissent en raccourci les phases par lesquelles ses ancêtres ont passé au cours de l'évolution.  C'est la loi de récapitulation due à Serre (1824) et à von Bauer (1828), loi qu'Haeckel a pu condenser sous une forme plus brève et plus frappante : l'ontogénie (développement d'un individu) récapitule la phylogénie (développement de toute la lignée des ancêtres au cours du temps)".

-                                                          

-                                                         À l'heure actuelle, aucune expérimentation, aucune observation, ne permet d'invalider la théorie de l'évolution.  En revanche, les mécanismes de l'évolution posent de nombreuses questions et comme nous dit Jacob (1992), "les débats passionnés sur les mécanismes et notamment sur la part de hasard par rapport à celle de la sélection naturelle ou sur les rythmes de l'évolution témoignent de la bonne santé de la théorie".

-                                                         Nous allons, dans les lignes qui suivent, focaliser notre analyse sur quelques notions importantes se rapportant à la théorie de l’évolution, et qui sont enseignées aux lycéens français.

 

 

3 - Obstacles mathématiques à l’acceptation d’événements fortuits, et évolution génétique des populations.

 

3-1 Présentation succincte des effets de fondation et des crises.

Si l'on vous donnait à choisir entre deux billets de loto, l'un portant les numéros 1-2-3-4-5-6 et l'autre les numéros 5-17-23-31-39-45, choisiriez-vous le premier ou le second ?  Si vous avez choisi le second parce que vous pensez qu'il a plus de chances d'être tiré que le premier, alors vous avez, comme plusieurs, des conceptions mathématiques qui se révèlent inadéquates.  Dans ce paragraphe, nous allons voir comment de telles conceptions peuvent faire obstacle à la compréhension de certains faits évolutifs.  Il peut aussi s'agir d'un manque de culture mathématique (Paulos 1988, Girault & René de Cotret 1993) qui conduise à des conceptions fausses en biologie ; ou encore de connaissances mathématiques nécessaires à la compréhension de concepts biologiques et qui sont défaillantes (Arnholt 1999, Gutiel & Gelman 1997, Nicholson & James 1997, Krueger & Clement 1996). A titre d’exemple, et compte tenu de son importance dans la compréhension actuelle des phénomènes évolutifs, nous nous attacherons dans les lignes qui suivent à rappeler d’une part le principe de l’effet de fondation, et d’autre part à identifier quelques obstacles épistémologiques et didactiques à la compréhension de ce concept.

 

Au cours de l’histoire de l’évolution, les populations animales ou végétales ne sont pas restées sédentaires, toujours fixées dans le même milieu. Les animaux ont migré, les graines des plantes ont été transportées par le vent ou par les animaux, bref ce monde vivant avait la bougeotte. Lors de ces migrations plus ou moins volontaires, les “ candidats au voyage ”  étant le plus souvent peu nombreux, leur patrimoine génétique ne constituait pas un “ échantillon représentatif ” du pool de gènes des populations initiales.  Si la population pionnière se retrouvait isolée, par le simple effet du hasard, la fréquence de certains allèles pouvait alors considérablement régresser jusqu'à ce que certains soient parfois définitivement éliminés. Il s’agit d’un phénomène bien connu des biologistes, décrit par Mayr  sous le nom d’effet de fondation.

                  

Dans la nature, il serait déraisonnable de penser que les effets de fondation ne puissent s’appliquer qu’aux différents allèles d’un même gène. En réalité, de très nombreux locus polymorphes (gènes à plusieurs allèles) sont en cause, et l’on doit donc prendre en compte ces variations aléatoires importantes de fréquences géniques (avec la perte probable de certains allèles), d’autant plus que de nombreux travaux ont montré l’interdépendance du comportement de certains gènes vis-à-vis de la sélection naturelle. Génermont et Lamotte ont défini ce principe comme un effet fondateur de second ordre. Illustrons le à l’aide du célèbre exemple des pinsons de Darwin. D’après nos connaissances actuelles (Blondel 1997), les 13 espèces endémiques, plus celle nichant sur les îles Coco, sont issues d’un groupe fondateur qui a colonisé (par hasard) l’île il y a environ quelques centaines de milliers d’années. Plus chanceuse que d’autres espèces qui ne purent survivre à un tel changement, notamment à cause d’un effectif trop faible et donc d’une trop forte consanguinité, cette première population a été en mesure d’effectuer ce que Mayr (1963) nomme une “ révolution génétique ”. Celle-ci a pu remodeler totalement l’espèce d’origine pour aboutir in fine à la transformation en 14 espèces différentes sous la pression de sélection du milieu environnant (niches écologiques diverses qui ont permis de sélectionner des formes de bec différentes).

Ce phénomène d’appauvrissement aléatoire du patrimoine génétique modifiant les valeurs sélectives du génotype, qui interagit de façon souple avec les forces directrices de la sélection naturelle en sélectionnant parfois diverses “ combinaisons gagnantes ”, c’est à dire de nouvelles espèces... n’est pas un cas d’école isolé. Ozenda[2] rappelle à ce sujet que l’endémisme peut atteindre jusqu’à 70% à Madagascar, 85% en Nouvelle Calédonie et même 100% pour les Angiospermes (plantes à fleurs) des Nouvelles Hébrides. L’insularité est une situation bien particulière et très démonstrative, comment peut-on extrapoler ces observations au niveau d’un écosystème quelconque ?

 

Dans un écosystème, toutes les populations sont dépendantes les unes des autres. A tort on emploie souvent l’expression “ écosystème en équilibre ”, alors qu’on est en réalité en présence d’un ensemble complexe de relations et de variations autour d’une valeur fictive nommée équilibre. Ainsi tout changement dans la composition d’un écosystème va entraîner des modifications des rapports de compétitions entre les espèces, notamment de la compétition alimentaire. Les variations des populations de proies se répercutent ainsi avec un certain décalage sur les effectifs des populations de prédateurs qui vont agir à leur tour sur les premières. Un écosystème est donc bien un système dynamique qui interagit de manière souple avec les facteurs extérieurs. Or, il existe un certain nombre de phénomènes fortuits tels des effets géomorphologiques, de grandes et petites crises climatiques, lesquels bouleversent la composition spécifique d’une biocénose. L’histoire de l’évolution, telle que nous la connaissons actuellement, est parsemée de grandes crises (-530, -440, -370, -250, -200, -65 millions d’années) qui méritent d’être analysées de plus près. L’une d’elles, qui est enseignée dans les classes de lycée, même si elle semble bien moins importante que les autres par son ampleur, s’est déroulée il y a environ 65 millions d’années, à la fin de l’ère secondaire (ou Mésozoïque), marquant la limite entre le Crétacé et l’ère tertiaire : la crise Crétacé-Tertiaire. De quoi s’agit-il ? Les travaux les plus récents font état de la disparition de plusieurs groupes : bélemnites, ammonites, rudistes, mais aussi de plusieurs lignées de reptiles : les mososaures, les ptérosaures (animaux ailés) et les célèbres dinosaures à l’exception des oiseaux qui appartiennent à cette lignée. Au contraire, d’autres lignées zoologiques ont non seulement survécu mais tiré profit de cette crise, notamment les mammifères qui, apparus en même temps que les dinosaures, ne s’étaient pas jusqu’alors diversifiés (ils étaient restés petits et essentiellement insectivores), peut-être en raison de la présence de nombreux reptiles prédateurs. Plusieurs hypothèses sont retenues de nos jours pour expliquer ces disparitions : éruptions volcaniques, chute d’une grande météorite, ou la baisse du niveau des mers ; voire juxtaposition de plusieurs de ces causes. Cependant certains auteurs comme Philippe Taquet nous précisent que “ durant cette crise de la fin du Mésozoïque, on constate un processus graduel d’extinction de certains taxons qui se met en place dès la fin du campanien, c’est à dire huit millions d’années avant la fin du Crétacé, et que plusieurs vagues de disparitions se succèdent jusqu’à la limite Crétacé Tertiaire. ” (Taquet 1993).

Quelles que soient les causes réelles (rapides ou progressives) de cette extinction massive, on peut prendre conscience des conséquences très importantes qui en ont résulté pour un certain nombre de lignées animales. Ainsi, comme le précise David Raup (1993), “ si plus de 90 % des espèces disparaissent lors des extinctions massives, des groupes entiers, disparaissent donc... par hasard ou par malchance”. Ces crises ont ainsi favorisé, en libérant de nombreuses niches écologiques, une forte radiation évolutive de certaines des lignées survivantes. C’est précisément le cas des Mammifères et de l’un de ses ordres, les Primates, au sein duquel s’est diversifiée progressivement l’espèce humaine. On peut donc affirmer que, sans la disparition des dinosaures il y a 65 millions d’années, l’évolution des mammifères aurait été très différente et que nous ne serions très certainement pas là pour écrire ces lignes... ni vous pour les lire !

 

     “ Les changements génétiques ainsi provoqués sont certes toujours dirigés par la sélection naturelle liée aux facteurs biotiques, mais la transformation de ceux-ci constitue un événement totalement indépendant par rapport auquel le changement génétique apparaît donc comme fortuit. On peut parler à leur endroit d’effets fortuits de troisième ordre.”  (Lamotte 1994).

Les divers exemples que nous venons de présenter  qui sont liés plus ou moins directement à la notion de “ l’effet de fondation, ou de “ la dérive génétique ” soulignent très clairement l’existence de nombreux points de rupture et non d’une simple évolution linéaire, ce qui contredit l’idée souvent admise qu’il y a, au sens des sciences de l’ingénieur, une finalité dans l’évolution. Jacques Monod (1971) a déjà clairement montré qu’il n’y a pas de projet d’ingénieur dans la nature, et donc que les résultats obtenus n’étaient atteints ni avec une efficacité maximale, ni de façon définitive. Nous allons maintenant identifier dans les lignes qui suivent quelques obstacles mathématiques importants à la compréhension de cet effet fondateur.

 

3-2  Obstacles mathématiques mis en évidence chez des étudiants de 15 à 25 ans.

Comme nous l’avions déjà souligné (Girault et René de Cotret 1993) une étude de Kahneman et Tversky (1972), (voir aussi  Kahneman et Slovic 1982) met en évidence divers comportements d'étudiants de 15 à 25 ans qui, à notre avis, pourraient faire obstacle à la compréhension de concepts biologiques, dont l'effet fondateur.  Nous en avions retenus quelques-uns.

 

- Selon des étudiants:  "Toutes les possibilités devraient être présentes dans l'échantillon"

D'abord, pour ces étudiants, il semble peu probable que dans un échantillon certaines possibilités ne soient pas représentées.  Ainsi, pour eux :

“Un échantillon dans lequel les différents résultats possibles sont présents est, en général, plus représentatif qu’un échantillon comparable dans lequel certains résultats sont absents. Par exemple, soit un processus binomial avec p= 4/5, une majorité importante d’étudiants juge qu’un échantillon de 10 succès et 0 échec serait moins probable qu’un échantillon de 6 succès et 4 échecs, bien que le premier soit en fait plus probable.  (Kahneman & Tversky, 1972, p. 433)

En d'autres termes, même si statistiquement on sait que pour une expérience donnée on a nettement plus de chances d'obtenir un succès qu'un échec, les étudiants jugeront qu'un échantillon où il n'y a pas d'échec est moins probable qu'un autre où les deux possibilités sont présentes, bien que ce dernier soit en fait moins probable.  Ainsi, pour ces étudiants, il semble qu'un échantillon pris au hasard devrait normalement contenir toutes les possibilités. Or l’effet fondateur est un exemple où l'échantillon ne contient pas toutes les possibilités, ce phénomène étant simplement lié au hasard.  Comme cette possibilité risque de paraître peu probable aux yeux des étudiants, il est possible qu'ils considèrent que ce n'est pas un hasard si l'échantillon ne contient pas toutes les possibilités et ainsi attribuer la constitution de cet échantillon "particulier" à d'autres facteurs, par exemple à un certain déterminisme.

 

- Selon des étudiants:  "La taille de l'échantillon n'a pas d'influence sur la probabiblité d'apparition d'un événement.

Pour certains étudiants, chaque partie d'une population devrait être représentative de la population.  Cette "représentativité locale" (Rouan 1990) peut, croyons-nous, être liée au fait que la taille de l'échantillon ne semble pas avoir d'importance pour évaluer la probabilité d'apparition d'un événement. Ceci est corroboré par les travaux de Kahneman & Tversky (1971, 1972) “ Il apparaît évident que la taille de l’échantillon n’a pas d’effet sur l’évaluation subjective de la distribution.  Des groupes indépendants, confrontés à des problèmes se distinguant seulement par la taille de l’échantillon, produisent des distributions semblables. ” (1972, p. 439)

Cette constatation est importante pour comprendre ce qui peut amener les étudiants à ne pas saisir ou accepter l'effet fondateur.  Comme la taille de l'échantillon ne semble pas, pour eux, avoir d'influence sur la probabilité d'apparition d'un évènement, le fait que le groupe qui a quitté la population mère représente une proportion plus ou moins grande de la population (et l'on peut supposer qu'il représente souvent une petite fraction), n'entrera pas en ligne de compte pour évaluer la probabilité qu'un allèle ne soit pas représenté.  Ainsi, pour certains étudiants, il apparaîtra comme peu probable, et peut-être douteux, qu'un caractère soit absent, puisque pour eux tout échantillon, quelle que soit sa taille, devrait être représentatif de la population.

 

- Selon des étudiants:  Si un échantillon n'est pas représentatif, il n'a pas été pris au hasard…

Le dernier aspect que nous voulons souligner est en fait la conséquence des deux précédents.  Pour les étudiants, un échantillon pris au hasard devrait normalement être représentatif de la population sinon il risquerait de ne pas avoir été réellement pris au hasard.  (Cela traduit une vue déterministe des phénomènes aléatoires). Cette idée nous est suggérée par un exemple donné par Feller (cité dans Kahneman & Tversky, 1972, pp. 435-436) dans son Introduction to Probability Theory (1968).  Il mentionne que durant la seconde guerre mondiale, suite à un bombardement intensif de Londres, les gens croyaient que le bombardement n'avait pu être dirigé au hasard dans la ville parce que quelques parties de la ville avaient été très durement touchées tandis que d'autres n'avaient pas été touchées du tout.  Après vérification, on a constaté que la distribution des tirs par petite section correspondait remarquablement bien à la distribution attendue sous l'hypothèse d'un bombardement au hasard.  Il n'en reste pas moins que pour ces gens l'apparence d'un échantillon non représentatif de la population les amène à douter qu'il puisse relever du hasard. (Cf aussi Tversky & Kahneman 1982).

 

 

4 - Evolution et probabilités

 

La très grande diversité des travaux de recherche sur l’évolution (dont nous n’avons présenté à titre d’illustration qu’un aspect très réduit) a évidemment d’importantes conséquences sur les méthodes d’études et les degrés de formalisation auxquelles on peut prétendre. Dans ces conditions, que peut-on dire sur la place du Calcul des Probabilités dans cette partie fondamentale de la Biologie qu’est l’Evolution, ou, plus largement, le développement de la vie ?

Une réponse claire et objective ne peut être apportée que dans les domaines qui ont été l’objet d’études approfondies et précises, donnant lieu à des résultats quantitatifs permettant d’élaborer des modèles, de type déterministe (relations fonctionnelles) ou aléatoire (définies par des lois de probabilité). Les études portant sur la génétique, qui se sont beaucoup développées depuis environ 1920, remplissent pleinement ces conditions. Non seulement on peut évoquer le hasard pour décrire ces phénomènes, mais aussi proposer des lois de probabilité, et les vérifier par l’expérimentation. Le processus élémentaire qui constitue le point de départ de toute étude de génétique est la rencontre d’éléments (allèles) où plusieurs éventualités connues sont possibles et également probables. A partir de là, en appliquant des règles simples du Calcul des Probabilités, on peut développer des théories décrivant le comportement des systèmes de niveaux supérieur, notamment la répartition des génotypes dans une population, et en tester les hypothèses. Cette situation permet aussi des études plus complexes d’évolutions aléatoires de populations en y intégrant les migrations, l’évolution de caractères, l’étude des mutations...

 

Il en va tout autrement des études globales portant sur des ensembles complexes de populations réagissant les unes aux autres et se transformant au cours de très longues périodes (études paléontologiques par exemple). On se situe ici à l’opposé des conditions précédentes. Les conditions d’étude y sont particulièrement difficiles en raison de l’extension du sujet, de la complexité des systèmes étudiés face à la modicité des informations recueillies. Dans de telles conditions, le chercheur ne peut pas espérer pouvoir formaliser les phénomènes étudiés et bâtir des modèles précis susceptibles de les représenter ; toutefois sa vocation l’incite à des réflexions allant dans ce sens, c’est à dire à chercher un ou des fils directeurs permettant de mettre de l’ordre (éléments de structure) dans les connaissances acquises, étape obligée d’une démarche inductive orientée vers l’élaboration de théories réalisant des synthèses partielles ou globales.

C’est dans cette phase de réflexion que le chercheur est confronté à l’interrogation fondamentale : les phénomènes historiques que nous décrivons étaient-ils déterminés ou non ? La réponse n’est pas unique. S’il nous apparaît que le déterminisme a joué un rôle, il n’explique pas tout. Mais alors comment caractériser ce qui ne nous apparaît pas avoir été inéluctable ? Là est toute la question.

Il convient de souligner ici que l’étude de l’évolution constitue un exemple particulièrement intéressant pour analyser la démarche de pensée du chercheur. En effet, les énormes difficultés rencontrées ne permettent pas d’aboutir à des résultats complets et définitifs. Le chercheur est alors conduit à multiplier les tentatives d’approche et doit trouver un langage pour exprimer le mieux possible les résultats partiels obtenus. Dans ce contexte, l’incertitude continuellement rencontrée doit faire l’objet d’analyses. C’est ainsi que le premier terme qui vient à l’esprit est celui de “ hasard ” ; mais on emploie aussi les adjectifs “ incertains, imprévisibles, contingents.... ”. Ces termes empruntés au langage courant n’ont pas de sens vraiment défini. Par contre on conçoit et on sait exprimer clairement deux situations extrêmes concernant l’issue d’un phénomène en cours de réalisation : le résultat est connu d’avance (ou prévisible) ou il ne l’est pas (imprévisible). Cependant cette manière de décrire les situations est incomplète. On peut observer que la 2ème situation est ici décrite négativement, par ce qu’elle n’est pas. Or les situations rencontrées sont plus nuancées. On n’est pas dans une situation du tout ou rien de connaissance (ou d’information) : ce qui distingue ici les différents phénomènes est la connaissance qu’on en a.

A propos d’un phénomène qui va se réaliser on peut avoir une connaissance dite totale (n’est-ce pas présomptueux ?) ; très forte, partielle etc... L’existence de ce “ marais ” de situations intermédiaires est bien ressentie puisque la deuxième situation évoquée ci-dessus est souvent dite “ pur hasard ”. Quels sont alors les hasards moins purs ? L’usage d’un vocabulaire varié et nuancé : contingent, imprévisible etc... ne suffit pas à établir une démarche de pensée scientifique. Pour y voir plus clair et s’orienter vers des notions plus objectives applicables aux cas intermédiaires, on peut raisonner en termes de “ connaissances ” ou “ d’information ”, la notion contraire étant “ l’incertitude ”. Il faut bien reconnaître que les situations à information nulle sont rares.

 Lorsque les résultats d’un phénomène sont connus, en nombre fini et tous également probables, le praticien qualifie parfois cette situation de “ hasard pur ” ou “ complètement au hasard ”. Cette expression traduit le fait que, pour un même ensemble de possibilités, cette répartition de probabilité conduit à la plus grande incertitude concernant des résultats ponctuels (ceci est très clairement illustré dans le cadre de la génétique : détermination du sexe d’un enfant, lois de Mendel). Pourtant il est préférable d’éviter cette terminologie non académique et ambiguë car elle néglige ce qui est connu du phénomène. En effet, le fait que les probabilités soient toutes égales, ou qu’elles soient différentes (dont l’une très forte par exemple) s’inscrit dans une connaissance complète du modèle représentatif du phénomène. Ainsi, pour affirmer qu’un phénomène relève “ du hasard pur ” et en donnant à cette expression le sens défini ci-dessus, il faut très bien connaître la structure du phénomène, bien que cette connaissance conduise à la plus grande incertitude du résultat d’une réalisation ponctuelle de ce phénomène (il n’en serait plus de même des résultats de nombreuses réalisations de celui-ci).

 

5 - Conclusion

 

Nous avons relevé que le déterminisme a été et reste le plus souvent la référence dans les sciences de la vie ; mais la variabilité observée systématiquement par les chercheurs dans ces domaines vient contredire cette manière de voir les choses et conduit à l’interrogation : le déterminisme est-il ou non la loi fondamentale du Monde ? D’une part on doit observer que cette question est d'ordre philosophique et que la Science ne peut pas y donner une réponse définitive. D'autre part, si certains phénomènes mettent en évidence des invariants, nombreuses sont les situations caractérisées par la variabilité des résultats. Enfin, on observe l'existence d'épreuves aux résultats variables mais dont la répétition conduit à des "régulantes" pseudo-constantes, ce qui constitue une situation intermédiaire entre les deux cas précédents et dont nous allons montrer toute l'importance.

Les tenants du déterminisme font valoir que la variabilité apparaît dans des phénomènes complexes impossibles à analyser finement car ils mettent ainsi en cause de très nombreux facteurs qui ne peuvent être mesurés au même moment et avec une précision suffisante (généralisation de l'idée des "erreurs de mesure"). Il y aurait donc une "vraie valeur" (hypothétique ?) bien déterminée et dont on ne pourrait que s'approcher. Cette prise de position est incontestablement de caractère philosophique, elle ne peut pas être vérifiée, et relève de l'adhésion à un Dogme étranger à la Science.

 Pour apporter un peu de clarté à cette interrogation fondamentale, plusieurs observations doivent être présentées.

     - Faut-il absolument découvrir un principe unique régissant les lois du Monde ? C'est là une ambition du chercheur qui, jusqu'ici, a toujours été déçue. Si le scientifique doit poser des hypothèses pour guider ses investigations, il doit garder un esprit critique et savoir remettre en cause ce qui n'apparaît pas justifié.

     - Un caractère des études mérite une attention toute particulière, à savoir le niveau de généralité recherché et donc la précision exigée des résultats observés, ce qui conduit à des approches très différentes. Pour en discuter retenons deux situations extrêmes :

                            a) - On peut étudier des phénomènes très simples et très localisés c'est-à-dire ne mettant en cause qu'un très petit nombre de facteurs. Ces situations qu'on peut appeler "microphénomènes" ou "phénomènes élémentaires" peuvent faire l'objet d'études fines et donc être représentées par des modèles précis : exemple les lois de Mendel..

                            b) - Au contraire, on peut effectuer des études globales de phénomènes très complexes, comportant de nombreux facteurs ou portant sur de grands ensembles. Ces études conduisent à observer quelques grandeurs caractéristiques de l'ensemble ; mais il est beaucoup plus difficile ici d’aboutir à des modèles globaux précis.

 

Cependant, dans les phénomènes de la vie, on rencontre souvent des situations où un désordre apparant des éléments conduit à un ensemble cohérent et bien structuré. Ces situations observées peuvent, en partie, expliquer le choix des systèmes de référence opposés, l'aléatoire régissant les éléments conduit à un système complexe bien structuré, sensiblement déterminé. Bien entendu, ce schéma ne saurait être généralisé à l’ensemble des phénomènes de la vie, mais il semble correspondre à de nombreuses situations. Comment peut-il en être ainsi ? On peut imaginer de très nombreuses règles d'associations conduisant à des systèmes structurés stables. Tel est le cas de modèles où le système évolue en passant par des états successifs d’une manière aléatoire mais aboutit nécessairement à l’état B. Il en est ainsi de certaines fourmis qui vont au hasard chercher une source de nourriture autour de leur nid (Clément P. 1994). Les fourmis qui trouvent la nourriture la plus proche reviennent plus vite et informent d’autres fourmis qui prennent la bonne direction. Ce système va évoluer de façon aléatoire, mais immanquablement, il aboutira au fait que presque toutes les fourmis se rendront en ce lieu le plus proche, sans qu’interviennent aucun acte intelligent personnel ni aucun déterminisme.

Ces exemples en montrant bien qu'on peut s'approcher d'un déterminisme à un niveau supérieur à partir du hasard, relativisent l'opposition déterminisme - aléatoire. Ces considérations peuvent être rapprochées des allusions faites à l’existence d'un "anti-hasard" et également aux références à un "déterminisme biologique", par exemple le "déterminisme de la sélection naturelle". Ces phénomènes apparaissent incontestablement aléatoires quand ils sont l’objet d’études locales précises, mais, lorsqu’ils sont observés globalement, un langage déterministe peut, en première approximation, les décrire d'une manière suffisamment précise pour les études qui en sont faites.

Le déterminisme seul, comme le hasard seul, apparaissent comme des références trop rudimentaires pour présenter des synthèses des transformations des phénomènes de la vie. S’il paraît chimérique d’arriver à décrire avec précision ce qu’ont été par exemple les étapes de l’évolution (ou les transformations de phénomènes globaux), les connaissances déjà importantes vont s’étendre, et des éléments de plus en plus nombreux sont susceptibles d’apparaître. Des tentatives de construction de modèles globaux pourront être envisagées, incluant plusieurs types de relations (fonctionnelles, aléatoires...) dont la simulation apporterait des éclairages nouveaux sur ces questions.

 

 

6 - Bibliographie

 

Allégre, C.  (1992) Introduction à une histoire naturelle. Du big bang à la disparition de l’Homme. Ed Fayard (409p.)

Arnholt,  A. (1999).  Simulating sampling distributions.  Teaching Statistics, 21(1),

       14-16.

Blondel J. (1997)  Les adaptations du vivant, chapître 4 du guide de l’exposition du Muséum National d’Histoire Naturelle : Iles vivre entre ciel et mer.

 

Brousseau, G.  (1984).  Obstacles épistémologiques en mathématiques., In:  Recherches en didactique des mathématiques., Vol 4.2, La Pensée Sauvage, Grenoble, pp. 33-115.

 

Brousseau., G. In:  Recherches en didactique des mathématiques., Vol 5.2, La Pensée Sauvage, Grenoble, pp.229-234.

 

Clément P. (1994) : De la régulation à l'auto-organisation. Avant-propos à l'ouvrage coordonné par G.Rumelhard : La régulation en biologie. Approche didactique : représentation, conceptualisation, modélisation, Éd. I.N.R.P. (Didactique des disciplines), Paris, p.7-24.

 

Génermont J. & Lamotte M. (1986): Place et rôle de l’adaptation dans l’évolution biologique, Bull. Zool. 53 : 215-237.

 

Girault Y. & Girault M. (1999) L’aléatoire  et le vivant  Ed Diderot, 182p.

 

Girault Y. & René de Cotret S. (1993) Contribution de la didactique des sciences à l’étude des obstacles relatifs à la destruction du concept racialiste et raciste dans l’enseignement. In  Repères, Essais en Education, No 15, Université de Montréal.

 

Ginsburg, L. (1979), Les vertébrés, ces méconnus. 600 milliers d'années d'évolution, des origines à l'homme. Hachette, 222 p.

 

Gleaser, G.  (1981).  Épistémologie des nombres relatifs., In:  Recherches en didactique des mathématiques., Vol 2, La Pensée Sauvage, Grenoble, pp.303-346.

 

Gould SJ. (1997)  L’éventail du vivant le mythe du progrés. Ed du Seuil P. 186.

 

Gutiel  G., Gelman, S. (1997) "Children's use of sample size and diversity information within basic-level categories". Journal of experimental child  psychology 64, 159-174

 

Henry, A. & Henry, M.  (1992).  L'enseignement des probabilités dans le nouveau programme de première, In:  Mathématiques chez les 11-16 ans en France.,  Commission Inter-IREM Premier cycle, pp. 85-114.

 

Kahneman, D. & Tversky, A.  (1972).  Subjective Probability: A Judgement of Representativeness.,  In:  Cognitive Psychology, vol 3, Academic Press, pp. 430-454.

 

Khalil, Z. & Dwivedi, T.D.  (1983).  On some problems of teaching probability theory., In:  Actes de la cinquième rencontre annuelle de PME-NA, J.C. Bergeron & N. Herscovics (Eds.), Montréal, pp. 19-24.

 

Krueger, J., Clement, R. (1996) "Inferring category characteristics from sample characteristics: inductive reasoning and social projection". Journal of experimental psychology: general 125(1), 52-68

 

Lamotte M. (1994) Théorie actuelle de l’évolution. Ed Hachette .

 

Mayr E. (1963)  Animal Species and Evolution. Belknap, Cambridge.

 

Nicholson, James (1997),  "The relative effects of sample size and proportion". Teaching statistics 19(2), 47-48

 

Paulos, J.A.  (1988).  Innumeracy.  Mathematical illiteracy and its consequences.  Hill & Wang, New York, 135p.

 

Raup D. M. (1993) De l’extinction des espèces sur les causes de la disparition des dinosaures et de quelques milliards d’autres. Ed Gallimard.

 

Rouan, O.  (1990).  Hasard et probabilité:  conceptions d'élèves de 16 à 18 ans.  Séminaire sur la Représentation, CIRADE, UQAM, 40 pages.

 

Taquet P. (1993)  Les dinosaures grandeur et décadence. La vie des sciences. Compte rendu de l’académie des sciences, série générale, tome 10, no4, p265-284.

 

Tversky, A.,  & Kahneman, D. (1982).  Causal schemas in judgments under uncertainty. In: D. Kahneman, P. Slovic & A. Tversky (Eds.), Judgment under uncertainty: Heuristics  and biases. (pp. 117-128). New York: Cambridge University Press.

 

Tversky A. & Kahneman, D.  (1971) "Belief in the law of small numbers.".Psychological Bulletin. 76. 105-110.

 

 Well  A.D., Pollatsek  A., Boyce S. (1990)  "Understanding the effects of sample size on the variability of the mean". Organizational Behavior and Human Decision Processes, 47, 289-311.

 

      



[1] Cet article, issu d’une synthèse de travaux réalisés depuis de nombreuses années, trouve notamment son inspiration dans un article publié en 1993 : Yves Girault & Sophie René de Cotret “ Contribution de la didactique des sciences à l’étude des obstacles relatifs à la destruction du concept racialiste et raciste dans l’enseignement. ” In  Repères, Essais en Education, No 15, Université de Montréal et surtout d’un ouvrage publié aux éditions Diderot en 1999 par  Yves & Maurice Girault : “ L’aléatoire et le vivant ” . Enfin je tiens à remercier Linda Gattuso,  professeur à l’UQAM au département de mathématiques, qui m’a guidé dans la recherche bibliographique en didactique des mathématioques.

 

[2] Intervention après une communication de Maxime Lamotte  : Phénomènes fortuits et évolution ; au colloque sur  l’évolution dans sa réalité et ses diverses modalités, 1988, p 268.