Upload
norberta-busson
View
107
Download
0
Embed Size (px)
Citation preview
Michèle Artigue,LDAR et IREM Paris 7
Enseignement des mathématiques : le défi de la pluridisciplinarité
Plan
Introduction : le contexte français et international
L’expérience de l’IREM Paris 7:Une tradition de pluridisciplinaritéLe groupe ModélisationMathématiques et SVT
Quelles leçons tirer de cette expérience ?
Le contexte français
Une volonté institutionnelle en France de promouvoir l’interdisciplinarité, manifeste dans de multiples initiatives :Le CNP et la réforme des lycées de
2000 : TPE, travail conjoint des groupes d’experts sur l’exponentielle, les projets en lycée professionnel…
Des options sciences au nouveau module MPS en seconde.
L’enseignement au collège : IDD, thèmes de convergence…
Les expériences d’enseignement intégré des sciences au collège (EIST)
Pourquoi la pluridisciplinarité ?
Pluridisciplinarité
Rapprocher l’Ecole de la
science actuelle
Renforcer l’attractivité de l’enseignement scientifique
Faire face aux besoins d’une
éducation citoyenne
Une diversité d’enjeux
Interdisciplinarité
Modélisation /
Applications
Contenus / Compétenc
es
Démarches d’investigation
Décloisonner les
connaissances
Extrait des documents d’accompagnement des programmes du lycée (2000)
« La modélisation est une pratique scientifique majeure qui concerne un nombre croissant de domaines. […] Modéliser est une des principales modalités de l’interaction entre les mathématiques et les autres sciences. Mais la pratique de la modélisation de situations réelles est difficile. […] Au niveau du lycée, on initiera les élèves à la modélisation grâce à l’étude de certaines situations réelles, qu’on simplifiera à l’extrême et pour lesquelles le modèle grossier ainsi établi devient éclairant ou permet une prévision : la difficulté est alors de garder sens et consistance au problème simplifié. »
(Accompagnement pour les classes terminales S et ES, p. 29)
Les thèmes de convergence« Les thèmes de convergence [...] font partie des
programmes des disciplines dans lesquels leurs contributions sont également recensées. Les thèmes choisis ont été retenus parmi des sujets importants pour la société et proches des préoccupations quotidiennes des élèves. L’intérêt que leur étude, à partir de points de vue complémentaires, peut susciter chez des collégiens a constitué une considération décisive. Pour chaque enseignement disciplinaire, il s’agit de contribuer, de façon coordonnée, à l’édification d’objets de savoir commun, éléments essentiels d’une culture partagée. » (extrait du Rapport Bach)
L’enseignement d’exploration des nouveaux programmes de seconde
« L’enseignement d’exploration « méthodes et pratiques scientifiques » permet aux élèves de découvrir différents domaines des mathématiques, des sciences physiques et chimiques, des sciences de la vie et de la Terre et des sciences de l’ingénieur. C’est aussi l’occasion de montrer l’apport et la synergie de ces disciplines pour trouver des réponses aux questions scientifiques que soulève une société moderne, d’en faire percevoir différents grands enjeux, et de donner les moyens de les aborder de façon objective. »
Le discours de Pierre Lena à l’Académie des Sciences
Il y propose trois leviers pour l’avenir de l’école :
Le changement des pratiques pédagogiques et le développement des démarches d’investigation à l’image de la « Main à la Pâte »
Des professeurs accompagnés dans leur développement professionnel, au contact de la science vivante et de ses acteurs
Décloisonnement et interdisciplinarité: une conception plus globale des savoirs, un décloisonnement des disciplines.
Le discours de Pierre Lena « Chaque année, l’Académie des sciences distingue les lauréats de ses Prix : ces travaux révèlent l’immensité des savoirs d’aujourd’hui, leur perpétuel mouvement, leurs interactions croisées et souvent improbables, leur degré d’abstraction, leur extrême technicité, leurs surprenantes applications. Notre système d’éducation, ne sachant évidemment plus embrasser cette immensité de savoirs, traumatisé, peine à prendre un cap où beaucoup est à réinventer. Il se contente d’aménager des programmes étroitement disciplinaires. Que l’on ne voie pas ici une critique d’institutions ou de personnes, car nombre de pays se heurtent à ces mêmes difficultés. »
Le Plan Sciences et l’EIST« Afin de décloisonner l'approche des sciences et des technologies au collège pour redonner du sens à l'enseignement et faciliter la liaison CM2-sixième, une expérimentation d'un enseignement intégré de science et technologie (EIST), mise en œuvre par l'Académie des sciences, l'Académie des technologies et le ministère, est conduite depuis 2006 en classe de sixième et de cinquième. […] L'EIST s'inscrit dans le sillage de « La main à la pâte » à l'école élémentaire et offre aux élèves la possibilité de mener à bien une démarche expérimentale et d'investigation […] Le plan sciences et technologies à l'École vise l'extension du dispositif à 400 collèges à terme. »
Et au niveau international ?Des convergences évidentes aisément
repérables dans la perception des enjeux :au niveau Européen (Rapport Rocard,
Financement de projets )au niveau de l’OCDE (PISA et le
concept de « littéracie », le cycle de modélisation…)
au niveau de l’UNESCO (les deux documents récents sur les défis de l’éducation scientifique et mathématique dans la scolarité de base)
Des évolutions curriculaires convergentes
Le contexte français : des volontés affichées mais aussi des facteurs peu favorables
Une culture éducative qui est fondée sur le cloisonnement disciplinaire voire la compétitions entre disciplines.
Des enseignants qui sont, à partir du collège, (hors lycée professionnel) monovalents.
Des enseignants qui sont très peu préparés par leur formation initiale à des pratiques pluridisciplinaires et aux démarches de modélisation qu’elles induisent.
Une vision du travail enseignant où les pratiques collaboratives ont encore assez peu de place.
Des possibilités de formation continue de plus en plus réduites pour accompagner les dispositifs progressivement introduits.
Une avalanche de réformes et une détérioration des conditions de travail qui ne favorisent pas les évolutions souhaitées.
L’expérience des IREM
Une expérience indéniable et qui mérite d’être valorisée
Le cas de l’IREM Paris 7
Un IREM initialement pluri-disciplinaire : maths-physique, math-technologie, math-biologie, math-français.
Une pluri-disciplinarité qui va progressivement s’estomper pour renaître à la fin des années 90 avec :le groupe MAG (Maths-Arts plastiques-
Géographie)le groupe ZEP qui deviendra le groupe
Math-Françaisle groupe TPE qui deviendra le groupe
Modélisation Et avec l’émergence aujourd’hui d’une
collaboration avec les informaticiens autour de l’algorithmique
Le groupe IREM Modélisation
Un groupe pluridisciplinaire : maths – physique – SVT.
Un groupe créé en 1999 pour accompagner la mise en place des TPE et qui s’est progressivement orienté vers les questions de modélisation et d’interactions entre disciplines.
L’animation de stages PAF puis l’opportunité de mener un travail plus approfondi créée par la mise en place du master professionnel didactique en 2004.
L’importance prise par les interactions entre mathématiques et biologie dans le travail du groupe.
Le processus de modélisation
Des modèles de référence
Des modèles de référence
Le découpage d’un segment de « réalité »
Un choix de description
Une mathématisation de cette description
Un travail dans le modèle
Une confrontation à la contingence
Un problème à résoudre
Un travail interdisciplinaire math-physique inspiré par une ressource du projet Européen LEMA
L’apport d’une démarche pluridisciplinaire
La vision initiale des enseignants de mathématiques :
La modélisation des jets d’eau par des paraboles
le problème devient alors un problème géométrico-fonctionnel
l’utilisation de logiciels de géométrie (Geoplan et Geospace) pour simuler les jets d’eau et visualiser l’effet des variations des paramètres
l’exploitation des propriétés de symétrie de la situation
L’apport d’une démarche pluridisciplinaire
L’apport de l’enseignante de physique :La modélisation physique et ses
approximationsLa confrontation au réel via un dispositif
expérimentalUne autre utilisation de la technologie
pour tester le modèle et trouver par ajustement l’équation de la parabole
L’introduction d’un exemple historique
La modélisation physique
La modélisation de l’eau par un liquide parfait incompressible et l’utilisation du théorème de Bernouilli.
La modélisation du jet en un ensemble de gouttes d’eau soumises à la seule pesanteur et l’utilisation des lois de la mécanique classique.
Influence de l’intensité de la vitesse initiale (angle constant)
Influence de l’angle à vitesse constante
L’existence d’une portée maximale (45°)
Le dispositif expérimental
L’exploitation du logiciel Dynamic
Le test du modèle quadratiquey=f(x²)
y = -0,696x²
R2 = 0,9994
-0,40
-0,35
-0,30
-0,25
-0,20
-0,15
-0,10
-0,05
0,00
0,00 0,10 0,20 0,30 0,40 0,50 0,60
x² en m²
y en
m
y=f(x)
-0,70
-0,60
-0,50
-0,40
-0,30
-0,20
-0,10
0,000,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80
x en m
y en
m
Leonardo da Vinci: une étrange affirmation !
Le calcul effectif
La simulation avec Geospace
x
y
z
Des prolongements : parabole de sécurité
Des prolongements
Interactions maths-SVT
Des spécificités certaines
Le cas spécifique de la biologie
Des concepts dont les mathématiques ne sont pas constitutives, contrairement à la physique.
La diversité des sources de modélisation en biologie et l’influence croissante mais relativement récente des modélisations mathématiques.
Le rôle déterminant joué par les modélisations aléatoires et la variabilité du vivant comme source d’obstacles :
Le défi résultant pour faire vivre le rôle créateur des modèles mathématiques en biologie.
Mais aussi la possibilité progressivement constatée de faire vivre des interactions riches et motivantes entre maths et biologie avec des outils mathématiques assez élémentaires, en particulier grâce aux outils technologiques disponibles.
Deux exemples historiques travaillés dans le master et les stages
L’essai sur le principe de
population de Malthus
Le travail de Daniel Bernoullisur la variole
Bernoulli : les hypothèses de modélisationH1 : « Tant qu’on a pas eu la petite vérole, on court
continuellement le même risque de l’avoir. »H2 : « Quant au risque annuel d’être attaqué par la
petite vérole, pour ceux qui ne l’ont pas eue, j’ai cru ne pouvoir satisfaire aux notions générales que nous avons sur cette maladie, qu’en la supposant d’un huitième, ce rapport de 1 sur 8 étant supposé constant »
H3 : «Disons encore un mot sur le risque de la petite vérole pour ceux qui en sont attaqués : la plupart l’ont fait d’un septième ; je l’ai un peu diminué, en le faisant d’un huitième »
H4 : « Le risque de mourir par une autre cause que la petite vérole est le même que l’on ait eu la petite vérole ou non »
Bernouilli : les justificationsH1 : « Nous n’avons encore aucune observation qui nous
oblige à renoncer à cette supposition, et les lois de la Nature les plus simples sont toujours les plus vraisemblables … »
H3 : «Disons encore un mot sur le risque de la petite vérole pour ceux qui en sont attaqués : la plupart l’ont fait d’un septième ; je l’ai un peu diminué, en le faisant d’un huitième : deux raisons m’y ont engagé, …la première est qu’on apprend exactement tous ceux qui en meurent, et qu’on ne saurait apprendre si exactement tous ceux qui ont la maladie , la seconde, est que le rapport de 1 sur 7 ferait la mortalité variolique trop grande par rapport à la mortalité entière, pendant que celui de 1 sur 8 est entièrement conforme à l’observation la mieux constatée, qui est que la petite vérole enlève la treizième partie du total des morts … »
La mathématisation
On introduit les variables suivantes : t : variable qui représente l’âge des
individus en années.N(t) : le nombre de survivants de cette
population à l’instant t x(t) : le nombre des personnes
susceptibles d’attraper la variole à l’instant t, c’est-à-dire, parmi les survivants, ceux qui n’ont pas encore eu la variole
m(t) : le taux annuel de décès par d’autres causes que la variole au sein des deux populations.
Le jeu entre discret et continu
)()()(8
1
8
1)()1(
)()()(8
1)()1(
tNtmtxtNtN
txtmtxtxtx
)()()()('
)()()()('
tNtmtxbtN
txtmtxatx
1 1avec et
8 64a b
La résolution du système différentiel Bernoulli introduit la proportion de
survivants à l’instant t, encore susceptibles d’avoir la variole en posant :
)()()(tNtxtf
1)0(
)()()('
f
tfbatftf
On reconnaît là une équation différentielle logistique
)(
1)(
tftg
1)0(
)()('
g
btgatg
a
be
a
btg ta
1)( taebab
atf
)(
La résolution de l’équation différentielle logistique
)(71
8)( 125,0 tN
etx t
• Si l’on utilise les valeurs de N(t) données dans une table de mortalité, on peut alors en déduire les valeurs de x(t), puis déterminer comment évoluerait la population si personne ne mourait de la variole, par un raisonnement de proportionnalité. • C’est ce que fait Bernoulli en s’appuyant sur les tables de mortalité d’une population de 1300 personnes de la naissance à l’âge de 24 ans.
Le raffinement de la modélisation et les conclusions qui en sont tirées
La modélisation effectuée ne tient pas compte de l’existence de décès suite à l’inoculation : 1 sur 600 à Londres en 1755, or c’est sur ce nombre de décès d’inoculés que se fondaient les opposés à l’inoculation.
Bernoulli raffine donc son modèle en calculant ce qui se passerait si on avait une chance sur 200 de mourir de la variole après avoir été inoculé (l’inoculation étant supposée avoir lieu la première année).
Avec des arguments de nature probabiliste, il conclut ensuite que l’espérance de vie passerait de 30 à 34 ans environ si tout le monde était inoculé.
Cette étude le conduit prendre parti pour l’inoculation préventive comme mesure salutaire de prophylaxie collective en dépit du risque individuel que la mesure comporte.
Des conclusions source de débats qui ont des résonances actuelles…
Un long débat mathématique et philosophique, auquel Jean Le Rond D’Alembert (1717-1783) prit une part active, s’ensuivit, montrant bien combien l’introduction d’une approche statistique en médecine est problématique à l’époque :
« Je suppose avec monsieur Bernoulli que le risque de mourir de l’inoculation soit de 1 sur 200. Cela posé, il me semble que pour apprécier l’avantage de l’inoculation, il faut comparer, non la vie moyenne de 34 ans à la vie moyenne de 30, mais le risque de 1 sur 200 auquel on s’expose de mourir en un mois par l’inoculation … à l’avantage éloigné de vivre quatre ans de plus au bout de 60 ans lorsqu’on sera beaucoup moins en état de jouir de la vie … Voilà, il n’en faut point douter, ce qui rend tant de personnes, et surtout tant de mères, peu favorables parmi nous à l’inoculation. » (Opuscules, tome II)
Les thèmes abordés dans les projets
La propagation de maladies contagieuses dans une population humaine.
La dynamique des pools de gènes dans une population animale ou humaine au fil des générations.
L’analyse de séquences ADN dont la fonction n’est pas connue.
La représentation de l’ADN par la CGR.La modélisation des formes (toiles d’araignée,
empreintes digitales).La dynamique des tumeurs cancéreuses et leur
traitement (réalisation inspirée des stages Hippocampe mis en place à l’IREM d’Aix-Marseille).
La propagation de maladies contagieuses
Un des premiers thèmes abordés ((lèpre, rougeole, SIDA) qui permet d’entrer en contact avec diverses questions :choix entre modèles déterministes et aléatoires,raffinement progressif des modèles (du modèle
« S.I. » de Hamer au modèle « S.I.R. » de Kermack et MacKendrick , la prise en compte d’effets de vaccination),
recherche et exploitation de données réelles,critique de documents.
Et ce, avec des besoins mathématiques raisonnables (équations et systèmes différentiels simples et suites) et des besoins biologiques très réduits.
Un thème qui permet de combiner le travail sur des exemples historiques (variole, peste) et sur des questions actuelles.
La dynamique des pools de gènes dans une populationLa nécessité de passer par un modèle aléatoire
(urne des gamètes). La mise en évidence d’un phénomène
intéressant de stabilité intergénérationnelle (Loi de Hardy-Weinberg) et l’explicitation des hypothèses sous-jacentes : taille de la population, absence de mutation, de migration, de sélection, de croisements entre générations.
La remise en cause de certaines hypothèses : étude des effets, rectification des modèles :simulations pour le cas de petites populations (dérive
génique et modèle de Wright),étude du cas d’une maladie génétique récessive : la
mucoviscidose,étude d’une maladie spécifique locale (ataxie
spastique)..La possibilité de réaliser des transpositions
didactiques au niveau lycée, et même collège exploitant des modélisations probabilistes simples.
L’analyse de séquences ADN dont la fonction n’est pas connue
Un thème plus exigeant sur le plan biologique et mathématique, avec un premier niveau de modélisation : celle de l’ADN par un texte sur l’alphabet A, C, G, T, puis une seconde modélisation via des chaînes de Markov.
Mais un thème qui permet d’envisager l’exploitation du travail de modélisation sous l’angle de l’écart à un modèle, avec le problème de la détection de sections codantes du texte :par la recherche de fragments qui s’écartent d’une
répartition aléatoire sur la base des fréquences des lettres,
par la recherche de mots « connus ».La familiarisation avec ces questions via une
transposition sur la succession consonnes-voyelles dans un texte, l’exploration de modèles markoviens simples et l’étude de l’effet de permutations du texte.
L’exploitation sur des données réelles avec la définition de macro Excel appropriées et la transposition au niveau lycée.
ADN et CGRPlus qu’une modélisation, une
représentation
GAGCACAGTGGAAGGG…
Les représentations CGR de l’ADN de quatre espèces
ADN et CGRUne appropriation et une exploitation multiforme de cette
représentation via l’utilisation d’outils mathématiques élémentaires mais très divers :
1- Récurrence, homothéties : combinatoire élémentaire, suite de points du plan définis par récurrence barycentrique, intervention des homothéties, exploitation combinatoire de la récurrence vectorielle, utilisation d’un tableur pour représenter et conjecturer, interprétation et comparaison de séquences « vraies » et de séquences produites par un automate probabiliste ;
2- Calcul barycentrique : calcul des poids des points de la CGR comme barycentres des sommets du carré, exploitation combinatoire en relation avec l’aspect des dessins ;
3- Un peu d’arithmétique : écriture des poids en base 2 ;4- Programmation d’un tableur pour dessiner des CGR,
application aux séquences d’ADN des patients atteints de la chorée de Huntington, cas d’école de la biologie. Liens entre propriétés statistiques simples d’une séquence et sa CGR.
En conclusion : quelques leçons de ces expériences
Les réelles potentialités offertes par des travaux interdisciplinaires dès l’enseignement secondaire mais aussi la distance des cultures disciplinaires et le temps nécessaire à l’opérationnalisation.
L’importance du choix des questions qui doit faire sens pour les deux disciplines et la vigilance à avoir vis-à-vis de notre tendance à nous évader dans des jeux purement mathématiques.
La confrontation salutaire à l’ignorance et à la difficulté que nous ressentons comme nos élèves à faire fonctionner des concepts et techniques que nous pensons bien maîtriser hors des sentiers battus.
L’ importance du travail collaboratif et l’enrichissement que l’on retire des échanges avec d’autres disciplines
La compréhension des limites des erzats de modélisation scolaires mais aussi une vision réaliste des limites de ce qui peut être fait dans le cadre de séances de classe ordinaires, et l’importance donc d’arriver à profiter des dispositifs institutionnels secondaires existants pour faire vivre modélisation et interdisciplinarité.
L’interdisciplinarité : un réel défi pour les enseignants de
mathématiques mais un défi qui mérite d’être relevé !