3 juin 2014

7 messages - Retourner à l'article

Voir tous les messages - Retourner à l'article

  • Intervalles de confiance, le débat continue

    le 9 juin 2014 à 14:20, par projetmbc

    Avec cette chaleur, j’ai le temps de répondre un peu à ce post, sans avoir lu l’autre.

    Dans [3] est ainsi cité l’exemple emblématique des coefficients
    binomiaux introduits sans la notion de factorielle. Je suis convaincu
    que, loin de faire gagner du temps, ces impasses en font perdre car
    elles rendent plus difficile l’emploi des notions faute d’un formalisme
    suffisant...

    Cet exemple me semble mal choisi car on peut tout à fait faire le lien entre arbre de probabilité et le nombre de sous-ensembles à p éléments d’un ensemble de n éléments. Il suffit d’utiliser l’arbre « comme » une fonction indicatrice. Plus précisément, une colonne correspond à un élément fixé, et dans l’arbre on met 1 si l’élément est dans un sous-ensemble, et 0 sinon.

    L’usage des factorielles devient réellement nécessaire pour des lois multinomiales par exemple.

    Le vrai manque des factorielles est de pouvoir faire faire des calculs à la main, je sais c’est une idée un peu dingue que j’ai... ;-)

    Et des considérations analogues vaudraient notamment pour le barycentre,
    dont la « disparition » est à bon droit déplorée dans [4].

    Sans parler des vecteurs qui avaient failli disparaître des programmes de 2nde, un triste épisode prouvant le manque de connaissances de certaines personnes qui font les programmes. Omettre le calcul vectoriel dans le plan et l’espace, c’’est juste oublié que ceci prépare la voie vers les espaces vectoriels et l’analyse fonctionnelle, deux domaines que tout le monde sait être totalement inutiles en sciences dures et humaines. :-)

    pour ma part je plaide qu’un cours de mathématiques solide peut permettre
    d’aller, sur certains points de statistique, au delà du parler médiatique
    usuel en lui donnant un véritable contenu scientifique ;

    Comment parler de contenu scientifique sans un minimum de démonstrations. Je pense notamment à l’intervalle de confiance telle qu’attendu en classe de 2nde. D’où vient cet inverse d’une racine carrée. Certains répondront, simulons, simulons... Mais c’est oublié tout ce que ceci implique. Par exemple, pourquoi raisonner car les ordinateurs font le boulot à notre place ? Si ’ordinateur dit que c’est vrai, c’est que c’est vrai. Et hop, on oublie tous les problèmes d’approximations numériques... etc. Oui aux simulations numériques en tant qu’outils dans des exercices, mais non pour « justifier » un résultat. C’est déstabilisant pour des élèves.

    il me semble évident que des programmes de lycée doivent aujourd’hui tenir
    compte des évolutions de la pratique des mathématiques et de leur usage et
    que donc tant l’algorithmique que la statistique y ont leur place.

    Est-ce si simple que cela ?

    L’histoire des sciences montre que des notions pragmatiquement inutiles à un moment pourront être fécondes d’applications à un autre. Penser au problème des axiomes d’Euclide qui a aboutit aux géométries non-euclidiennes qui ont bien rendu service à Einstein. Ou bien l’arithmétique en informatique, ou les complexes en électricité.

    Ne faire de la recherche que dans un sens serait la pire des erreurs !

    De plus, il me semble que le lycée forme des esprits et non de futurs mathématiciens. C’est le post-bac qui doit se poser la question du choix de ce qui est utile à un moment donné. Je n’ai jamais fait de statistique dans mon cursus universitaire, mais il se trouve que j’ai dû à un moment donné apprendre la théorie de la mesure. Ceci me permet d’apprendre de nouvelles notions statistiques via des livres sans trop souffrir.

    Je souhaite bien sûr que ceci s’accompagne d’un retour à un espace
    suffisant pour notre discipline dans les horaires

    C’est le noeud du problème.

    L’opportunité d’enseigner la statistique en cours de mathématiques est
    contestée de manière plus ou moins radicale
    ...
    c’est essentiel pour créer des réflexes de méfiance permettant de garder
    un esprit critique face aux « chiffres », souvent abusivement précis,
    véhiculés par les médias.

    Je n’ai rien contre mais autant faire des choses un minimum démontrables. Comment faire un cours pour critiquer le mauvais usage des statistiques en présentant des notions non démontrables aux élèves. En gros, croyez moi quand je vous dit qu’ils ne faut pas tout croire. Joli paradoxe. Non ? Un esprit critique est un esprit qui raisonne et non qui croit. Comment former un esprit critique mathématique si l’on demande aux élèves de croire leur professeur les yeux fermés. Et je répète qu’une simulation n’est pas une démonstration. Ce n’est pas mon rôle d’enseignant que d’être un gourou mathématique, bien au contraire.

    même si l’on doit leur dire que certaines démonstrations sont hors de
    leur portée.

    « No comment ! » comme on dit outre Manche. Dans ce cas, autant aborder la diagonalisation de Jordan en Spécialité mathématique. Je sais, j’exagère...

    On lit dans [4] : Si l’exercice c’est aller dans « menu », sélectionner
    « normalFrép », entrer les paramètres et appuyer sur « EXE » … ça ne
    m’intéresse pas du tout ; je dirais : moi non plus !

    Dans ce cas, voir les sujets de BAC et aussi les consignes des inspecteurs qui ne jurent que par les TICEs. Il y a du chemin à parcourir...

    L’auteur de [3] pense que les élèves n’y comprendront rien car ils
    retiendront une simple recette et que les intervalles de confiance se
    résument pour 95% des élèves à utiliser la bonne touche de la calculatrice
    sans rien y comprendre.

    Cette année, et en fait comme toujours, j’ai fait l’effort d’expliquer un minimum les choses à mes élèves via ce bon théorème de Moivre-Laplace. C’est un début d’explication mais je ne suis pas satisfait de ne pas pouvoir démontré ce théorème, faute de place dans la marge de mon cours de Lycée.

    je suis bien conscient que, comme le note à juste titre Claudine Schwartz,
    le monde … de nombreux ouvrages pédagogiques de statistique est difficile
    à confronter à des questions de biologie et de données expérimentales ;`
    parmi ces ouvrages pédagogiques on comptera bien sûr les manuels ou les
    documents ressources du ministère de l’éducation nationale.

    J’ai une idée folle. Ne serait-ce pas justement aux profs de Physique et de Biologie de donner du sens à ces notions. En tant que profs très curieux, j’ai depuis longtemps renoncé à l’omni-science. ;-) Arrêtons de segmenter les choses et faisons un travail global en faisant usage des connaissances de chacun si l’on veut réellement donné du sens à certaines notions. Le prof de maths fait al partie technique en proposant quelques exemples concrets, et ensuite charge au profs des Physique, Biologie, Histoire, ... de réinvestir notre apport technique.

    je considère que le cadre retenu par le programme permet par exemple,
    en choisissant des situations où l’on simule un grand nombre d’intervalles
    de confiance, de rendre sensible à des élèves leur variabilité et de mettre
    en évidence le fait que la proportion de cas de couverture de la valeur du
    paramètre qui préside à ces simulations est bien environ le niveau de
    confiance annoncé.

    Très gênant comme raisonnement. Une simulation peut au mieux permettre de tester une conjecture, mais certainement pas d’établir un résultat. C’est une faute épistémologique grave et dangereuse !

    d’où une proposition de changement de rhétorique, pour l’adapter à notre
    époque où la notion de modèle est explicitement présente dans la plupart
    des démarches scientifiques

    Ce n’est pas propre à notre époque. Depuis combien de temps fait-on de la Physique, la reine de la modélisation ?

    Répondre à ce message
Pour participer à la discussion merci de vous identifier : Si vous n'avez pas d'identifiant, vous pouvez vous inscrire.