Scientific method: Statistical errors


Summary

'Cet article de Regina Nuzzo examine de près la valeur P, considérée comme la "norme d'or de la validité statistique". Malgré son utilisation généralisée, elle n'est peut-être pas aussi fiable que la plupart des scientifiques le pensent. Elle raconte l'histoire de Matt Motyl, un étudiant en doctorat de psychologie qui a étudié les extrémistes politiques. Son hypothèse était que les modérés politiques pouvaient percevoir les nuances de gris plus précisément que les extrémistes de gauche ou de droite. Les premières données ont soutenu l'hypothèse, en produisant une valeur P de 0,01 qui est généralement interprétée comme "très significative". Pour être extrêmement prudent, Motyl et son conseiller, Brian Nosek, ont répliqué l'étude. Cependant, la réplication n'a pas trouvé de résultat significatif. Sa valeur P était de 0,59. L'hypothèse "sexy" de Motyl s'est évaporée, tout comme ses espoirs de publication. Apparemment, les extrémistes ne voient pas littéralement le monde en noir et blanc. Motyl n'avait rien fait de mal. La valeur P était à blâmer. En 2005, l'épidémiologiste John Ioannidis a publié son article désormais célèbre, Why Most Published Research Findings are False. Il a fait la lumière sur la crise de la réplication, qui n'a fait qu'empirer depuis. Les scientifiques repensent désormais leur manière de travailler, y compris l'utilisation des valeurs P. Les valeurs P ont été critiquées par les statisticiens depuis leur introduction par Ronald Fisher dans les années 1920. Un chercheur sarcastique a suggéré qu'elles soient rebaptisées "Statistical Hypothesis Inference Testing", ce qui a du sens une fois que l'on considère son acronyme. Même l'inventeur de la valeur P n'avait pas l'intention qu'elle soit utilisée comme elle l'est aujourd'hui. Il était censé s'agir d'un moyen rapide de voir si les résultats d'une expérience étaient "cohérents avec le hasard". Cela impliquait une série d'étapes : Définir une hypothèse nulle, prédisant "aucune corrélation" ou "aucune différence" entre les deux groupes. En supposant que l'hypothèse nulle est vraie, calculer la probabilité d'obtenir des résultats similaires ou plus extrêmes par rapport à ce qui a été observé. Cette probabilité est la valeur P. Une valeur élevée signifie que les résultats sont cohérents avec l'hypothèse nulle. Une faible valeur signifie que l'hypothèse nulle peut être rejetée. Une valeur P est censée mesurer "si un résultat observé peut être attribué au hasard". Mais elle ne peut pas répondre à la question de savoir si l'hypothèse du chercheur est vraie ou non. Cela dépend en partie de la plausibilité de l'hypothèse au départ. Une hypothèse improbable avec une faible valeur p deviendra seulement légèrement plus plausible. Les rivaux de Fisher, Jerzy Neyman et Egon Pearson, ont promu un système alternatif basé sur la puissance statistique (la probabilité qu'une analyse détecte un effet). La méthode pouvait être calibrée en fonction de l'importance relative des faux positifs et des faux négatifs. Notamment, la valeur P manquait. Neyman a qualifié le travail de Fisher de "pire qu'inutile". Fisher a qualifié l'approche de Neyman de "puérile" et a accusé le mathématicien polonais d'être un communiste. À l'extérieur de cette bataille amère, les chercheurs qui n'étaient pas statisticiens ont commencé à rédiger des manuels pour les scientifiques praticiens qui enseignaient une approche hybride. Elle combinait les idées de Fisher, Neyman et Pearson, mais ne serait pas approuvée par l'un ou l'autre. Elle était procédurale et basée sur des règles comme le système Neyman-Pearson et utilisait la simple valeur P de Fisher. Ils ont déclaré qu'une valeur P inférieure à un seuil de 0,05 était "significative". Ce n'était jamais l'intention de Fisher, mais c'est ainsi qu'elle est utilisée aujourd'hui. La plupart des scientifiques sont confus quant à la signification réelle d'une valeur P. La plupart diraient qu'une valeur de 0,01 signifie qu'il y a 1% de chances qu'un résultat soit un faux positif. Cependant, c'est fallacieux. La valeur P ne peut décrire que la probabilité des données en supposant que l'hypothèse nulle est vraie. Mais elle ne peut rien dire sur la probabilité d'un effet causé par l'hypothèse expérimentale. Pour ce faire, il faut connaître les chances qu'un tel effet existe. Nuzzo propose l'exemple de se réveiller avec un mal de tête et de penser que l'on a une tumeur cérébrale rare. C'est possible, mais toujours peu probable. Plus une hypothèse est improbable, plus il est probable qu'un résultat soit un faux positif, même avec une petite valeur P. Certains statisticiens ont tenté de fournir une règle empirique pour calculer la probabilité d'un effet réel étant donné une petite valeur P. Par exemple, une valeur P de 0,01 implique une probabilité d'au moins 11% que vous ayez un faux positif. Pour une valeur P de 0,05, cette probabilité augmente à au moins 29%. Dans le cas de l'étude de Motyl sur les extrémistes politiques, sa valeur P de .01 signifiait qu'il y avait au moins 11% de chances que l'étude ne se réplique pas et seulement 50% de chances de trouver un autre résultat de même haute signification. Une critique majeure de la valeur P est qu'elle ne montre pas la taille réelle d'un effet. Nuzzo mentionne une étude sur les taux de divorce pour illustrer ce point. Les personnes qui ont rencontré leur conjoint en ligne étaient''de façon significative (p<.002) moins susceptibles de divorcer que les gens qui se sont rencontrés hors ligne. Cependant, la différence réelle dans les taux de divorce était de 5.96% contre 7.67%. Juste parce qu'un effet est "significatif" ne signifie pas qu'il compte réellement dans le monde réel. Un autre problème avec les p values est que les chercheurs ont appris comment contourner une p value trop élevée pour être publiée (p>.05). Le terme pour cela, inventé par Uri Simonsohn, est "P-hacking". Essentiellement, cela signifie essayer plusieurs choses jusqu'à trouver un résultat significatif. Cela peut inclure regarder les données, prolonger ou arrêter une expérience une fois la signification atteinte, ou chercher dans les données une combinaison de facteurs qui donne une faible p value. Le P-hacking est particulièrement courant maintenant que de nombreux articles poursuivent de petits effets dans des jeux de données bruyants. Le résultat final est que les découvertes de la recherche exploratoire sont traitées comme des confirmations d'effets. Cependant, ils sont peu susceptibles de se reproduire, surtout si le P-hacking est impliqué. Tous les espoirs de réforme nécessiteront un changement dans la culture scientifique et l'éducation. On devrait encourager les statisticiens à ne pas rapporter leurs propres résultats comme "significatifs" ou "non significatifs", mais plutôt à rapporter les tailles d'effet et les intervalles de confiance. Ceux-ci répondent aux questions pertinentes sur l'ampleur et l'importance relative d'une découverte. Certains encouragent la communauté scientifique à adopter la règle de Bayes. Cela nécessite un changement de pensée, en passant de la probabilité comme mesure de la fréquence estimée d'un résultat à la probabilité comme mesure de la plausibilité d'un résultat. L'avantage de l'approche bayésienne est que les scientifiques peuvent intégrer ce qu'ils savent déjà sur le monde dans leurs calculs de probabilité (appelés "priors"). Et ils peuvent calculer comment les probabilités changent avec l'ajout de nouvelles preuves (appelées "posteriors"). D'autres réformes suggérées incluent d'exiger des scientifiques qu'ils expliquent les données omises et les manipulations. Cela pourrait réduire le P-hacking si les chercheurs sont honnêtes. Une autre idée s'appelle "analyse en deux étapes". Elle consiste à décomposer un projet de recherche en une phase exploratoire, où des résultats intéressants peuvent être découverts, suivie d'une phase de confirmation pré-enregistrée. La réplication serait publiée en parallèle avec les résultats de l'étude exploratoire. L'analyse en deux étapes pourrait potentiellement réduire les faux positifs, tout en offrant encore une certaine flexibilité aux chercheurs. Le document conclut en encourageant les scientifiques à "réaliser les limites des statistiques conventionnelles". Ils devraient être plus disposés à discuter de la plausibilité de leurs hypothèses et des limites de leurs études dans les articles de recherche. Un scientifique devrait toujours poser trois questions clés après une étude : Quelle est la preuve? Que dois-je croire? Que dois-je faire? Une méthode d'analyse ne peut pas fournir toutes les réponses.'

Jump to original

'P values sont couramment utilisés par les scientifiques pour voir si quelque chose qu'ils étudient est réellement important ou non. Mais, ils pourraient ne pas être aussi fiables que beaucoup de scientifiques le pensent. Par exemple, un scientifique nommé Matt Motyl en 2010 pensait avoir découvert que les gens aux opinions politiques extrêmes voient littéralement le monde en noir et blanc. Le P value affirmait que cette découverte était très significative. Mais quand lui et son mentor ont essayé de refaire l'étude, le P value n'était même pas proche d'être significatif. L'idée qu'il avait découvert quelque chose d'important a disparu. Le problème n'était pas avec les données ou comment elles ont été analysées. C'était le P value lui-même. Ce n'est pas vraiment aussi fiable que la plupart des scientifiques pourraient le croire. Même certains statisticiens - des gens qui étudient et travaillent avec des choses comme les P values - pensent qu'ils ne sont pas toujours utiles. Cela peut être un gros problème quand les scientifiques essaient de voir si leurs résultats peuvent être répétés, ce qui est une partie importante de la science. En fait, il a été suggéré que la plupart des résultats scientifiques publiés pourraient en réalité être erronés. Ainsi, certains statisticiens essaient de trouver de meilleures façons de regarder les données qui peuvent aider les scientifiques à éviter de faire des erreurs ou à négliger des choses importantes. Malgré tous ces problèmes, les P values ont été utilisés pendant près de 90 ans, donc ils sont assez difficiles à éliminer. Dans les années 1920, un homme du Royaume-Uni nommé Ronald Fisher a introduit un concept appelé le 'P value'. Il ne voulait pas que ce soit un test ultime, mais plutôt une manière simple de voir si les preuves valaient la peine d'être examinées de plus près. Il voulait que les gens l'utilisent pendant les expériences pour vérifier si leurs résultats étaient juste aléatoires ou s'ils signifiaient vraiment quelque chose. Le plan était de venir d'abord avec une supposition, appelée une “hypothèse nulle”, qu'ils voulaient prouver fausse, comme dire qu'il n'y avait pas de lien ou de différence entre deux choses ou groupes. Ensuite, ils feraient semblant que leur hypothèse nulle était effectivement correcte, et essaieraient de comprendre quelles étaient les chances d'obtenir les résultats qu'ils ont obtenus, ou quelque chose de encore plus extrême. Cette chance qu'ils ont calculée était le P value. Plus cette valeur était petite, plus leur hypothèse nulle était probablement fausse. Même si le P value semblait précis, Fisher ne voulait que ce soit une partie d'une manière de faire des conclusions scientifiques qui mélangent les données et les connaissances générales. Fisher avait quelques rivaux qui disaient que sa méthode était “pire qu'inutile”. Ce mouvement dirigé par Jerzy Neyman et Egon Pearson, a recommandé une autre façon d'analyser les données, mais a laissé de côté le P value. À cause de leurs désaccords, d'autres personnes se sont frustrées et ont commencé à écrire des guides pour que les scientifiques les utilisent lorsqu'ils traitent des statistiques. Beaucoup de ces auteurs ne comprenaient vraiment pas l'une ou l'autre approche, donc ils les ont simplement mélangées ensemble et c'est à ce moment qu'un P value de 0,05 est devenu la mesure standard pour 'statistiquement significatif'. Le P value n'était pas destiné à être utilisé comme il l'est aujourd'hui. Lorsque les chercheurs font une expérience et obtiennent un petit P value, ils pensent souvent que cela signifie qu'ils obtiendront le même résultat s'ils refont l'expérience. Mais il y a un problème. Un P value de 0,01 ne signifie pas qu'il y a 1% de chances qu'il soit faux. Il est également important de savoir à quel point l'effet étudié était probable en premier lieu. S'il est peu probable, alors il y a en réalité 11% de chances qu'il soit faux. Ainsi, si un scientifique pensait que son expérience fonctionnerait 99 fois sur 100, la vérité pourrait être plus proche de 73 fois sur 100. Les critiques disent aussi que les P values peuvent faire oublier aux chercheurs la taille de l'effet qu'ils étudient. Par exemple, une étude a dit que les gens qui ont rencontré leurs conjoints en ligne étaient moins susceptibles de divorcer et étaient plus heureux dans leurs mariages. Mais en regardant de plus près, les différences réelles entre les groupes étaient minuscules.. Pire encore, les P values peuvent être mal utilisés par les chercheurs qui continuent de tester jusqu'à ce qu'ils obtiennent les résultats qu'ils veulent. Cela s'appelle le P-hacking. Il peut faire passer des choses pour de nouvelles découvertes même s'ils ne font que de l'exploration. Donc, le P value seul ne peut vraiment pas nous dire si les résultats d'une expérience sont réels, ou importants, ou si nous jouons juste avec les chiffres. Le P-hacking est souvent fait dans des études qui cherchent de petits effets dans beaucoup d'informations désordonnées. Il est difficile de savoir à quel point ce problème est grand, mais beaucoup de scientifiques pensent que c'est un problème majeur. Dans une revue, ils ont trouvé un comportement suspect dans les études de psychologie où trop de P values se regroupent près de 0,05. Il semble que les chercheurs trichent pour obtenir un P value significatif. Cependant, changer la façon dont nous faisons les statistiques a été lent. Cette manière actuelle n'a pas''vraiment changé depuis qu'il a été introduit par Fisher, Neyman et Pearson. Certaines personnes ont essayé de décourager l'utilisation des p values dans leurs études, mais cela n'a pas été couronné de succès. Pour réformer, nous devons changer beaucoup de vieilles habitudes comme la façon dont nous sommes enseignés sur les statistiques, comment nous analysons les données et comment nous rapportons et interprétons les résultats. Au moins maintenant, de nombreux chercheurs admettent qu'il y a un problème. Les chercheurs pensent qu'au lieu de qualifier les résultats de "significatifs" ou "non significatifs", ils devraient parler de la taille et de l'importance de l'effet. Cela nous en dit plus qu'une p value. Certains statisticiens pensent que nous devrions remplacer la p value par une méthode datant des années 1700, appelée la règle de Bayes, qui envisage la probabilité en fonction de la probabilité d'un résultat. Cette méthode permet aux gens d'utiliser ce qu'ils savent sur le monde pour comprendre leurs résultats et mettre à jour leur calcul de probabilité au fur et à mesure que de nouvelles preuves sont trouvées. Le papier se termine en demandant aux lecteurs de prendre conscience que leurs méthodes statistiques ont des limites. Une seule méthode ne peut pas répondre à toutes les questions importantes auxquelles ils tentent de trouver des réponses.'

--------- Original ---------

Jump to original

'to 5.64. Les P values sont souvent considérées comme la 'norme d'or' dans la recherche scientifique pour confirmer si un résultat est significatif ou non. Mais elles ne sont pas aussi fiables que beaucoup de scientifiques le pensent selon cet article de Regina Nuzzo. Par exemple, en 2010, Matt Motyl, un étudiant en doctorat de psychologie, pensait avoir fait une grande découverte. Il croyait avoir trouvé que les gens aux vues politiques extrêmes voient littéralement le monde en noir et blanc, tandis que ceux aux vues politiques modérées voient plus de nuances de gris. Ses données, basées sur une étude de près de 2 000 personnes, semblaient soutenir cette idée et sa P value (0,01) indiquait de fortes preuves en faveur de sa prétention. Mais quand lui et son conseiller, Brian Nosek, ont essayé de reproduire les mêmes résultats avec de nouvelles données, la P value a augmenté à 0,59, laissant supposer que le résultat n'était pas significatif. Cela signifiait que les conclusions de Motyl ne pouvaient pas être répliquées. Le problème ne résidait pas dans les données de Motyl ou dans sa manière de les analyser. Au contraire, c'était la P value elle-même qui posait problème. Les P values ne sont pas aussi fiables ou impartiales que la plupart des scientifiques le croient. Certains statisticiens ont même suggéré que la plupart des résultats publiés basés sur les P values pourraient être inexacts. Une autre préoccupation majeure tourne autour de la question de savoir si d'autres scientifiques peuvent obtenir des résultats similaires s'ils répètent la même expérience. Si les résultats ne peuvent être reproduits, cela remet en question leur validité. Cela a incité de nombreux scientifiques à repenser la manière dont ils évaluent leurs résultats et les statisticiens à rechercher de meilleures méthodes d'interprétation des données. Les P values sont utilisées comme mesure de validité dans la recherche scientifique depuis près de 90 ans, mais elles ne sont en réalité pas aussi fiables que beaucoup de chercheurs le pensent. Dans les années 1920, un statisticien britannique du nom de Ronald Fisher a inventé la P value. Il n'a jamais voulu que les P values soient le dernier mot sur la significativité d'une découverte, mais plutôt un moyen rapide de voir si un résultat méritait d'être davantage étudié. Voici la procédure pour effectuer une analyse de P value : Vous commencez par formuler une "hypothèse nulle", qui prédit aucun effet ou aucune relation entre deux groupes. Ensuite, en jouant l'avocat du diable, vous supposeriez que cette hypothèse nulle est vraie et calculeriez les chances d'obtenir des résultats similaires ou plus extrêmes que ceux que vous avez mesurés. Cette chance est la P value. Si elle était petite, Fisher suggérait que cela signifiait probablement que votre hypothèse nulle était fausse. Les rivaux de Fisher ont qualifié sa méthode de "pire qu'inutile". Le mathématicien Jerzy Neyman et le statisticien Egon Pearson ont créé leur propre méthode d'analyse des données, laissant de côté la P value. Mais tandis que ces rivaux se disputaient, d'autres se sont lassés d'attendre et ont écrit des manuels de statistiques pour les scientifiques en exercice. Ces auteurs ne comprenaient pas totalement les deux approches, ils ont donc créé un mélange des deux. La P value facile à calculer de Fisher a été ajoutée à la procédure stricte de Neyman et Pearson. C'est à ce moment-là qu'une P value de 0,05 a été acceptée comme 'statistiquement significative'. Tout cela a conduit à beaucoup de confusion sur ce que signifie réellement la P value. Par exemple, si vous obtenez une P value de 0,01 dans une expérience, la plupart des gens pensent que cela signifie qu'il y a seulement 1% de chances que votre résultat soit faux. Mais c'est incorrect. La P value ne peut résumer les données que sur la base d'une hypothèse nulle spécifique. Elle ne peut pas creuser plus profondément et faire des déclarations sur la réalité réelle. Pour ce faire, vous avez besoin d'une autre information : les chances qu'un véritable effet était là pour commencer. Sinon, vous seriez comme quelqu'un qui a mal à la tête et pense qu'il doit avoir une tumeur cérébrale rare, même quand il est plus probable que ce soit quelque chose de courant comme une allergie. Plus l'hypothèse est improbable, plus il y a de chances qu'une découverte excitante soit simplement une fausse alerte, quelle que soit la P value. Selon une "règle de base", si votre P value est de 0,01, il y a au moins 11% de chances d'une fausse alerte, et si votre P value n'est que de 0,05, la chance d'une fausse alerte monte à 29%. Donc, lorsque Motyl a fait ses recherches, il y avait plus de 1 chance sur 10 que ses conclusions ne se répliquent pas. Et il n'y avait que 50% de chances d'obtenir un résultat aussi fort que dans son expérience originale. Un autre problème avec les P values est qu'elles peuvent nous faire trop nous concentrer sur l'existence d'un effet, plutôt que sur l'ampleur de cet effet. Récemment, il y a eu une étude de 19 000 personnes qui a trouvé que les gens qui ont rencontré leurs conjoints en ligne sont moins susceptibles de divorcer et plus susceptibles d'être heureux dans leur mariage que ceux qui se sont rencontrés hors ligne. Cela peut sembler important, mais l'effet était en réalité très petit : rencontrer en ligne a fait baisser le taux de divorce de 7,67% à 5,96%, et le bonheur n'a augmenté que de 5,48 à 5,64.''3: Les conséquences de l'utilisation de P valeurs - Jour 1: Examinez l'influence du contrôle de qualité industrielle sur l'approche statistique de Neyman et Pearson - Jour 2: Découvrez l'utilisation croissante des P valeurs en recherche scientifique - Jour 3: Comprendre comment les erreurs de type 1 et de type 2 sont liées aux P valeurs - Jour 4: Discutez des critiques faites à l'égard de l'utilisation des P valeurs dans la recherche - Jour 5: Révision et évaluation hebdomadaire

Semaine 4: Alternatives aux P valeurs - Jour 1: Découvrez l'approche bayésienne aux tests d'hypothèses - Jour 2: Comprendre le rôle de la probabilité antérieure dans le théorème de Bayes - Jour 3: Examiner comment les P valeurs et les inférences bayésiennes peuvent aboutir à des conclusions différentes - Jour 4: Discuter des avantages et des inconvénients des approches bayésiennes par rapport aux P valeurs - Jour 5: Révision et évaluation hebdomadaire

Semaine 5: Recapitulation et évaluation - Jour 1: Revoyez les concepts clés concernant les P valeurs - Jour 2: Examen des débats actuels sur l'utilisation des P valeurs dans la recherche - Jour 3: Examen des alternatives aux P valeurs - Jour 4: Evaluations - Jour 5: Feedback et conclusion

Programme Homeschool: Comprendre la Signification Statistique

Semaine 1: Introduction aux P valeurs et aux Tests d'Hypothèse - Jour 1: Apprenez à connaître Ronald Fisher et son introduction de la P valeur dans les années 1920 - Jour 2: Discutez du but des P valeurs et de leur rôle dans l'analyse expérimentale - non pas comme un test définitif, mais comme une mesure informelle de la signification - Jour 3: Comprenez le concept d'une 'hypothèse nulle' et expliquez son processus - Jour 4: Revoyez comment interpréter les P valeurs - Jour 5: Révision et évaluation hebdomadaire

Semaine 2: Rivalité sur l'Utilisation des P valeurs - Jour 1: Etudiez les travaux du mathématicien polonais Jerzy Neyman et du statisticien britannique Egon Pearson - Jour 2: Analysez les différences entre l'attitude de Fisher envers les P valeurs et celle du cadre alternatif de Neyman et Pearson - Jour 3: Discutez de la manière dont les P valeurs ont été intégrées dans le système rigoureux et basé sur des règles de Neyman et Pearson - Jour 4: Comprenez le terme 'statistiquement significatif' et sa relation avec les P valeurs - Jour 5: Révision et évaluation hebdomadaire

Semaine''3: Controversies dans l'Interprétation des P Value - Jour 1: Comprendre la confusion sur les significations des P value - Jour 2: Discuter des idées fausses courantes sur les P value en utilisant l'exemple de l'étude de Motyl sur les extrémistes politiques - Jour 3: Apprenez pourquoi la P value seule ne peut pas faire de déclarations sur la réalité sous-jacente et pourquoi elle nécessite des informations supplémentaires - Jour 4: Discuter de la façon d'interpréter correctement les résultats des P value - Jour 5: Revue hebdomadaire et évaluation Semaine 4: Conclusion et évaluation - Jour 1: Examen de l'histoire et du développement des P value - Jour 2: Test de connaissance sur l'interprétation des P value et leur rôle dans l'analyse expérimentale - Jour 3: Discuter des problèmes liés à l'abus des P value et des solutions possibles - Jour 4: Revue finale de tous les sujets abordés - Jour 5: Évaluation finale Matériaux pour le cours: Accès à des articles universitaires détaillant les œuvres de Fisher, Neyman et Pearson; exemples d'études scientifiques utilisant des P value pour l'analyse; exercices pour calculer et interpréter des P value. Note: Encouragez les apprenants à questionner, analyser et réfléchir de manière critique sur les informations présentées. Ce programme vise à développer non seulement la connaissance de la signification statistique, mais aussi les compétences de pensée et d'analyse critiques. Titre du cours : "Comprendre les défis de la recherche irréproducible" Description du cours : Ce cours à domicile vise à éduquer les parents et les enfants sur les problèmes entourant la recherche irréproducible, en se concentrant sur la mauvaise interprétation et l'abus des P-value, et sur la façon dont les biais peuvent influencer les résultats scientifiques. Niveau : Avancé (Lycée) Durée : 6 semaines Programme du cours : Semaine 1 : Introduction aux statistiques et à la reproductibilité dans la recherche Leçon 1 : Comprendre les concepts statistiques de base Leçon 2 : L'importance de la recherche reproductible Activité : Discussion sur les implications de la recherche irréproducible Semaine 2 : Comprendre les P-Values Leçon 1 : Qu'est-ce qu'une P-Value? Leçon 2 : Probabilité de fausses alarmes Activité : Exercices de calcul pour comprendre les P-Values Semaine 3 : Critiquer l'utilisation des P-value Leçon 1 : Comment les P-Values peuvent encourager une réflexion embrouillée Leçon 2 : Explorer la taille réelle d'un effet par rapport aux P-Values Activité : Étude de cas - "L'effet de la rencontre des conjoints en ligne sur le taux de divorce" Semaine 4 : La certitude séduisante de la signification Leçon 1 : Comprendre la certitude séduisante de la signification Leçon 2 : Déterminer la pertinence pratique par rapport à la signification statistique Activité : Discussion sur l'impact des statistiques mal interprétées Semaine 5 : La menace du P-Hacking Leçon 1 : Introduction au P-Hacking Leçon 2 : Comprendre le concept de Data-Dredging, Significance-Chasing et Double-Dipping Activité : Analyse des exemples de P-Hacking Semaine 6 : L'abus et l'incompréhension des P-Values dans la recherche Leçon 1 : Explorer le contexte historique de l'utilisation des P-Values Leçon 2 : Évaluer les meilleures pratiques en matière d'analyse de données Activité : Examen et discussion sur des études de recherche notables où les P-values ont été mal utilisées Matériel nécessaire : - Calculatrice de statistiques - Accès à des bases de données en ligne et à des références pour l'analyse de cas. Prérequis recommandés : - Comprendre les bases de la probabilité et des statistiques. Titre : Un programme de sensibilisation statistique pour les parents qui pratiquent l'enseignement à domicile Objectif : Équiper les parents avec les connaissances et les outils pour faciliter la compréhension des statistiques de leurs enfants dans le monde d'aujourd'hui saturé de recherches. Sujets : 1. Introduction à l'importance des statistiques - Comprendre les raisons des erreurs dans les données et le 'hacking' - Le rôle des statistiques dans la recherche en psychologie 2. Le paradoxe des P-Value - Comprendre les P value et leur prévalence dans la recherche - Discuter de la façon dont les P value influencent la recherche et pourquoi elles peuvent poser problème 3. Histoire des statistiques dans la recherche - Examen de l'influence de Fisher, Neyman, et Pearson - Découvrir les pensées de John Campbell sur les P value 4. Changement de perspectives en statistiques - Un examen de l'évolution des pratiques statistiques au fil du temps - Discussion sur la résurgence des P value malgré la critique 5. Comprendre les statistiques dans le monde moderne - Comment comprendre et interpréter les P value dans des exemples de recherche réelle - Analyse des critiques du cadre statistique actuel 6. Appels à une réforme statistique - Explorer les changements nécessaires dans l'enseignement, l'analyse et l'interprétation statistiques - Discuter des implications des résultats faux 7. Solutions proposées pour les problèmes statistiques - Discuter de l'importance de rapporter les tailles d'effet et les intervalles de confiance - Règle bayésienne : comprendre et appliquer 8. Incorporer plusieurs méthodes - L'importance d'employer plusieurs méthodes d'analyse sur le même ensemble de données - Exemples pratiques pour démontrer l'importance des méthodes diverses en statistique Méthodes : Chaque sujet serait enseigné sur une semaine, permettant aux apprenants de saisir pleinement les concepts. Les parents présenteraient les concepts en utilisant des fiches de travail simples et des activités interactives. Les aides à l'enseignement incluraient des exemples de la vie réelle chaque fois que possible pour fournir un contexte. Les enfants seraient encouragés à appliquer les leçons apprises à des situations de tous les jours. Évaluation : Les parents évalueraient la compréhension de leur enfant à travers des quiz et des tests de fin de semaine. Ils auraient également des discussions avec leurs enfants pour évaluer leur compréhension. Programme basé sur le texte : Science! Semaine 1-2 : Introduction à la Science Session 1 : Comprendre l'importance de la Science Exercice : Discuter de l'affirmation "Recevez les histoires scientifiques les plus importantes du jour, gratuitement dans votre boîte de réception." Comment cela est-il pertinent pour nos vies?''Session 2: Exploration des différentes branches de la science Activité: Explorez le site web 'Nature Briefing' (https://www.nature.com/briefing/signup/?brieferEntryPoint=MainBriefingBanner), lisez différents articles quotidiennement pendant 1 semaine, et notez les découvertes intéressantes. Session 3: Partage des découvertes Activité: Choisissez une histoire scientifique qui vous a fasciné et partagez avec la famille pourquoi elle vous a impacté. Semaine 3-4: Visual Science: Comprendre SVG (Scalable Vector Graphics) Session 1: Qu'est-ce que SVG? Activité: Recherche en ligne et présentation sur "Qu'est-ce que SVG et quelles sont ses applications dans la science?" Session 2: Interprétation des données SVG Lecture: Interprétation des données SVG présentées pour une image exemple. Note: Utilisez les données de chemin SVG données dans la tâche pour l'interprétation. Session 3: Science in Visual Graphics Activité pratique: Créez un graphique SVG de base qui représente un concept scientifique. Semaine 5-6: De la lecture à l'écriture - Créer votre propre contenu scientifique Session 1: Comprendre comment les histoires scientifiques sont écrites Activité de lecture: Prêtez attention aux styles d'écriture dans les articles de 'Nature Briefing'. Notez la structure, le ton et le contenu. Session 2: Création de votre propre histoire scientifique Exercice d'écriture: Sur la base de vos lectures, créez votre propre mini histoire/article scientifique. Utilisez SVG si possible. Session 3: Peer Review Activité: Echangez les articles avec vos camarades de cours/famille, lisez leur travail et fournissez un retour constructif. N'oubliez pas, c'est votre parcours d'enseignement à la maison. N'hésitez pas à adapter et à ajuster selon vos besoins. Concentrez-vous toujours sur l'apprentissage et l'exploration. Amusez-vous !'

--------- Original ---------