Scientific method: Statistical errors


Summary

'Questo articolo di Regina Nuzzo esamina attentamente il valore P, considerato il "gold standard della validità statistica". Nonostante il suo uso diffuso, potrebbe non essere affidabile come la maggior parte degli scienziati pensa. Racconta la storia di Matt Motyl, uno studente di dottorato in psicologia che ha studiato gli estremisti politici. La sua ipotesi era che i moderati politici potessero percepire le sfumature di grigio più accuratamente che gli estremisti di sinistra o di destra. I dati iniziali supportavano l'ipotesi, ottenendo un valore P di 0,01, che è convenzionalmente interpretato come "molto significativo". Per essere extra prudenti, Motyl e il suo consulente, Brian Nosek, replicarono lo studio. Tuttavia, la replica non ha trovato un risultato significativo. Il suo valore P era 0,59. L'ipotesi "sexy" di Motyl svanì, così come le sue speranze di pubblicazione. A quanto pare, gli estremisti non vedono letteralmente il mondo in bianco e nero. Motyl non aveva fatto nulla di sbagliato. Il valore P era da biasimare. Nel 2005, l'epidemiologo John Ioannidis pubblicò il suo ormai famoso articolo, Why Most Published Research Findings are False. Ha fatto luce sulla crisi della replicabilità, che è solo peggiorata da allora. Gli scienziati stanno ora ripensando al modo in cui svolgono il loro lavoro, incluso l'uso dei valori P. I valori P sono stati criticati dai statistici fin dalla loro introduzione da Ronald Fisher negli anni '20. Un ricercatore sarcastico ha suggerito di rinominarli "Statistical Hypothesis Inference Testing", che ha senso una volta considerato il suo acronimo. Anche l'inventore del valore P non intendeva che venisse utilizzato nel modo in cui lo è ora. Era inteso come un modo rapido per vedere se i risultati di un esperimento erano "conformi al caso casuale". Questo comportava una serie di passaggi: definire un'ipotesi nulla, prevedendo "nessuna correlazione" o "nessuna differenza" tra i due gruppi. Supponendo che l'ipotesi nulla sia vera, calcolare la probabilità di ottenere risultati simili o più estremi rispetto a quelli osservati. Questa probabilità è il valore P. Un valore alto significa che i risultati sono coerenti con l'ipotesi nulla. Un valore basso significa che l'ipotesi nulla può essere respinta. Un valore P è inteso per misurare "se un risultato osservato può essere attribuito al caso". Ma non può rispondere se l'ipotesi del ricercatore è vera o meno. Ciò dipende in parte da quanto fosse plausibile l'ipotesi in primo luogo. Un'ipotesi implausibile con un basso valore p diventerà solo leggermente più plausibile. I rivali di Fisher, Jerzy Neyman e Egon Pearson, promossero un sistema alternativo basato sulla potenza statistica (quanto probabile è un'analisi per rilevare un effetto). Il metodo potrebbe essere calibrato in base all'importanza relativa dei falsi positivi e dei falsi negativi. Manca notevolmente il valore P. Neyman chiamò il lavoro di Fisher, "peggio che inutile". Fisher chiamò l'approccio di Neyman "infantile" e accusò il matematico polacco di essere un comunista. Al di fuori di questa amara battaglia, i ricercatori che non erano statistici iniziarono a scrivere manuali per gli scienziati pratici che insegnarono un approccio ibrido. Ha combinato le idee di Fisher, Neyman e Pearson, ma non sarebbe stato approvato da nessuno dei due. Era procedurale e basato su regole come il sistema Neyman-Pearson e utilizzava il semplice valore P di Fisher. Hanno dichiarato che un valore P al di sotto di una soglia di 0,05 era "significativo". Questo non era mai stato l'intento di Fisher, ma è così che viene utilizzato oggi. La maggior parte degli scienziati è confusa su cosa significhi realmente un valore P. La maggior parte direbbe che un valore di 0,01 significa che c'è l'1% di probabilità che un risultato sia un falso positivo. Tuttavia, questo è fallace. Il valore P può solo descrivere la probabilità dei dati assumendo che l'ipotesi nulla sia vera. Ma non può dire nulla sulla probabilità di un effetto causato dall'ipotesi sperimentale. Per fare ciò è necessario conoscere le probabilità che tale effetto esista. Nuzzo offre l'esempio di svegliarsi con un mal di testa e pensare di avere un raro tumore al cervello. È possibile, ma ancora improbabile. Più è improbabile un'ipotesi, più è probabile che un risultato sia un falso positivo, anche con un piccolo valore P. Alcuni statistici hanno cercato di fornire una regola empirica per calcolare la probabilità di un effetto vero dato un piccolo valore P. Ad esempio, un valore P di 0,01 implica una probabilità di almeno l'11% che tu abbia un falso positivo. Per un valore P di 0,05, questa probabilità aumenta almeno al 29%. Nel caso dello studio di Motyl sugli estremisti politici, il suo valore P di 0,01 significava che c'era almeno un' probabilità dell'11% che lo studio non si replicasse e solo il 50% di probabilità di trovare un altro risultato di altrettanta alta significatività. Una critica importante al valore P è che non mostra la dimensione effettiva di un effetto. Nuzzo menziona uno studio sui tassi di divorzio per illustrare questo punto. Le persone che hanno incontrato i loro coniugi online erano.''significativamente (p<.002) meno propensi al divorzio rispetto alle persone che si sono incontrate offline. Tuttavia, la differenza effettiva nei tassi di divorzio era del 5,96% rispetto al 7,67%. Solo perché un effetto è "significativo" non significa che abbia davvero importanza nel mondo reale. Un altro problema con i p value è che i ricercatori hanno imparato modi per aggirare un p value troppo alto per essere pubblicato (p>.05). Il termine per questo, coniato da Uri Simonsohn, è "P-hacking". Essenzialmente significa provare più cose fino a trovare un risultato significativo. Questo può includere dare un'occhiata ai dati, prolungare o interrompere un esperimento una volta raggiunta la significatività, o cercare dati per una combinazione di fattori che producono un basso p value. Il P-hacking è particolarmente comune ora che molti articoli stanno cercando effetti piccoli in set di dati rumorosi. Il risultato finale è che le scoperte derivanti da ricerche esplorative sono trattate come conferme di effetti. Tuttavia, è improbabile che si replicano, specialmente se è coinvolto il P-hacking. Qualsiasi speranza di riforma richiederà un cambiamento nella cultura scientifica e nell'istruzione. Gli statistici dovrebbero essere incoraggiati a non riportare i propri risultati come "significativi" o "non significativi", ma invece riportare le dimensioni dell'effetto e gli intervalli di confidenza. Questi rispondono alle domande pertinenti sull'entità e l'importanza relativa di un risultato. Alcuni stanno incoraggiando la comunità scientifica ad abbracciare la regola di Bayes. Questo richiede un cambiamento di pensiero lontano dalla probabilità come misura della frequenza stimata di un risultato alla probabilità come misura della plausibilità di un risultato. Il vantaggio dell'approccio bayesiano è che gli scienziati possono incorporare ciò che già sanno sul mondo nei loro calcoli di probabilità (chiamati "prior"). E possono calcolare come le probabilità cambiano con l'aggiunta di nuove prove (chiamate "posterior"). Altre riforme suggerite includono l'obbligo per gli scienziati di spiegare i dati omessi e le manipolazioni. Questo potrebbe ridurre il P-hacking se i ricercatori sono onesti. Un'altra idea si chiama "analisi a due stadi". Prevede la suddivisione di un progetto di ricerca in una fase esplorativa, dove si possono scoprire risultati interessanti seguiti da una fase di conferma pre-registrata. La replica sarebbe pubblicata accanto ai risultati dello studio esplorativo. L'analisi a due stadi potrebbe potenzialmente ridurre i falsi positivi, pur offrendo flessibilità ai ricercatori. Il paper conclude incoraggiando gli scienziati a "realizzare i limiti della statistica convenzionale". Dovrebbero essere più disposti a discutere la plausibilità delle loro ipotesi e le limitazioni dei loro studi in articoli di ricerca. Uno scienziato dovrebbe sempre fare tre domande chiave dopo uno studio: Quali sono le prove? Cosa dovrei credere? Cosa dovrei fare? Un metodo di analisi non può fornire tutte le risposte.'

Jump to original

'I valori P vengono comunemente utilizzati dagli scienziati per vedere se qualcosa che stanno indagando è realmente importante o meno. Ma potrebbero non essere così affidabili come molti scienziati pensano. Ad esempio, uno scienziato di nome Matt Motyl nel 2010 pensava di aver scoperto che le persone con visioni politiche estreme vedono letteralmente il mondo in bianco e nero. Il valore P indicava che questa scoperta era molto significativa. Ma quando lui e il suo mentore tentarono di replicare lo studio, il valore P non era nemmeno lontanamente significativo. L'idea che avesse scoperto qualcosa di importante svanì. Il problema non era con i dati o con il modo in cui erano stati analizzati. Era il valore P stesso. Non è davvero così affidabile come la maggior parte degli scienziati potrebbe credere. Anche alcuni statistici - persone che studiano e lavorano con cose come i valori P - pensano che non siano sempre utili. Questo può essere un grande problema quando gli scienziati cercano di vedere se le loro scoperte possono essere ripetute, che è una parte importante della scienza. Infatti, è stato suggerito che la maggior parte delle scoperte scientifiche pubblicate potrebbero effettivamente essere sbagliate. Quindi, alcuni statistici stanno cercando di trovare metodi migliori per esaminare i dati che possono aiutare gli scienziati a evitare errori o a trascurare cose importanti. Nonostante tutti questi problemi, i valori P sono stati utilizzati per quasi 90 anni, quindi sono abbastanza difficili da eliminare. Negli anni '20, un uomo del Regno Unito di nome Ronald Fisher introdusse un concetto chiamato 'valore P'. Non intendeva che fosse un test definitivo, ma piuttosto un modo semplice per vedere se le prove erano degne di un'ulteriore indagine. Voleva che le persone lo usassero durante gli esperimenti per controllare se i loro risultati erano solo casuali o se significavano veramente qualcosa. Il piano era di venire prima con una supposizione, chiamata "ipotesi nulla", che volevano dimostrare sbagliata, come dire che non c'era nessun legame o differenza tra due cose o gruppi. Poi, avrebbero finto che la loro ipotesi nulla fosse effettivamente corretta, e avrebbero cercato di capire quali erano le probabilità di ottenere i risultati che avevano ottenuto, o qualcosa di ancora più estremo. Questa probabilità che hanno calcolato era il valore P. Più piccolo era questo valore, più probabile era che la loro ipotesi nulla fosse sbagliata. Anche se il valore P sembrava esatto, Fisher voleva solo che facesse parte di un modo per fare conclusioni scientifiche che mescolavano dati e conoscenze generali. Fisher aveva alcuni rivali che dicevano che il suo metodo era "peggiore dell'inutile". Questo movimento guidato da Jerzy Neyman e Egon Pearson, raccomandava un altro modo per analizzare i dati, ma escludeva il valore P. A causa dei loro disaccordi, altre persone si sono frustrate e hanno iniziato a scrivere guide per gli scienziati da utilizzare quando si occupano di statistiche. Molti di quegli autori non capivano veramente nessuno dei due approcci, quindi li mischiavano insieme e questo è quando un valore P di 0.05 è diventato la misura standard per 'statisticamente significativo'. Il valore P non era destinato ad essere usato come lo è oggi. Quando i ricercatori fanno un esperimento e ottengono un valore P piccolo, spesso pensano che ciò significhi che otterranno lo stesso risultato se faranno l'esperimento di nuovo. Ma c'è un problema. Un valore P di 0.01 non significa che c'è l'1% di probabilità che sia sbagliato. Conta anche quanto probabile era l'effetto studiato in primo luogo. Se è improbabile, allora c'è effettivamente un'11% di probabilità che sia sbagliato. Quindi, se uno scienziato pensava che il suo esperimento funzionasse 99 volte su 100, la verità potrebbe essere più vicina a 73 volte su 100. I critici dicono anche che i valori P possono far dimenticare ai ricercatori la dimensione dell'effetto che stanno studiando. Ad esempio, uno studio ha detto che le persone che hanno incontrato i loro coniugi online erano meno inclini al divorzio e erano più felici nei loro matrimoni. Ma guardando da vicino, le differenze reali tra i gruppi erano minime.. Ancora peggio, i valori P possono essere abusati da ricercatori che continuano a testare fino a quando ottengono i risultati che vogliono. Questo è chiamato P-hacking. Può far sembrare le cose come nuove scoperte anche se stanno solo esplorando. Quindi, il valore P da solo non può davvero dirci se i risultati di un esperimento sono reali, o importanti, o se stiamo solo giocando con i numeri. P-hacking spesso si fa in studi che cercano effetti minuscoli all'interno di un sacco di informazioni disordinate. È difficile sapere quanto sia grande questo problema, ma molti scienziati pensano che sia un problema importante. In una recensione, hanno trovato un comportamento sospetto negli studi di psicologia dove troppi valori P si raggruppano vicino a 0.05. Sembra che i ricercatori imbrogliano per ottenere un valore P significativo. Tuttavia, cambiare il modo in cui facciamo le statistiche è stato lento. Questo modo attuale non ha'' non è davvero cambiato da quando è stato introdotto da Fisher, Neyman e Pearson. Alcune persone hanno cercato di scoraggiare l'uso dei p value nei loro studi, ma questo tentativo è stato infruttuoso. Per riformare, dobbiamo cambiare molte abitudini di lunga data, come il modo in cui ci insegnano le statistiche, come analizziamo i dati e come segnaliamo e interpretiamo i risultati. Almeno ora, molti ricercatori ammettono che c'è un problema. I ricercatori pensano che invece di definire i risultati "significativi" o "non significativi", dovrebbero parlare dell'ampiezza e dell'importanza dell'effetto. Questo ci dice più di un p value. Alcuni statistici pensano che dovremmo sostituire il p value con un metodo del 1700, chiamato regola di Bayes, che pensa alla probabilità in base a quanto è probabile un risultato. Questo metodo consente alle persone di utilizzare ciò che sanno del mondo per capire i loro risultati e aggiornare il loro calcolo della probabilità man mano che vengono trovate nuove prove. Il documento si conclude chiedendo ai lettori di rendersi conto che i loro metodi statistici hanno dei limiti. Un solo metodo non può rispondere a tutte le domande importanti a cui stanno cercando di trovare risposte.'

--------- Original ---------

Jump to original

'I valori di P sono spesso considerati lo 'standard oro' nella ricerca scientifica per confermare se un risultato è significativo o meno. Ma non sono così affidabili come molti scienziati pensano secondo questo articolo di Regina Nuzzo. Ad esempio, nel 2010, Matt Motyl, un dottorando in psicologia, pensava di aver fatto una grande scoperta. Credeva di aver scoperto che le persone con visioni politiche estreme vedono letteralmente il mondo in bianco e nero, mentre quelle con visioni politiche moderate vedono più sfumature di grigio. I suoi dati, basati su uno studio di quasi 2.000 persone, sembravano supportare questa idea e il suo valore di P (0,01) indicava forti prove a sostegno della sua affermazione. Ma quando lui e il suo consulente, Brian Nosek, hanno cercato di riprodurre gli stessi risultati con nuovi dati, il valore di P è salito a 0,59, suggerendo che il risultato non era significativo. Questo significava che i risultati di Motyl non potevano essere replicati. Il problema non era nei dati di Motyl o nel suo modo di analizzarli. Invece, era il valore di P stesso ad essere il problema. I valori di P non sono così affidabili o imparziali come la maggior parte degli scienziati pensa. Alcuni statistici hanno anche suggerito che la maggior parte dei risultati pubblicati basati su valori di P potrebbe essere inesatta. Un'altra preoccupazione riguarda se altri scienziati possono trovare risultati simili se ripetono lo stesso esperimento. Se i risultati non possono essere replicati, ciò mette in discussione la loro validità. Ciò ha spinto molti scienziati a ripensare come valutano i loro risultati, e gli statistici a cercare modi migliori per interpretare i dati. I valori di P sono stati utilizzati come misura di validità nella ricerca scientifica per quasi 90 anni, ma in realtà non sono così affidabili come molti ricercatori pensano. Negli anni '20, un statistico britannico di nome Ronald Fisher inventò il valore di P. Non intendeva che i valori di P fossero l'ultima parola sulla significatività di un risultato, ma piuttosto un modo rapido per vedere se un risultato valeva ulteriori ricerche. Ecco la procedura per fare un'analisi del valore di P: Si inizia facendo un' "ipotesi nulla", che prevede nessun effetto o nessuna relazione tra due gruppi. Poi, giocando il ruolo dell'avvocato del diavolo, si presume che questa ipotesi nulla sia vera e si calcolano le probabilità di ottenere risultati simili o più estremi di quello che si è misurato. Questa probabilità è il valore di P. Se era piccolo, Fisher suggeriva che probabilmente la tua ipotesi nulla era sbagliata. I rivali di Fisher chiamavano il suo metodo "peggio che inutile". Il matematico Jerzy Neyman e lo statistico Egon Pearson crearono il loro metodo per analizzare i dati, lasciando fuori il valore di P. Ma mentre questi rivali discutevano, altri si stancarono di aspettare e scrissero manuali di statistica per gli scienziati in attività. Questi autori non capivano completamente né l'approccio di Fisher né quello di Neyman e Pearson, quindi crearono una miscela di entrambi. Il facile da calcolare valore di P di Fisher è stato aggiunto alla rigorosa procedura di Neyman e Pearson. È stato allora che un valore di P di 0,05 è stato accettato come 'statisticamente significativo'. Tutto ciò ha portato a molta confusione su cosa significhi realmente il valore di P. Ad esempio, se hai ottenuto un valore di P di 0,01 in un esperimento, la maggior parte delle persone pensa che questo significhi che c'è solo l'1% di possibilità che il tuo risultato sia sbagliato. Ma questo è sbagliato. Il valore di P può solo riassumere i dati basati su una specifica ipotesi nulla. Non può scavare più a fondo e fare dichiarazioni sulla realtà effettiva. Per fare questo, hai bisogno di un altro pezzo di informazione: la probabilità che un effetto reale fosse presente fin dall'inizio. Altrimenti, saresti come qualcuno che ha mal di testa e pensa che deve significare che ha un raro tumore al cervello, anche quando è più probabile che sia qualcosa di comune come un'allergia. Più improbabile è l'ipotesi, maggiore è la possibilità che una scoperta entusiasmante sia solo un falso allarme, indipendentemente dal valore di P. Secondo una "regola empirica", se il tuo valore di P è 0,01, c'è almeno l'11% di possibilità di un falso allarme, e se il tuo valore di P è solo 0,05, la probabilità di un falso allarme sale al 29%. Quindi, quando Motyl ha fatto la sua ricerca, c'era più di 1 possibilità su 10 che i suoi risultati non si replicassero. E c'era solo il 50% di possibilità di ottenere un risultato altrettanto forte come nel suo esperimento originale. Un altro problema con i valori di P è come possono farci concentrare troppo su se esiste un effetto, piuttosto che su quanto sia grande l'effetto. Di recente, c'è stato uno studio su 19.000 persone che ha scoperto che le persone che hanno conosciuto i loro coniugi online sono meno inclini al divorzio e più felici nel loro matrimonio rispetto a quelli che si sono incontrati offline. Questo potrebbe sembrare un grosso problema, ma l'effetto è stato in realtà molto piccolo: incontrarsi online ha diminuito il tasso di divorzio dal 7,67% al 5,96%, e la felicità è aumentata solo dal 5,48''3: Misuse of P Values and Its Implications - Day 1: Understand what P-hacking is and its implications on research outcomes - Day 2: Discuss examples of P-hacking, like leaving out data to make a result stronger - Day 3: Reflect on the phenomenon of P values near 0.05 in psychology studies and what this could suggest - Day 4: Discuss the challenges and criticisms associated with P values - Day 5: Weekly review and assessment Week 4: Alternatives and Remedies to the Misuse of P Values - Day 1: Introduction to Bayesian methods as an alternative to P values - Day 2: Learn about Bayes' rule and how it can be applied to research - Day 3: Discuss other possible solutions to improve the use of P values, such as emphasizing effect size and importance - Day 4: Reflect on the limitations of conventional statistics and the questions scientists should be asking - Day 5: Weekly review and assessment Week 5: Conclusion and Evaluation - Day 1: Recap and review of all lessons - Day 2: Evaluate understanding of the content through a series of questions and practical exercises - Day 3: Discuss takeaways and reflect on the significance of statistical literacy - Day 4: Consolidate learning by discussing any notable examples or cases relevant to the topic - Day 5: Final evaluation and feedback based on performance.'' 3: Controversie nell'Interpretazione del P value - Giorno 1: Capire la confusione sul significato del P value - Giorno 2: Discutere comuni fraintendimenti sui P value usando l'esempio dello studio di Motyl sugli estremisti politici - Giorno 3: Capire perché il P value da solo non può fare affermazioni sulla realtà sottostante e perché richiede informazioni aggiuntive - Giorno 4: Discutere come interpretare correttamente i risultati dai P value - Giorno 5: Revisione e valutazione settimanale Settimana 4: Conclusione e Valutazione - Giorno 1: Rivedere la storia e lo sviluppo dei P value - Giorno 2: Testare la conoscenza sull'interpretazione dei P value e il loro ruolo nell'analisi sperimentale - Giorno 3: Discutere problemi legati all'uso errato dei P value e possibili soluzioni - Giorno 4: Revisione finale di tutti gli argomenti trattati - Giorno 5: Valutazione finale Materiali per il Corso: Accesso a articoli accademici dettagliati sui lavori di Fisher, Neyman, e Pearson; esempi di studi scientifici che utilizzano P value per l'analisi; esercizi per calcolare e interpretare P value. Nota: Incoraggiare gli studenti a fare domande, analizzare, e pensare criticamente alle informazioni presentate. Questo programma mira a sviluppare non solo la conoscenza sulla significatività statistica, ma anche abilità di pensiero critico e di analisi. Titolo del corso: "Understanding Challenges in Irreproducible Research" Descrizione del corso: Questo corso per homeschooling mira a educare genitori e bambini sui problemi legati alla ricerca irriproducibile, concentrandosi sulla interpretazione errata e sull'uso errato dei P-value, e su come i pregiudizi possono influenzare i risultati scientifici. Livello: Avanzato (Scuola Superiore) Durata: 6 Settimane Schema del corso: Settimana 1: Introduzione alla Statistica e Riproducibilità nella Ricerca Lezione 1: Capire i Concetti Statistici di Base Lezione 2: L'Importanza della Ricerca Riproducibile Attività: Discussione sulle implicazioni della ricerca irriproducibile Settimana 2: Capire i P-Value Lezione 1: Cos'è un P-Value? Lezione 2: Probabilità di Falsi Allarmi Attività: Esercizi di calcolo per capire i P-Value Settimana 3: Criticare l'Uso dei P-value Lezione 1: Come i P-Value possono Incoraggiare il Pensiero Confuso Lezione 2: Esplorare le Dimensioni Effettive di un Effetto Vs. P-Value Attività: Analisi del Caso di Studio - "L'Effetto dell'Incontro dei Coniugi Online sul Tasso di Divorzio" Settimana 4: La Seducente Certezza della Significatività Lezione 1: Capire la Seducente Certezza della Significatività Lezione 2: Determinare la Rilevanza Pratica Vs. Significatività Statistica Attività: Discussione sull'impatto delle statistiche fraintese Settimana 5: La Minaccia del P-Hacking Lezione 1: Introduzione al P-Hacking Lezione 2: Capire il concetto di Data-Dredging, Significance-Chasing e Double-Dipping Attività: Analisi di esempi di P-Hacking Settimana 6: L'Uso Errato e l'Incomprensione dei P-Value nella Ricerca Lezione 1: Esplorare il Contesto Storico dell'Uso dei P-value Lezione 2: Valutare le migliori pratiche nell'analisi dei dati Attività: Revisione e discussione su notevoli studi di ricerca dove i P-value sono stati usati in modo errato Materiali Necessari: - Calcolatrice Statistica - Accesso a banche dati e riferimenti online per l'analisi del caso di studio. Prerequisiti Consigliati: - Comprensione di base della probabilità e delle statistiche. Titolo: Un Programma di Consapevolezza Statistica per i Genitori che Fanno Homeschooling Obiettivo: Fornire ai genitori le conoscenze e gli strumenti per facilitare la comprensione dei loro figli della statistica nel mondo della ricerca di oggi. Argomenti: 1. Introduzione all'Importanza della Statistica - Capire i motivi degli errori nei dati e 'hacking' - Il ruolo della statistica nella ricerca psicologica 2. Il Paradosso del P-Value - Capire i P value e la loro prevalenza nella ricerca - Discutere come i P value influenzano la ricerca e perché possono essere problematici 3. Storia della Statistica nella Ricerca - Guardare l'influenza di Fisher, Neyman, e Pearson - Sviscerare i pensieri di John Campbell sui P value 4. Cambiare Prospettive nella Statistica - Un esame di come le pratiche statistiche sono evolute nel tempo - Discutere la rinascita dei P value nonostante le critiche 5. Capire la Statistica nel Mondo Moderno - Come capire e interpretare i P value in esempi di ricerca reali - Analisi delle critiche dell'attuale framework statistico 6. Appelli per la Riforma Statistica - Esplorare i cambiamenti necessari nell'insegnamento, nell'analisi e nell'interpretazione della statistica - Discutere le implicazioni dei risultati falsi 7. Proposte di Soluzioni per i Problemi Statistici - Discutere l'importanza di riportare le dimensioni dell'effetto e gli intervalli di confidenza - Regola Bayesian: capire e applicare 8. Incorporare Metodi Multipli - L'importanza di utilizzare metodi di analisi multipli sullo stesso set di dati - Esempi pratici per dimostrare l'importanza dei metodi diversi nella statistica Metodi: Ogni argomento sarebbe trattato durante una settimana, permettendo agli studenti di comprendere appieno i concetti. I genitori introdurrebbero i concetti usando semplici fogli di lavoro e attività interattive. Gli aiuti didattici includerebbero esempi reali ogni volta che possibile per fornire un contesto. Ai bambini sarebbe incoraggiato applicare le lezioni apprese alle situazioni di tutti i giorni. Valutazione: I genitori valuterebbero la comprensione del loro bambino attraverso quiz e test alla fine della settimana. Avrebbero anche discussioni con i loro figli per valutare la loro comprensione. Curriculum basato sul testo: Science! Settimane 1-2: Introduzione alla Science Sessione 1: Capire l'Importanza della Science Esercizio: Discutere l'affermazione "Ricevi le storie scientifiche più importanti del giorno, gratuite nella tua casella di posta". In che modo questo è rilevante per le nostre vite?''Sessione 2: Esplorazione di diverse branche della scienza Attività: Esplora il sito web 'Nature Briefing' (https://www.nature.com/briefing/signup/?brieferEntryPoint=MainBriefingBanner), leggi diversi articoli ogni giorno per 1 settimana e annota scoperte interessanti. Sessione 3: Condivisione delle scoperte Attività: Scegli una storia scientifica che ti ha affascinato e condividi con la famiglia perché ti ha colpito. Settimana 3-4: Visual Science: Comprensione di SVG (Scalable Vector Graphics) Sessione 1: Cos'è SVG? Attività: Ricerca online e presentazione su "Cos'è SVG e quali sono le sue applicazioni in scienza?" Sessione 2: Interpretazione dei dati SVG Lettura dell'assegnazione: Interpretazione dei dati SVG presentati per un'immagine di esempio. Nota: Utilizzare i dati del percorso SVG forniti nel compito per l'interpretazione. Sessione 3: Science in Visual Graphics Practice Activity: Crea una grafica SVG base che rappresenta un concetto scientifico. Settimana 5-6: Dalla lettura alla scrittura - Creazione del proprio contenuto scientifico Sessione 1: Comprensione di come sono scritte le storie scientifiche Attività di lettura: Prestare attenzione agli stili di scrittura negli articoli di 'Nature Briefing'. Nota la struttura, il tono e il contenuto. Sessione 2: Creazione della propria storia scientifica Esercizio di scrittura: Sulla base delle tue letture, crea la tua mini storia / articolo scientifico. Utilizza SVG se possibile. Sessione 3: Peer Review Attività: Scambia articoli con i tuoi compagni di corso / famiglia, leggi il loro lavoro e fornisci feedback costruttivo. Ricorda, questo è il tuo percorso di istruzione a casa. Sentiti libero di adattare e regolare come necessario. Concentrati sempre sull'apprendimento e l'esplorazione. Divertiti!'

--------- Original ---------