Scientific method: Statistical errors


Summary

'Este artigo de Regina Nuzzo analisa detalhadamente o P value, considerado o "padrão ouro da validade estatística". Apesar de seu uso generalizado, pode não ser tão confiável quanto a maioria dos cientistas pensa. Ela conta a história de Matt Motyl, um estudante de doutorado em psicologia que pesquisou extremistas políticos. Sua hipótese era que moderados políticos podiam perceber tons de cinza de maneira mais precisa do que extremistas de esquerda ou direita. Os dados iniciais apoiaram a hipótese, resultando em um P value de 0,01, que é interpretado convencionalmente como "muito significativo". Para ser extra cauteloso, Motyl e seu orientador, Brian Nosek, replicaram o estudo. No entanto, a replicação não encontrou um resultado significativo. Seu P value era 0,59. A "sexy" hipótese de Motyl evaporou e também suas esperanças de publicação. Aparentemente, extremistas não veem literalmente o mundo em preto e branco. Motyl não havia feito nada de errado. O P value era o culpado. Em 2005, o epidemiologista John Ioannidis publicou seu agora famoso paper, Why Most Published Research Findings are False. Isso esclareceu a crise da replicação, que só piorou desde então. Os cientistas estão agora repensando como fazem seu trabalho, incluindo o uso de P values. P values foram criticados por estatísticos desde que foram introduzidos por Ronald Fisher na década de 1920. Um pesquisador sarcástico sugeriu que eles fossem renomeados para "Statistical Hypothesis Inference Testing", o que faz sentido uma vez que você considera seu acrônimo. Até mesmo o inventor do P value não pretendia que ele fosse usado do jeito que é agora. Ele deveria ser uma maneira rápida de ver se os resultados de um experimento eram "consistentes com a chance aleatória". Isso envolveu uma série de etapas: Definir uma hipótese nula, prevendo "nenhuma correlação" ou "nenhuma diferença" entre os dois grupos. Supondo que a hipótese nula seja verdadeira, calcule a probabilidade de obter resultados semelhantes ou mais extremos em comparação ao que foi observado. Esta probabilidade é o P value. Um alto valor significa que os resultados são consistentes com a hipótese nula. Um valor baixo significa que a hipótese nula pode ser rejeitada. O P value destina-se a medir "se um resultado observado pode ser atribuído à chance". Mas ele não pode responder se a hipótese do pesquisador é verdadeira ou não. Isso depende em parte de quão plausível a hipótese era em primeiro lugar. Uma hipótese improvável com um baixo P value só se tornará um pouco mais plausível. Os rivais de Fisher, Jerzy Neyman e Egon Pearson, promoveram um sistema alternativo baseado em poder estatístico (a probabilidade de uma análise detectar um efeito). O método poderia ser calibrado com base na importância relativa de falsos positivos e falsos negativos. Notavelmente ausente estava o P value. Neyman chamou o trabalho de Fisher de "pior que inútil". Fisher chamou a abordagem de Neyman de "infantil" e acusou o matemático polonês de ser comunista. Do lado de fora dessa amarga batalha, pesquisadores que não eram estatísticos começaram a escrever manuais para cientistas trabalharem que ensinavam uma abordagem híbrida. Ele combinava as ideias de Fisher, Neyman e Pearson, mas não seria endossado por nenhum deles. Era processual e baseado em regras como o sistema Neyman-Pearson e utilizava o simples P value de Fisher. Eles declararam que um P value abaixo de um limite de 0,05 era "significativo". Isso nunca foi intenção de Fisher, mas é assim que é usado hoje. A maioria dos cientistas está confusa sobre o que um P value realmente significa. A maioria diria que um valor de 0,01 significa que há uma chance de 1% de que um resultado seja um falso positivo. No entanto, isso é falacioso. O P value pode apenas descrever a probabilidade dos dados, supondo que a hipótese nula seja verdadeira. Mas ele não pode dizer nada sobre a probabilidade de um efeito causado pela hipótese experimental. Para fazer isso, é preciso saber as chances de que tal efeito exista. Nuzzo oferece o exemplo de acordar com dor de cabeça e pensar que você tem um tumor cerebral raro. É possível, mas ainda improvável. Quanto mais improvável a hipótese, mais provável é que uma descoberta seja um falso positivo, mesmo com um pequeno P value. Alguns estatísticos tentaram fornecer uma regra de ouro para calcular a probabilidade de um verdadeiro efeito dado um pequeno P value. Por exemplo, um P value de 0,01 implica uma probabilidade de pelo menos 11% de que você tenha um falso positivo. Para um P value de 0,05, essa probabilidade aumenta para pelo menos 29%. No caso do estudo de Motyl sobre extremistas políticos, seu P value de .01 significava que havia pelo menos uma chance de 11% de que o estudo não se replicaria e apenas uma chance de 50% de encontrar outro resultado de significância igualmente alta. Uma das principais críticas ao P value é que ele não mostra o tamanho real de um efeito. Nuzzo menciona um estudo sobre taxas de divórcio para ilustrar esse ponto. Pessoas que conheceram seus cônjuges online estavam''significativamente (p<.002) menos propensos ao divórcio do que pessoas que se conheceram offline. No entanto, a diferença real nas taxas de divórcio foi de 5,96% versus 7,67%. Só porque um efeito é "significativo" não significa que ele realmente importa no mundo real. Outro problema com os p values é que os pesquisadores aprenderam maneiras de contornar um p value alto demais para publicação (p>.05). O termo para isso, cunhado por Uri Simonsohn, é "P-hacking". Essencialmente, isso significa tentar várias coisas até encontrar um resultado significativo. Isso pode incluir olhar para os dados, prolongar ou interromper um experimento assim que a significância é alcançada, ou buscar nos dados alguma combinação de fatores que resulte em um baixo p value. O P-hacking é especialmente comum agora que muitos trabalhos estão buscando efeitos pequenos em conjuntos de dados ruidosos. O resultado final é que as descobertas da pesquisa exploratória são tratadas como confirmações de efeitos. No entanto, elas são improváveis de replicar, especialmente se o P-hacking estiver envolvido. Qualquer esperança de reforma exigirá uma mudança na cultura e educação científica. Os estatísticos devem ser incentivados a não relatar seus próprios resultados como "significativos" ou "não significativos", mas sim a relatar tamanhos de efeito e intervalos de confiança. Isso responde às questões relevantes da magnitude e da importância relativa de uma descoberta. Alguns estão incentivando a comunidade científica a adotar a regra de Bayes. Isso requer uma mudança no pensamento de probabilidade como medida da frequência estimada de um resultado para probabilidade como medida da plausibilidade de um resultado. A vantagem da abordagem bayesiana é que os cientistas podem incorporar o que já sabem sobre o mundo em seus cálculos de probabilidade (chamados de "priors"). E eles podem calcular como as probabilidades mudam com a adição de novas evidências (chamadas de "posteriors"). Outras reformas sugeridas incluem exigir que os cientistas expliquem dados omitidos e manipulações. Isso poderia reduzir o P-hacking se os pesquisadores forem honestos. Outra ideia é chamada de "análise em duas etapas". Isso envolve dividir um projeto de pesquisa em uma fase exploratória, onde descobertas interessantes podem ser descobertas e seguidas por uma fase de confirmação pré-registrada. A replicação seria publicada ao lado dos resultados do estudo exploratório. A análise em duas etapas poderia potencialmente reduzir falsos positivos, enquanto ainda oferece flexibilidade aos pesquisadores. O artigo conclui incentivando os cientistas a "perceber os limites da estatística convencional". Eles devem estar mais dispostos a discutir a plausibilidade de suas hipóteses e as limitações de seus estudos em trabalhos de pesquisa. Um cientista deve sempre fazer três perguntas-chave após um estudo: Quais são as evidências? No que eu devo acreditar? O que eu devo fazer? Um método de análise não pode fornecer todas as respostas.'

Jump to original

'Os P values são comumente usados por cientistas para ver se algo que estão investigando é realmente importante ou não. Mas, eles podem não ser tão confiáveis quanto muitos cientistas pensam. Por exemplo, um cientista chamado Matt Motyl em 2010 pensou que tinha descoberto que pessoas com visões políticas extremas literalmente veem o mundo em preto e branco. O P value estava dizendo que essa descoberta era muito significativa. Mas quando ele e seu mentor tentaram fazer o estudo novamente, o P value nem sequer estava próximo de ser significativo. A ideia de que ele havia encontrado algo importante desapareceu. O problema não era com os dados ou como eles foram analisados. Era o P value em si. Ele realmente não é tão confiável quanto a maioria dos cientistas pode acreditar. Até mesmo alguns estatísticos - pessoas que estudam e trabalham com coisas como P values - pensam que nem sempre são úteis. Isso pode ser um grande problema quando os cientistas estão tentando ver se suas descobertas podem ser repetidas, que é uma parte importante da ciência. De fato, sugeriu-se que a maioria das descobertas científicas publicadas podem realmente estar erradas. Então, alguns estatísticos estão tentando encontrar melhores maneiras de olhar para os dados que possam ajudar os cientistas a evitar erros ou negligenciar coisas importantes. Apesar de todos esses problemas, os P values têm sido usados por quase 90 anos, então são bastante difíceis de eliminar. Na década de 1920, um homem do Reino Unido chamado Ronald Fisher introduziu um conceito chamado 'P value'. Ele não quis que isso fosse um teste definitivo, mas sim uma maneira simples de ver se a evidência valia a pena ser examinada mais de perto. Ele queria que as pessoas o usassem durante os experimentos para verificar se seus resultados eram apenas aleatórios ou se realmente significavam algo. O plano era primeiro fazer um palpite, chamado de "hipótese nula", que eles queriam provar que estava errado, como dizer que não havia nenhuma ligação ou diferença entre duas coisas ou grupos. Então, eles fingiriam que sua hipótese nula estava realmente correta, e tentariam descobrir quais eram as chances de obter os resultados que obtiveram, ou algo ainda mais extremo. Essa chance que eles calcularam era o P value. Quanto menor esse valor, mais provável era que a hipótese nula estivesse errada. Embora o P value parecesse exato, Fisher só queria que ele fizesse parte de uma maneira de tirar conclusões científicas que misturassem dados e conhecimento geral. Fisher teve alguns rivais que disseram que seu método era "pior que inútil". Esse movimento liderado por Jerzy Neyman e Egon Pearson, recomendou outra maneira de analisar dados, mas deixou de fora o P value. Por causa de seus desacordos, outras pessoas ficaram frustradas e começaram a escrever guias para os cientistas usarem ao lidar com estatísticas. Muitos desses autores não entendiam realmente nenhum dos dois métodos, então eles apenas os misturaram e foi então que um P value de 0,05 se tornou a medida padrão para 'estatisticamente significativo'. O P value não foi feito para ser usado como é hoje. Quando os pesquisadores fazem um experimento e obtêm um P value pequeno, muitas vezes pensam que isso significa que obterão o mesmo resultado se fizerem o experimento novamente. Mas há um problema. Um P value de 0,01 não significa que há uma chance de 1% de estar errado. Também importa quão provável era o efeito sendo estudado em primeiro lugar. Se é improvável, então na verdade há uma chance de 11% de estar errado. Portanto, se um cientista pensasse que seu experimento daria certo 99 de 100 vezes, a verdade poderia estar mais próxima de 73 de 100 vezes. Os críticos também dizem que os P values podem fazer com que os pesquisadores se esqueçam do tamanho do efeito que estão estudando. Por exemplo, um estudo afirmou que as pessoas que conheceram seus cônjuges online eram menos propensas a se divorciar e estavam mais felizes em seus casamentos. Mas, olhando de perto, as diferenças reais entre os grupos eram minúsculas. Ainda pior, os P values podem ser mal utilizados por pesquisadores que continuam testando até obterem os resultados que desejam. Isso é chamado de P-hacking. Isso pode fazer com que as coisas pareçam novas descobertas mesmo que estejam apenas explorando. Portanto, o P value sozinho realmente não pode nos dizer se os resultados de um experimento são reais, ou importantes, ou se estamos apenas brincando com os números. O P-hacking é frequentemente feito em estudos que procuram pequenos efeitos em meio a muitas informações confusas. É difícil saber o quão grande é esse problema, mas muitos cientistas acham que é um problema importante. Em uma revisão, eles encontraram um comportamento suspeito em estudos de psicologia onde muitos P values se acumulam perto de 0,05. Parece que os pesquisadores estão trapaceando para obter um P value significativo. No entanto, mudar a maneira como fazemos estatísticas tem sido lenta. Esta maneira atual ainda não''realmente mudou desde que foi introduzido por Fisher, Neyman e Pearson. Algumas pessoas tentaram desencorajar o uso de p values em seus estudos, mas isso não foi bem-sucedido. Para reformar, precisamos mudar muitos hábitos antigos, como como somos ensinados sobre estatísticas, como analisamos dados e como relatamos e interpretamos resultados. Pelo menos agora, muitos pesquisadores estão admitindo que existe um problema. Os pesquisadores pensam que, em vez de chamar os resultados de "significativos" ou "não significativos", eles deveriam falar sobre o tamanho e a importância do efeito. Isso nos diz mais do que um p value. Alguns estatísticos acham que deveríamos substituir o p value por um método do século XVIII, chamado regra de Bayes, que pensa sobre a probabilidade com base em quão provável é um resultado. Este método permite que as pessoas usem o que sabem sobre o mundo para entender seus resultados e atualizar seu cálculo de probabilidade à medida que novas evidências são encontradas. O artigo termina pedindo aos leitores para perceberem que seus métodos estatísticos têm limites. Um método sozinho não pode responder a todas as perguntas importantes que eles estão tentando encontrar respostas.'

--------- Original ---------

Jump to original

' Os P values são frequentemente considerados o 'padrão ouro' na pesquisa científica para confirmar se um resultado é significativo ou não. Mas eles não são tão confiáveis quanto muitos cientistas pensam, segundo este artigo de Regina Nuzzo. Por exemplo, em 2010, Matt Motyl, um estudante de doutorado em psicologia, pensou que tinha feito uma grande descoberta. Ele acreditava ter descoberto que as pessoas com visões políticas extremas veem o mundo em preto e branco, enquanto aquelas com visões políticas moderadas veem mais tons de cinza. Seus dados, baseados em um estudo de quase 2.000 pessoas, pareciam apoiar essa ideia e seu P value (0.01) indicava fortes evidências para sua afirmação. Mas quando ele e seu orientador, Brian Nosek, tentaram reproduzir os mesmos resultados com novos dados, o P value aumentou para 0.59, sugerindo que o resultado não era significativo. Isso significava que as descobertas de Motyl não puderam ser replicadas. O problema não estava com os dados de Motyl ou seu modo de analisá-los. Em vez disso, era o próprio P value que era o problema. Os P values não são tão confiáveis ou imparciais quanto a maioria dos cientistas acredita. Alguns estatísticos até sugeriram que a maioria das descobertas publicadas baseadas em P values poderia ser imprecisa. Outra grande preocupação gira em torno da questão de saber se outros cientistas podem encontrar resultados semelhantes se repetirem o mesmo experimento. Se os resultados não puderem ser replicados, isso desafia sua validade. Isso levou muitos cientistas a repensar como avaliam seus resultados e estatísticos a buscar melhores maneiras de interpretar dados. P values têm sido usados como uma medida de validade na pesquisa científica por quase 90 anos, mas na verdade não são tão confiáveis quanto muitos pesquisadores pensam. Nos anos 1920, um estatístico britânico chamado Ronald Fisher inventou o P value. Ele nunca pretendia que os P values fossem a palavra final sobre a significância de uma descoberta, mas sim uma maneira rápida de ver se um resultado valia a pena ser mais pesquisado. Aqui está o procedimento para fazer uma análise de P value: você começa fazendo uma "hipótese nula", que prevê nenhum efeito ou nenhuma relação entre dois grupos. Então, sendo o advogado do diabo, você supõe que essa hipótese nula é verdadeira e calcula as chances de obter resultados semelhantes ou mais extremos do que você mediu. Essa chance é o P value. Se fosse pequeno, Fisher sugeriu que provavelmente isso significava que sua hipótese nula estava errada. Os rivais de Fisher chamaram seu método de "pior do que inútil". O matemático Jerzy Neyman e o estatístico Egon Pearson criaram sua própria maneira de analisar dados, deixando de fora o P value. Mas enquanto esses rivais estavam discutindo, outros se cansaram de esperar e escreveram manuais sobre estatísticas para cientistas. Esses autores não entendiam completamente nenhuma das abordagens, então criaram uma mistura de ambas. O P value fácil de calcular de Fisher foi adicionado ao procedimento rigoroso de Neyman e Pearson. Foi quando um P value de 0.05 passou a ser aceito como 'estatisticamente significativo'. Tudo isso levou a muita confusão sobre o que o P value realmente significa. Por exemplo, se você obteve um P value de 0.01 em um experimento, a maioria das pessoas pensa que isso significa que há apenas 1% de chance de seu resultado estar errado. Mas isso é incorreto. O P value só pode resumir dados com base em uma hipótese nula específica. Não pode investigar mais a fundo e fazer declarações sobre a realidade atual. Para fazer isso, você precisa de outra peça de informação: as chances de que um efeito real estava lá para começar. Caso contrário, você seria como alguém que tem uma dor de cabeça e acha que deve ser um tumor cerebral raro, mesmo quando é mais provável que seja algo comum, como uma alergia. Quanto mais improvável a hipótese, maior a chance de que uma descoberta emocionante seja apenas um alarme falso, independentemente do P value. De acordo com uma "regra do polegar", se o seu P value é 0.01, há pelo menos 11% de chance de um alarme falso, e se o seu P value é apenas 0.05, a chance de um alarme falso sobe para 29%. Portanto, quando Motyl fez sua pesquisa, havia mais de 1 chance em 10 de suas descobertas não serem replicadas. E havia apenas 50% de chance de obter um resultado tão forte quanto em seu experimento original. Outro problema com os P values é como eles podem nos fazer focar demais na existência de um efeito, em vez de quão grande é o efeito. Recentemente, houve um estudo com 19.000 pessoas que descobriu que pessoas que conheceram seus cônjuges online têm menos probabilidade de se divorciar e mais probabilidade de serem felizes em seu casamento do que aqueles que se conheceram offline. Isso pode parecer um grande negócio, mas o efeito foi realmente muito pequeno: conhecer online diminuiu a taxa de divórcio de 7.67% para 5.96%, e a felicidade aumentou apenas de 5.48''3: Erros de Interpretação e Mal-entendidos - Dia 1: Discutir sobre "P-hacking" e como isso pode influenciar os resultados - Dia 2: Analisar exemplos de resultados estatísticos distorcidos por valores de P manipulados - Dia 3: Compreender a importância da replicação em estudos - Dia 4: Aprender sobre "falso positivo" e a sua relação com valores de P - Dia 5: Revisão semanal e avaliação Semana 4: Abordagens Alternativas - Dia 1: Estudar o método bayesiano e como este é usado no lugar de valores de P - Dia 2: Compreender a diferença entre a frequência de um evento e a sua probabilidade - Dia 3: Aprender sobre o escândalo da replicação em psicologia e os problemas com valores de P - Dia 4: Discutir sobre a postura de cientistas em relação à mudança de métodos estatísticos - Dia 5: Revisão semanal e avaliação Semana 5: Resumo e Conclusão - Dia 1: Revisar os principais pontos sobre valores de P e sua relevância no campo científico - Dia 2: Avaliar os prós e contras do uso de valores de P na pesquisa - Dia 3: Revisar as diferentes abordagens e opiniões sobre o uso de valores de P na pesquisa - Dia 4: Avaliar o conhecimento do aluno por meio de perguntas e exercícios práticos - Dia 5: Fornecer feedback com base em seu desempenho. Currículo de educação domiciliar: Compreendendo a Significância Estatística Semana 1: Introdução aos Valores P e Teste de Hipóteses - Dia 1: Aprender sobre Ronald Fisher e a sua introdução dos valores P na década de 1920 - Dia 2: Discutir o propósito dos valores P e seu papel na análise experimental - não como um teste definitivo, mas como uma medida informal de significância - Dia 3: Entender o conceito de 'hipótese nula' e explicar o seu processo - Dia 4: Revisar como interpretar os valores de P - Dia 5: Revisão semanal e avaliação Semana 2: Rivalidade sobre o uso de Valores P - Dia 1: Estudar os trabalhos do matemático polonês Jerzy Neyman e do estatístico britânico Egon Pearson - Dia 2: Analisar as diferenças entre a atitude de Fisher em relação aos valores P e a estrutura alternativa de Neyman e Pearson - Dia 3: Discutir como os valores P foram integrados no sistema rigoroso e baseado em regras de Neyman e Pearson - Dia 4: Entender o termo 'significativamente estatístico' e sua relação com os valores de P - Dia 5: Revisão semanal e avaliação'' 3: Controvérsias na Interpretação do P value - Dia 1: Entenda a confusão sobre os significados do P value - Dia 2: Discuta equívocos comuns sobre P values usando o exemplo do estudo de Motyl sobre extremistas políticos - Dia 3: Aprenda por que o P value sozinho não pode fazer declarações sobre a realidade subjacente e por que requer informações adicionais - Dia 4: Discuta como interpretar corretamente as descobertas dos P values - Dia 5: Revisão semanal e avaliação Semana 4: Conclusão e Avaliação - Dia 1: Revisão da história e desenvolvimento dos P values - Dia 2: Teste o conhecimento sobre a interpretação dos P values e seu papel na análise experimental - Dia 3: Discuta questões relacionadas ao mau uso dos P values e possíveis soluções - Dia 4: Revisão final de todos os tópicos abordados - Dia 5: Avaliação final Materiais para o Curso: Acesso a artigos acadêmicos detalhando os trabalhos de Fisher, Neyman, e Pearson; exemplos de estudos científicos usando P values para análise; exercícios para calcular e interpretar P values. Nota: Incentive os alunos a questionar, analisar e pensar criticamente sobre as informações apresentadas. Este currículo visa desenvolver não apenas conhecimento sobre significância estatística, mas também habilidades de pensamento crítico e análise. Título do Curso: "Compreendendo Desafios na Pesquisa Irreproduzível" Descrição do Curso: Este curso para homeschooling visa educar pais e filhos sobre as questões que envolvem a pesquisa irreproduzível, focando na má interpretação e mau uso dos P-values, e como os vieses podem influenciar os resultados científicos. Nível: Avançado (Ensino Médio) Duração: 6 Semanas Resumo do Curso: Semana 1: Introdução à Estatística e Reproducibilidade em Pesquisa Lição 1: Compreendendo Conceitos Estatísticos Básicos Lição 2: A Importância da Pesquisa Reproduzível Atividade: Discussão sobre as implicações da pesquisa irreproduzível Semana 2: Compreendendo P-Values Lição 1: O que é um P-Value? Lição 2: Probabilidade de Falsos Alarmes Atividade: Exercícios de cálculo para entender P-Values Semana 3: Criticando o Uso de P-values Lição 1: Como P-Values podem Encorajar Pensamento Confuso Lição 2: Explorando Tamanho Real de um Efeito Vs. P-Values Atividade: Análise de Estudo de Caso - "O Efeito do Encontro de Cônjuges Online na Taxa de Divórcio" Semana 4: A Sedutora Certeza da Significância Lição 1: Compreendendo a Sedutora Certeza da Significância Lição 2: Determinando Relevância Prática Vs. Significância Estatística Atividade: Discussão sobre o impacto das estatísticas mal interpretadas Semana 5: Ameaça de P-Hacking Lição 1: Introdução ao P-Hacking Lição 2: Compreendendo o conceito de Data-Dredging, Significance-Chasing e Double-Dipping Atividade: Análise de exemplos de P-Hacking Semana 6: O Abuso e Mal-entendido dos P-Values em Pesquisa Lição 1: Explorando o Contexto Histórico do Uso de P-value Lição 2: Avaliando melhores práticas em análise de dados Atividade: Revisão e discussão sobre estudos de pesquisa notáveis onde P-values foram mal utilizados Materiais Necessários: - Calculadora de Estatística - Acesso a bases de dados e referências online para análise de estudos de caso. Pré-requisito Recomendado: - Compreensão básica de probabilidade e estatística. Título: Um Currículo de Consciência Estatística para Pais de Homeschooling Objetivo: Equipar os pais com o conhecimento e ferramentas para facilitar a compreensão dos filhos sobre estatística no mundo saturado de pesquisas de hoje. Tópicos: 1. Introdução à Importância da Estatística - Compreendendo as razões para erros nos dados e 'hacking' - O papel da estatística na pesquisa em psicologia 2. O Paradoxo do P-Value - Compreendendo P values e sua prevalência em pesquisa - Discutindo como P values influenciam a pesquisa e por que eles podem ser problemáticos 3. História da Estatística em Pesquisa - Olhando para a influência de Fisher, Neyman, e Pearson - Desembalando os pensamentos de John Campbell sobre P values 4. Mudando Perspectivas em Estatística - Uma avaliação de como as práticas estatísticas evoluíram ao longo do tempo - Discutindo o ressurgimento dos P values apesar das críticas 5. Compreendendo Estatística no Mundo Moderno - Como entender e interpretar P values em exemplos de pesquisa da vida real - Análise das críticas do atual framework estatístico 6. Chamadas para Reforma Estatística - Explorando as mudanças necessárias no ensino, análise e interpretação estatística - Discutindo as implicações de descobertas falsas 7. Soluções Propostas para Problemas Estatísticos - Discutindo a importância de reportar tamanhos de efeito e intervalos de confiança - Regra Bayesiana: entendendo e aplicando 8. Incorporando Múltiplos Métodos - A importância de empregar múltiplos métodos de análise no mesmo conjunto de dados - Exemplos práticos para demonstrar a importância de métodos diversos em estatística Métodos: Cada tópico seria entregue ao longo de uma semana, permitindo aos alunos compreenderem plenamente os conceitos. Os pais introduziriam os conceitos usando folhas de trabalho simples e atividades interativas. Os auxílios didáticos incluiriam exemplos da vida real sempre que possível para fornecer contexto. As crianças seriam incentivadas a aplicar as lições aprendidas a situações cotidianas. Avaliação: Os pais avaliariam a compreensão de seus filhos por meio de quizzes e testes no final da semana. Eles também teriam discussões com seus filhos para avaliar sua compreensão. Currículo Baseado em Texto: Ciência! Semana 1-2: Introdução à Ciência Sessão 1: Compreendendo a Importância da Ciência Exercício: Discuta a afirmação "Receba as histórias de ciência mais importantes do dia, gratuitamente na sua caixa de entrada". Como isso é relevante para nossas vidas?''Sessão 2: Explorando Diferentes Ramos da Ciência Atividade: Explore o site 'Nature Briefing' (https://www.nature.com/briefing/signup/?brieferEntryPoint=MainBriefingBanner), leia diferentes artigos diariamente por 1 semana e anote descobertas interessantes. Sessão 3: Compartilhando Descobertas Atividade: Escolha uma história científica que te fascinou e compartilhe com a família o porquê de ter te impactado. Semana 3-4: Ciência Visual: Entendendo SVG (Scalable Vector Graphics) Sessão 1: O que é SVG? Atividade: Pesquisa online e apresentação sobre "O que é SVG e quais são suas aplicações na ciência?" Sessão 2: Interpretação de Dados SVG Tarefa de Leitura: Interpretação de dados SVG apresentados para uma imagem de exemplo. Nota: Use os dados do caminho SVG fornecidos na tarefa para interpretação. Sessão 3: Ciência em Gráficos Visuais Atividade Prática: Crie um gráfico SVG básico que represente um conceito científico. Semana 5-6: Da Leitura à Escrita - Criando seu Próprio Conteúdo Científico Sessão 1: Entendendo Como as Histórias Científicas são Escritas Atividade de Leitura: Preste atenção aos estilos de escrita nos artigos do 'Nature Briefing'. Observe a estrutura, o tom e o conteúdo. Sessão 2: Criando sua Própria História Científica Exercício de Escrita: Com base em suas leituras, crie sua própria mini história/artigo científico. Utilize SVG se possível. Sessão 3: Peer Review Atividade: Troque artigos com seus colegas de curso/família, leia seus trabalhos e forneça feedback construtivo. Por favor, lembre-se, esta é a sua jornada de educação em casa. Sinta-se à vontade para adaptar e ajustar conforme necessário. Sempre foque no aprendizado e na exploração. Divirta-se!'

--------- Original ---------