Scientific method: Statistical errors


Summary

' Este artículo de Regina Nuzzo echa un vistazo de cerca al P value, considerado el “estándar de oro de la validez estadística”. A pesar de su uso generalizado, podría no ser tan confiable como la mayoría de los científicos piensan. Ella cuenta la historia de Matt Motyl, un estudiante de doctorado en psicología que investigó a los extremistas políticos. Su hipótesis era que los moderados políticos podrían percibir más precisamente los matices de gris más precisamente que los extremistas de izquierda o derecha. Los datos iniciales respaldaron la hipótesis, obteniendo un P value de 0.01, lo que se interpreta convencionalmente como "muy significativo". Para ser extremadamente cautelosos, Motyl y su asesor, Brian Nosek, replicaron el estudio. Sin embargo, la replicación no encontró un resultado significativo. Su P value fue de 0.59. La hipótesis “sexy” de Motyl se desvaneció, al igual que sus esperanzas de publicación. Aparentemente, los extremistas no ven el mundo literalmente en blanco y negro. Motyl no había hecho nada mal. El P value estaba en falta. En 2005, el epidemiólogo John Ioannidis publicó su famoso artículo, Why Most Published Research Findings are False. Arrojó luz sobre la crisis de replicación, que sólo ha empeorado desde entonces. Los científicos ahora están reconsiderando cómo llevar a cabo su trabajo, incluido el uso de los P values. Los P values han sido criticados por los estadísticos desde que fueron introducidos por Ronald Fisher en la década de 1920. Un investigador sarcástico sugirió que se les renombrara “Statistical Hypothesis Inference Testing”, lo cual tiene sentido una vez que consideras su acrónimo. Incluso el inventor del P value no pretendía que se utilizara de la forma en que se utiliza ahora. Se suponía que era una forma rápida de ver si los resultados de un experimento eran “consistentes con la casualidad”. Esto implicaba una serie de pasos: Definir una hipótesis nula, prediciendo “no correlación” o “ninguna diferencia” entre los dos grupos. Asumiendo que la hipótesis nula es cierta, calcula la probabilidad de obtener resultados similares o más extremos en comparación con los observados. Esta probabilidad es el P value. Un valor alto significa que los resultados son consistentes con la hipótesis nula. Un valor bajo significa que la hipótesis nula puede ser rechazada. Un P value tiene la intención de medir "si un resultado observado puede atribuirse al azar". Pero no puede responder si la hipótesis del investigador es verdadera o no. Eso depende en parte de cuán plausible era la hipótesis en primer lugar. Una hipótesis improbable con un bajo p-value sólo se volverá ligeramente más plausible. Los rivales de Fisher, Jerzy Neyman y Egon Pearson, promovieron un sistema alternativo basado en el poder estadístico (qué tan probable es que un análisis detecte un efecto). El método podría calibrarse en base a la importancia relativa de los falsos positivos y los falsos negativos. Notablemente faltaba el P value. Neyman llamó al trabajo de Fisher, “peor que inútil”. Fisher llamó al enfoque de Neyman “infantil” y acusó al matemático polaco de ser comunista. Fuera de esta amarga batalla, los investigadores que no eran estadísticos comenzaron a escribir manuales para científicos en activo que enseñaban un enfoque híbrido. Combinaba las ideas de Fisher, Neyman y Pearson, pero no sería respaldado por ninguno de los dos. Era procedural y basado en reglas como el sistema Neyman-Pearson y utilizaba el simple P value de Fisher. Declararon que un P value por debajo de un umbral de 0.05 era "significativo". Nunca fue la intención de Fisher, pero así es como se usa hoy. La mayoría de los científicos están confundidos acerca de lo que realmente significa un P value. La mayoría diría que un valor de 0.01 significa que hay un 1% de posibilidades de que un resultado sea un falso positivo. Sin embargo, esto es falaz. El P value solo puede describir la probabilidad de los datos suponiendo que la hipótesis nula es verdadera. Pero no puede decir nada sobre la probabilidad de un efecto causado por la hipótesis experimental. Para hacer esto se requiere conocer las probabilidades de que exista tal efecto. Nuzzo ofrece el ejemplo de despertarse con dolor de cabeza y pensar que tiene un raro tumor cerebral. Es posible, pero aún poco probable. Cuanto más improbable es una hipótesis, más probable es que un hallazgo sea un falso positivo, incluso con un pequeño P value. Algunos estadísticos han intentado proporcionar una regla general para calcular la probabilidad de un efecto verdadero dado un pequeño P value. Por ejemplo, un P value de 0.01 implica una probabilidad de al menos el 11% de que tenga un falso positivo. Para un P value de 0.05, esta probabilidad aumenta al menos al 29%. En el caso del estudio de Motyl sobre extremistas políticos, su P value de .01 significaba que había al menos un 11% de posibilidades de que el estudio no se replicara y sólo un 50% de posibilidades de encontrar otro resultado de alta importancia similar. Una crítica importante al P value es que no muestra el tamaño real de un efecto. Nuzzo menciona un estudio de tasas de divorcio para ilustrar este punto. Las personas que conocieron a sus cónyuges en línea eran''significativamente (p<.002) menos propensos a divorciarse que las personas que se conocieron fuera de línea. Sin embargo, la diferencia real en las tasas de divorcio fue del 5.96% frente al 7.67%. Solo porque un efecto es "significativo" no significa que realmente importa en el mundo real. Otro problema con los valores de P es que los investigadores han aprendido formas de eludir un valor P demasiado alto para publicar (p>.05). El término para esto, acuñado por Uri Simonsohn, es "P-hacking". Esencialmente significa intentar varias cosas hasta que encuentres un resultado significativo. Esto puede incluir echar un vistazo a los datos, prolongar o detener un experimento una vez que se alcanza la significación, o la minería de datos para alguna combinación de factores que genere un valor P bajo. El P-hacking es especialmente común ahora que muchos estudios están persiguiendo efectos pequeños en conjuntos de datos ruidosos. El resultado final es que los descubrimientos de la investigación exploratoria se tratan como confirmaciones de efectos. Sin embargo, es poco probable que se repliquen, especialmente si se involucra el P-hacking. Cualquier esperanza de reforma requerirá un cambio en la cultura y la educación científica. Se debe alentar a los estadísticos a no informar sus propios resultados como "significativos" o "no significativos", sino a informar los tamaños del efecto y los intervalos de confianza. Estos responden a las preguntas relevantes sobre la magnitud y la importancia relativa de un hallazgo. Algunos están alentando a la comunidad científica a adoptar la regla de Bayes. Esto requiere un cambio de pensamiento alejado de la probabilidad como medida de la frecuencia estimada de un resultado a la probabilidad como medida de la plausibilidad de un resultado. La ventaja del enfoque bayesiano es que los científicos pueden incorporar lo que ya saben sobre el mundo en sus cálculos de probabilidad (llamados "priors"). Y pueden calcular cómo cambian las probabilidades con la adición de nueva evidencia (llamados "posteriors"). Otras reformas sugeridas incluyen que se requiera a los científicos explicar datos omitidos y manipulaciones. Esto podría reducir el P-hacking si los investigadores son honestos. Otra idea se llama "análisis en dos etapas". Implica dividir un proyecto de investigación en una fase exploratoria, donde se pueden descubrir hallazgos interesantes y seguidos por una fase de confirmación pre-registrada. La replicación se publicaría junto con los resultados del estudio exploratorio. El análisis en dos etapas podría reducir potencialmente los falsos positivos, al mismo tiempo que ofrece flexibilidad a los investigadores. El paper concluye alentando a los científicos a "reconocer los límites de las estadísticas convencionales". Deberían estar más dispuestos a discutir la plausibilidad de sus hipótesis y las limitaciones de sus estudios en los trabajos de investigación. Un científico siempre debe hacer tres preguntas clave después de un estudio: ¿Cuál es la evidencia? ¿Qué debería creer? ¿Qué debería hacer? Un método de análisis no puede proporcionar todas las respuestas.'

Jump to original

'Los valores P son comúnmente utilizados por los científicos para ver si algo que están investigando es realmente importante o no. Pero, podrían no ser tan confiables como muchos científicos creen. Por ejemplo, un científico llamado Matt Motyl en 2010 pensó que había descubierto que las personas con puntos de vista políticos extremos literalmente ven el mundo en blanco y negro. El valor P estaba diciendo que este hallazgo era muy significativo. Pero cuando él y su mentor intentaron hacer el estudio de nuevo, el valor P no estaba ni cerca de ser significativo. La idea de que había encontrado algo importante se esfumó. El problema no estaba con los datos o cómo se analizaban. Era el valor P en sí. No es realmente tan confiable como la mayoría de los científicos podrían creer. Incluso algunos estadísticos - personas que estudian y trabajan con cosas como valores P - piensan que no siempre son útiles. Esto puede ser un gran problema cuando los científicos intentan ver si sus hallazgos se pueden repetir, lo cual es una parte importante de la ciencia. De hecho, se ha sugerido que la mayoría de los hallazgos científicos publicados podrían ser realmente incorrectos. Entonces, algunos estadísticos están tratando de encontrar mejores formas de mirar los datos que pueden ayudar a los científicos a evitar errores o pasar por alto cosas importantes. A pesar de todos estos problemas, los valores P se han utilizado durante casi 90 años, por lo que son bastante difíciles de eliminar. En la década de 1920, un hombre del Reino Unido llamado Ronald Fisher introdujo un concepto llamado el 'valor P'. No pretendía que fuera una prueba definitiva, sino una forma simple de ver si la evidencia valía la pena revisarla de cerca. Quería que las personas lo utilizaran durante los experimentos para comprobar si sus resultados eran solo aleatorios o si realmente significaban algo. El plan era primero idear una suposición, llamada una "hipótesis nula", que querían demostrar que estaba equivocada, como decir que no había ninguna conexión o diferencia entre dos cosas o grupos. Luego, fingirían que su hipótesis nula era correcta y tratarían de averiguar cuáles eran las probabilidades de obtener los resultados que obtuvieron, o algo aún más extremo. Esta posibilidad que calcularon era el valor P. Cuanto menor fuera este valor, más probable sería que su hipótesis nula estuviera equivocada. Aunque el valor P parecía exacto, Fisher solo quería que formara parte de una forma de hacer conclusiones científicas que mezclaban datos y conocimientos generales. Fisher tenía algunos rivales que decían que su método era "peor que inútil". Este movimiento, liderado por Jerzy Neyman y Egon Pearson, recomendó otra forma de analizar datos, pero dejó de lado el valor P. Debido a sus desacuerdos, otras personas se frustraron y comenzaron a escribir guías para que los científicos las usaran al lidiar con las estadísticas. Muchos de esos autores no entendían realmente ninguna de las dos propuestas, así que simplemente las mezclaron y así es cuando un valor P de 0.05 se convirtió en la medida estándar para 'significativamente estadístico'. El valor P no se pretendía usar como se usa hoy. Cuando los investigadores hacen un experimento y obtienen un valor P pequeño, a menudo piensan que significa que obtendrán el mismo resultado si realizan el experimento de nuevo. Pero hay un problema. Un valor P de 0.01 no significa que haya un 1% de probabilidad de que esté equivocado. También importa cuán probable era el efecto que se estaba estudiando en primer lugar. Si es poco probable, entonces realmente hay una posibilidad del 11% de que esté equivocado. Entonces, si un científico pensaba que su experimento funcionaría 99 de cada 100 veces, la verdad podría estar más cerca de 73 de cada 100 veces. Los críticos también dicen que los valores P pueden hacer que los investigadores olviden el tamaño del efecto que están estudiando. Por ejemplo, un estudio dijo que las personas que conocieron a sus cónyuges en línea tenían menos probabilidades de divorciarse y eran más felices en sus matrimonios. Pero al observar de cerca, las diferencias reales entre los grupos eran mínimas. Aún peor, los valores P pueden ser mal utilizados por investigadores que siguen probando hasta obtener los resultados que quieren. A esto se le llama P-hacking. Puede hacer que las cosas parezcan nuevos descubrimientos incluso si solo están explorando. Entonces, el valor P por sí solo realmente no nos puede decir si los resultados de un experimento son reales, o importantes, o si solo estamos jugando con los números. El P-hacking se realiza a menudo en estudios que buscan efectos pequeños dentro de mucha información desordenada. Es difícil saber qué tan grande es este problema, pero muchos científicos piensan que es un problema importante. En una revisión, encontraron un comportamiento sospechoso en los estudios de psicología donde demasiados valores P se acumulan cerca de 0.05. Parece que los investigadores están haciendo trampa para obtener un valor P significativo. Sin embargo, cambiar la forma en que hacemos las estadísticas ha sido lento. Este método actual aún no''realmente ha cambiado desde que fue introducido por Fisher, Neyman y Pearson. Algunas personas han intentado desalentar el uso de los P values en sus estudios, pero esto ha sido infructuoso. Para reformar, necesitamos cambiar muchos hábitos arraigados como la forma en que nos enseñan sobre estadística, cómo analizamos los datos y cómo informamos e interpretamos los resultados. Al menos ahora, muchos investigadores están admitiendo que hay un problema. Los investigadores piensan que en lugar de llamar a los resultados "significativos" o "no significativos", deberían hablar sobre el tamaño y la importancia del efecto. Esto nos dice más de lo que un P value hace. Algunos estadísticos piensan que deberíamos reemplazar el P value con un método del siglo XVIII, llamado regla de Bayes, que piensa en la probabilidad en función de cuán probable es un resultado. Este método permite a las personas usar lo que saben sobre el mundo para entender sus resultados y actualizar su cálculo de probabilidad a medida que se encuentra nueva evidencia. El paper termina pidiendo a los lectores que se den cuenta de que sus métodos estadísticos tienen límites. Un método solo no puede responder a todas las preguntas importantes a las que están tratando de encontrar respuestas.'

--------- Original ---------

Jump to original

'P values a menudo se consideran el 'estándar de oro' en la investigación científica para confirmar si un resultado es significativo o significativo. Pero no son tan confiables como muchos científicos piensan según este artículo de Regina Nuzzo. Por ejemplo, en 2010, Matt Motyl, un estudiante de doctorado en psicología, pensó que había hecho un gran descubrimiento. Creía que había encontrado que las personas con puntos de vista políticos extremos literalmente ven el mundo en blanco y negro, mientras que aquellos con puntos de vista políticos moderados ven más matices de gris. Sus datos, basados en un estudio de casi 2,000 personas, parecían respaldar esta idea y su P value (0.01) indicaba fuertes evidencias para su afirmación. Pero cuando él y su asesor, Brian Nosek, intentaron reproducir los mismos resultados con nuevos datos, el P value aumentó a 0.59, lo que implicaba que el resultado no era significativo. Esto significaba que los hallazgos de Motyl no podían ser replicados. El problema no estaba en los datos de Motyl o en su forma de analizarlos. En cambio, era el P value mismo el problema. Los P values no son tan confiables o imparciales como la mayoría de los científicos creen. Algunos estadísticos han sugerido incluso que la mayoría de los hallazgos publicados basados en P values podrían ser inexactos. Otra preocupación importante gira en torno a si otros científicos pueden encontrar resultados similares si repiten el mismo experimento. Si los resultados no pueden ser replicados, se cuestiona su validez. Esto ha llevado a muchos científicos a replantear cómo evalúan sus resultados, y a los estadísticos a buscar mejores formas de interpretar los datos. Los P values se han utilizado como medida de validez en la investigación científica durante casi 90 años, pero en realidad no son tan confiables como muchos investigadores piensan. A finales de la década de 1920, un estadístico británico llamado Ronald Fisher inventó el P value. Nunca pretendió que los P values fueran la última palabra sobre la significación de un hallazgo, sino más bien una forma rápida de ver si un resultado valía la pena investigar más. Aquí está el procedimiento para hacer un análisis de P value: Empiezas haciendo una "hipótesis nula", que predice ningún efecto o ninguna relación entre dos grupos. Luego, jugando al abogado del diablo, supondrías que esta hipótesis nula es verdadera y calcularías las probabilidades de obtener resultados similares o más extremos que los que mediste. Esta oportunidad es el P value. Si era pequeño, Fisher sugería que probablemente tu hipótesis nula estaba equivocada. Los rivales de Fisher llamaron a su método "peor que inútil". El matemático Jerzy Neyman y el estadístico Egon Pearson crearon su propia forma de analizar los datos, dejando de lado el P value. Pero mientras estos rivales estaban discutiendo, otros se cansaron de esperar y escribieron manuales sobre estadísticas para científicos en ejercicio. Estos autores no entendían completamente ninguno de los dos enfoques, por lo que crearon una mezcla de ambos. El P value fácil de calcular de Fisher se añadió al estricto procedimiento de Neyman y Pearson. Es entonces cuando un P value de 0.05 se aceptó como 'estadísticamente significativo'. Todo esto llevó a mucha confusión acerca de lo que realmente significa el P value. Por ejemplo, si obtienes un P value de 0.01 en un experimento, la mayoría de la gente piensa que esto significa que sólo hay un 1% de posibilidades de que tu resultado esté equivocado. Pero eso es incorrecto. El P value solo puede resumir los datos basados en una hipótesis nula específica. No puede profundizar y hacer afirmaciones sobre la realidad actual. Para hacer esto, necesitas otra pieza de información: las probabilidades de que un efecto real estuviera allí para empezar. De lo contrario, serías como alguien que tiene un dolor de cabeza y piensa que debe significar que tiene un tumor cerebral raro, incluso cuando es más probable que sea algo común como una alergia. Cuanto más improbable es la hipótesis, mayor es la probabilidad de que un hallazgo emocionante sea solo una falsa alarma, independientemente del P value. Según una "regla del pulgar", si tu P value es 0.01, hay al menos un 11% de posibilidades de una falsa alarma, y si tu P value es solo 0.05, la posibilidad de una falsa alarma aumenta hasta el 29%. Así, cuando Motyl hizo su investigación, había más de 1 en 10 posibilidades de que sus hallazgos no se replicaran. Y sólo había un 50% de posibilidades de obtener un resultado tan fuerte como en su experimento original. Otro problema con los P values es cómo pueden hacer que nos centremos demasiado en si existe un efecto, en lugar de en cuán grande es el efecto. Recientemente, hubo un estudio de 19,000 personas que encontró que las personas que conocieron a sus cónyuges en línea son menos propensas a divorciarse y más propensas a ser felices en su matrimonio que las que se conocieron fuera de línea. Esto podría sonar como un gran problema, pero el efecto fue realmente muy pequeño: conocerse en línea disminuyó la tasa de divorcio del 7.67% al 5.96%, y la felicidad sólo aumentó del 5.48''3: Conflictos y críticas en torno al valor P - Día 1: Estudia el debate entre Ronald Fisher y Karl Pearson sobre el uso de valores P - Día 2: Explora las críticas al valor P, incluyendo el sesgo de publicación - Día 3: Comprende el concepto de 'falso positivo' y discute cómo puede ser inflado por el uso del valor P - Día 4: Analiza los llamados a reformar la forma en que se usan los valores P, incluyendo la Iniciativa de Ciencia Rota - Día 5: Revisión y evaluación semanal

Semana 4: Alternativas al Valor P - Día 1: Aprende sobre el enfoque bayesiano, una alternativa al uso del valor P - Día 2: Analiza los conceptos de 'verosimilitud' y 'posterior' en el contexto del enfoque bayesiano - Día 3: Discute cómo el enfoque bayesiano puede ayudar a abordar algunas de las críticas al valor P - Día 4: Examina ejemplos de cómo los investigadores están comenzando a usar el enfoque bayesiano en lugar del valor P - Día 5: Revisión y evaluación semanal

Semana 5: Recapitulación y Evaluación - Día 1: Repasa todos los conceptos clave aprendidos sobre el valor P - Día 2: Repasa las críticas al valor P y las alternativas propuestas - Día 3: Prepara una presentación o un ensayo que demuestre tu comprensión del valor P y sus críticas - Día 4: Evalúa tus conocimientos y habilidades con una prueba y feedback - Día 5: Reflexiona sobre lo que has aprendido y discute cómo podrías aplicar estos conceptos en tu carrera o estudios futuros

Plan de estudios de Homeschool: Comprendiendo la Significancia Estadística

Semana 1: Introducción a los Valores P y Pruebas de Hipótesis - Día 1: Aprenda sobre Ronald Fisher y su introducción del valor P en la década de 1920 - Día 2: Discuta el propósito de los valores P y su papel en el análisis experimental - no como una prueba definitiva, sino como una medida informal de significancia - Día 3: Comprenda el concepto de 'hipótesis nula' y explique su proceso - Día 4: Revise cómo interpretar los valores P - Día 5: Revisión y evaluación semanal

Semana 2: Rivalidad Sobre el Uso de los Valores P - Día 1: Estudie las obras del matemático polaco Jerzy Neyman y el estadístico británico Egon Pearson - Día 2: Analice las diferencias entre la actitud de Fisher hacia los valores P y el marco alternativo de Neyman y Pearson - Día 3: Discuta cómo los valores P se integraron en el sistema riguroso y basado en reglas de Neyman y Pearson - Día 4: Comprenda el término 'estadísticamente significativo' y su relación con los valores P - Día 5: Revisión y evaluación semanal'' 3: Controversias en la Interpretación del P value - Día 1: Entender la confusión sobre los significados de P value - Día 2: Discutir conceptos erróneos comunes acerca de los P value usando el ejemplo del estudio de Motyl sobre los extremistas políticos - Día 3: Aprender por qué el P value solo no puede hacer declaraciones sobre la realidad subyacente y por qué requiere información adicional - Día 4: Discutir cómo interpretar correctamente los hallazgos de los P value - Día 5: Revisión y evaluación semanal Semana 4: Conclusión y Evaluación - Día 1: Revisar la historia y el desarrollo de los P value - Día 2: Prueba de conocimiento en la interpretación de P value y su papel en el análisis experimental - Día 3: Discutir los problemas relacionados con el mal uso de los P value y posibles soluciones - Día 4: Revisión final de todos los temas cubiertos - Día 5: Evaluación final Materiales para el Curso: Acceso a artículos académicos que detallan los trabajos de Fisher, Neyman y Pearson; ejemplos de estudios científicos que usan P value para el análisis; ejercicios para calcular e interpretar P value. Nota: Se anima a los estudiantes a cuestionar, analizar y pensar críticamente sobre la información presentada. Este currículo tiene como objetivo desarrollar no sólo el conocimiento sobre la significancia estadística sino también habilidades de pensamiento crítico y análisis. Título del Curso: "Entendiendo los Retos en la Investigación Irreproducible" Descripción del Curso: Este curso en casa tiene como objetivo educar a los padres y niños sobre los problemas que rodean la investigación irreproducible, centrándose en la interpretación y mal uso de los P-value, y cómo los sesgos pueden influir en los resultados científicos. Nivel: Avanzado (Escuela Secundaria) Duración: 6 Semanas Contenido del Curso: Semana 1: Introducción a la Estadística y la Reproducibilidad en la Investigación Lección 1: Entendiendo los Conceptos Básicos Estadísticos Lección 2: La Importancia de la Investigación Reproducible Actividad: Discusión sobre las implicaciones de la investigación irreproducible Semana 2: Entendiendo los P-Values Lección 1: ¿Qué es un P-Value? Lección 2: Probabilidad de Falsas Alarmas Actividad: Ejercicios de cálculo para entender los P-Values Semana 3: Criticando el Uso de los P-value Lección 1: Cómo los P-Values pueden Fomentar el Pensamiento Confuso Lección 2: Explorando el Tamaño Real de un Efecto Vs. P-Values Actividad: Análisis de Caso de Estudio - "El Efecto de Conocer a las Parejas Online en la Tasa de Divorcio" Semana 4: La Seductora Certeza de la Significancia Lección 1: Entendiendo la Seductora Certeza de la Significancia Lección 2: Determinando la Relevancia Práctica Vs. Significancia Estadística Actividad: Discusión sobre el impacto de las estadísticas malinterpretadas Semana 5: La Amenaza de P-Hacking Lección 1: Introducción a P-Hacking Lección 2: Entendiendo el concepto de Data-Dredging, Significance-Chasing y Double-Dipping Actividad: Análisis de ejemplos de P-Hacking Semana 6: El Mal Uso y Malentendido de los P-Values en la Investigación Lección 1: Explorando el Contexto Histórico del Uso de P-value Lección 2: Evaluando las mejores prácticas en análisis de datos Actividad: Revisión y discusión sobre estudios de investigación notables donde los P-values fueron mal utilizados Materiales Necesarios: - Calculadora de Estadística - Acceso a bases de datos en línea y referencias para el análisis de casos de estudio. Prerrequisito Recomendado: - Comprensión básica de probabilidad y estadísticas. Título: Un currículo de Conciencia Estadística para Padres que Educan en Casa Objetivo: Equipar a los padres con el conocimiento y las herramientas para facilitar la comprensión de sus hijos sobre estadística en el mundo de hoy saturado de investigación. Temas: 1. Introducción a la Importancia de la Estadística - Entender las razones de los errores en los datos y 'hacking' - El papel de la estadística en la investigación de la psicología 2. La Paradoja del P-Value - Entender los P value y su prevalencia en la investigación - Discutir cómo los P value influyen en la investigación y por qué pueden ser problemáticos 3. Historia de la Estadística en la Investigación - Mirando la influencia de Fisher, Neyman, y Pearson - Desempaquetando los pensamientos de John Campbell sobre P value 4. Cambiando Perspectivas en Estadística - Un examen de cómo las prácticas estadísticas han evolucionado con el tiempo - Discutiendo el resurgimiento de los P value a pesar de la crítica 5. Entendiendo la Estadística en el Mundo Moderno - Cómo entender e interpretar los P value en ejemplos de investigación de la vida real - Análisis de las críticas del actual marco estadístico 6. Llamadas para la Reforma Estadística - Explorando los cambios necesarios en la enseñanza, análisis e interpretación estadística - Discutiendo las implicaciones de los hallazgos falsos 7. Soluciones Propuestas para Problemas Estadísticos - Discutiendo la importancia de reportar los tamaños del efecto y los intervalos de confianza - Regla Bayesiana: entender y aplicar 8. Incorporando Múltiples Métodos - La importancia de emplear múltiples métodos de análisis en el mismo conjunto de datos - Ejemplos prácticos para demostrar la importancia de métodos diversos en estadística Métodos: Cada tema sería impartido durante una semana, permitiendo a los alumnos comprender completamente los conceptos. Los padres introducirían los conceptos usando sencillas hojas de trabajo y actividades interactivas. Las ayudas de enseñanza incluirían ejemplos de la vida real siempre que sea posible para proporcionar contexto. Se animaría a los niños a aplicar las lecciones aprendidas a situaciones cotidianas. Evaluación: Los padres evaluarían la comprensión de sus hijos a través de cuestionarios y pruebas de fin de semana. También tendrían discusiones con sus hijos para evaluar su comprensión. Currículo basado en texto: ¡Ciencia! Semana 1-2: Introducción a la Ciencia Sesión 1: Entendiendo la Importancia de la Ciencia Ejercicio: Discute la declaración "Obtén las historias más importantes de la ciencia del día, gratis en tu bandeja de entrada". ¿Cómo es relevante esto para nuestras vidas?''Sesión 2: Explorando diferentes ramas de la ciencia Actividad: Explora el sitio web 'Nature Briefing' (https://www.nature.com/briefing/signup/?brieferEntryPoint=MainBriefingBanner), lee diferentes artículos diariamente durante 1 semana, y anota descubrimientos interesantes. Sesión 3: Compartiendo Descubrimientos Actividad: Elige una historia de ciencia que te haya fascinado y comparte con la familia por qué te impactó. Semana 3-4: Ciencia Visual: Entendiendo SVG (Scalable Vector Graphics) Sesión 1: ¿Qué es SVG? Actividad: Investigación en línea y presentación sobre "¿Qué es SVG y cuáles son sus aplicaciones en la ciencia?" Sesión 2: Interpretación de los datos SVG Tarea de lectura: Interpretación de los datos SVG presentados para una imagen de ejemplo. Nota: Use los datos de ruta SVG dados en la tarea para interpretación. Sesión 3: Ciencia en gráficos visuales Práctica Actividad: Crea un gráfico SVG básico que represente un concepto científico. Semana 5-6: De la lectura a la escritura - Creando tu propio contenido de ciencia Sesión 1: Entendiendo cómo se escriben las historias de ciencia Actividad de lectura: Presta atención a los estilos de escritura en los artículos de 'Nature Briefing'. Anota la estructura, el tono, y el contenido. Sesión 2: Creando tu propia historia de ciencia Ejercicio de escritura: Basado en tus lecturas, crea tu propia mini historia o artículo de ciencia. Utiliza SVG si es posible. Sesión 3: Peer Review Actividad: Intercambia artículos con tus compañeros de curso / familia, lee su trabajo y proporciona retroalimentación constructiva. Por favor recuerda, este es tu viaje de educación en casa. Siéntete libre de adaptar y ajustar según sea necesario. Siempre enfócate en el aprendizaje y la exploración. ¡Diviértete!'

--------- Original ---------