Studien sollen Fragen beantworten, deren Antwort wir bisher nicht kennen.
Studien sollen Belege für bereits bestehende Überzeugungen liefern.
Gängiges vorgehen: p < 0,05 gilt als "statistisch signifikant."
Bedeutet unter Idealbedingungen: Bei 20 Studien zu nichtexistenten Effekten ein positives Resultat.
Higgs-Boson: 5 sigma
In p-Value umgerechnet: 0.0000003
p<0,05 - gut genug?
Nach 20 Studien kann es zu einem falsch-positiven Ergebnis kommen - klingt erstmal nicht so schlecht.
Studien mit negativem Ergebnis werden meistens nicht publiziert!
Was in der wissenschaftlichen Literatur auftaucht ist nur ein Bruchteil dessen was tatsächlich durchgeführt wird.
Studien werden *vor* ihrer Durchführung in einem öffentlichen Verzeichnis eingetragen.
"Verschwindenlassen" von Studien kann entdeckt werden.
Bei Medikamentenstudien sind Studienregister inzwischen meistens (theoretisch) vorgeschrieben und müssen auch publiziert werden.
Publizierte Studien stimmen nicht mit Preregistrierung überein.
Preregistrierung bei Medikamentenstudien funktioniert mittelmäßig.
Dabei aber bedenken: In vielen wissenschaftlichen Bereichen wird das Problem "Publication Bias" schlicht ignoriert.
Idee geht noch etwas weiter als Preregistrierung.
Vor der Studie wird ein Studiendesign ("Registered Report") publiziert und bei einem Journal zum Peer Review eingereicht.
Journal entscheidet *vor* Durchführung der Studie, ob sie publiziert wird.
Bei der Analyse von Daten gibt es immer kleine Entscheidungen, die Einfluss auf das Ergebnis haben ("degrees of freedom").
Wissenschaftler können - oft unbewußt - immer die Entscheidung wählen, die zu einem gewünschten Ergebnis führt - und damit oft gerade so die Signifikanzschwelle überschreiten.
Was bedeutet das?
Bem played by the implicit rules that guide academic publishing. In fact, Bem presented many more studies than would usually be required. It would therefore be mistaken to interpret our assessment of the Bem experiments as an attack on research of unlikely phenomena; instead, our assessment suggests that something is deeply wrong with the way experimental psychologists design their studies and report their statistical results.
Nur 39 von 100 Studien konnten bestätigt werden.
Viele Effekte in der Psychologie, die als etabliert galten, wurden durch Replikationen in Frage gestellt (z.B. Social Priming).
2012: Amgen publiziert Kommentar in Nature, dass in firmeninternen Studien nur 6 von 53 wichtigen Papers repliziert werden konnten.
Ähnliche Aussagen von anderen Pharmafirmen (Bayer).
Replikationen wurden zunächst nicht veröffentlicht, später nur 3 Studien.
Resultate teilweise publiziert, in mehreren Fällen konnten die Studien nicht nachvollzogen werden.
Einzelstudien sollte man generell nicht als Belege, sondern höchstens als Hinweise sehen.
(Ausnahmen sind nur sehr große Studien mit überdurchschnittlich guter Methodik.)
Preregistrierung ist ein wichtiges Merkmal für hochwertige Studien.
(Aber in vielen Fachgebieten völlig unbekannt.)
Eine (proprietäre) Maßeinheit, wie häufig ein Journal zitiert wird.
Publikation in "High Impact Factor"-Fachzeitschriften gilt als Erfolg.
Der Impact Factor misst die Beliebtheit einer Studie, nicht die Qualität.
Anreiz zu: Spektakulären Ergebnissen, Medienresonanz, Kontroversen.
Kein Anreiz für: Komplexe, schwer interpretierbare Ergebnisse, publikation negativer Resultate.
Tatsächlich gibt es dafür einige Belege.