Im groben. Er hat einen Artikel (paper) für eine wissenschaftliche Fachzeitschrift (Journal) geschrieben. Natürlich ein Journal mit peer-review Verfahren. Die Reviewer (Gutachter), die seinen Artikel begutachtet haben, kamen in der Summe zu dem Schluss seinen Artikel abzulehnen und somit weder die Möglichkeit auf eine Korrektur geschweige denn einer Veröffentlichung zu geben.
Das ist richtig.
Anscheinend ist es an der statistischen Analyse gescheitert.
Irgendwie so.
Es ist daran gescheitert, dass die Sache nicht funktioniert, wenn man sich mal überlegt: ist das sinnvoll, was wir hier machen. Im Wesentlichen baut in meinen Bereich jeder sein eigenes kleines Experiment nutzt _ein_ Machine-Learning-Model und sagt dann: "super, beste Ergebnisse!!!". Diesen Auftrag bekam ich auch und da ich leider nicht auf institutionelles Wissen zurückgreifen konnte, habe ich recht lange versucht, konsistent auf "super, beste Ergebnisse" zu kommen. Das hat nicht funktioniert, dann hab' ich mal die Daten von anderen Leuten eingesammelt und sieh' da, es ist egal, welches Modell man mit welchen Parametern verwendet, die besten "Ergebnisse" erzielt man, indem man die richtigen Daten einsetzt - was zu erwarten war, damit ist das ganze nicht besonders innovativ und nicht publizierbar... Das hindert andere Leute aber nicht daran, so etwa 1-2 mal im Monat mit neuen "super, beste Ergebnisse"-Dingen um die Ecke zu kommen, die im Wesentlichen alle null praktische Relevanz haben, daher hab' ich das halt auch mal aufgeschrieben, ist dann praktisch ein "Praxis"-Review (gab es tatsächlich zeitnah zur ersten Wildcard-Submission in einem vielzitierten Journal auch so ähnlich von besser vernetzten Leuten - außerdem muss man ja irgendwas aufschreiben)...
Mir ging es darum, dass ich seine Schreibweise sehr kompliziert finde.
(Eventuell lag es ja daran, dass es abgelehnt wurde).
Die ganze Sache nervt mich und eben nicht nur das Paper - daher war das im Anfang auch etwas verklausuliert. Wie einen Absatz weiter vorn angemerkt hat die ganze Sache so wie sie im Moment im Raum steht 0 praktische Relevanz, in den 5a, in denen da mehr Leute (und der kleine Lehrstuhl von uns) auf den Zug aufgesprungen sind, wurden die Modelle immer komplizierter, die Ergebnisse aber kaum besser (außer durch bessere Selektion der Randbedingungen). Von den eigentlichen "Zielen" ist man weit entfernt. An sich ja auch kein Problem, wenn man ehrlich an die Sache ran gehen würde und das ganze als "nettes Spielzeug" sieht und behandelt. Die geschürte Erwartungshaltung und die Verkaufsargumente der meisten Projekte (da gibt's ja auch Geld für) würde man aber im normalen Leben wohl einfach als ****** bezeichnen. Und bitte nicht falsch verstehen, das ist alles gut und wichtig, dafür Geld auszugeben, aber ob die Projekt- und Publikationsfokussierung nach der Professur wirklich effektiver ist, als einfach jedem Professor Summe X zu geben, bezweifle ich da ganz ehrlich.
Das würde genug Stoff für Keksbeiträge in diesem Thread liefern. Ich habe aktuell einen Artikel in der Pipeline der seit bald 8 Monaten hin- und herläuft zwischen den Reviewern und mir. Mal gucken was wieder für lustige Comments von denen nach ihrer Einsicht in meine neueste Revision kommen.
Hehe. Der eine sagt tatsächlich "aber Modell X ist besser dafür, das Experiment macht mit Modell C keinen Sinn" - kann nicht sein Ernst sein, denn derjenige, der vor 5 Monaten Modell X2 als Quellcode-Mod (kann man schön ein Patch rausextrahieren) von Modell X publiziert hat, hat auch einen Anhang, in dem er Modell C demonstriert, dass immer besser als Modell X ist und dass er dann in seinem Setting schlägt
. Der nächste kommt "die Modelle machen mit den Daten keinen Sinn" - hindert aber andere Leute nicht, das Modell auf handverlesenen (wörtlich: "reliable subset") Daten mit einer ähnlichen Distribution anzuwenden und zu behaupten, dass das jetzt der Durchbruch ist (peer review, publiziert, 12 Zitationen nach 3 Monaten). Aber ja, muss ich wohl ein etwas weniger erfolgsorientiertes Journal ausmachen.
Du darfst kein Wissenschaftler werden, sondern solltest selbst einen Verlag plus Journale gründen. Dann lässt man andere für sich forschen und Artikel schreiben, kassiert dafür noch das Geld ab, und macht sich eine gemütliche Zeit. Gleichzeitig hetzt man den Wissenschaftlern dumme Reviewer auf und lacht sich abends auf der Couch bei einem Glas Wein kaputt was man den Wissenschaftlern wieder lustiges eingebrockt hat.
Jo, 50% Umsatzrendite ahoi. Nachdem unser (sich in die Wirtschaft absetzende) Postdoc im Schwesterjournal einen Artikel veröffentlichen konnte, auf den man 50% der Kritikpunkte auch anwenden könnte, frage ich mich auch, ob es eine gute Idee war, andere Leute im Feld als Reviewer aufzuschreiben. Mindestens einer ist nämlich (von der Auswahl der "aber damit geht es besser"-Paper her) einer von denen, die ich einfach mal in die Kategorie gut vernetzter Scharlatan einordnen würde. Die schreiben ein Paper, tragen das auf Konferenzen rum, lassen es von 80-jährigen Koryphäen in Nature-Reviews schreiben und haben dann auf ihren Namen 100 Google-Scholar-Punkte (weil nur Arxiv) für ein Konzept, das seit 1995 verwendet wird...