Dann ist publizieren mitunter auch politisch beeinflusst. Aktuelle Trends, Paradigmen... Dein Artikel kann toll sein wird aber trotzdem abgelehnt weil der Reviewer aus einem anderen Lager als du kommst...
Der Punkt ist lustig, genau das hat einer aus seinem Auslandsaufenthalt mitgebracht: (der dortige Gruppenleiter) "is it from a chinese guy?" - "yes" - "forget it". Im wesentlichen läuft das imho zur Zeit alles immer mehr (und zwar auch und besonders in den Naturwissenschaften) über Credentialism, was im Wesentlichen dem Status von vor 300a entspricht...
Offen debattiert wird darüber nicht (wie über so vieles heute) – im Wesentlichen führt das aber dazu, dass bspw. bei den Double-Blind-Reviews (die ja i.d.R. nur bei ML-Konferenzen Usus sind) Google-Mitarbeiter über Google-Mitarbeiter urteilen und selbst wenn die 3x Weak-Reject reinwerfen, kommt der Chair (der sehr wohl weiß, wer das ist) und sagt: "accepted for novelty". Diese "Paper" wurden bis dahin (arxiv-Citations sei dank) schon 40mal zitiert und wenn man sie mal anschaut, ist es halt bullshit... Steht aber Google drauf und die können ML.
In dem ganzen Bullshitbingo haben es dann neue Ideen von Unbekannten Leute nochmal schwerer, weil sie halt im Misthaufen publiziert werden, bei meinem Thema z.B. zwischen sowas (sci-hub.tw ist euer Freund):
https://pubs.rsc.org/en/content/articlelanding/2020/ce/d0ce00928h/unauth#!divAbstract
https://chemistry-europe.onlinelibrary.wiley.com/doi/abs/10.1002/slct.202002532
https://link.springer.com/article/10.1007/s00269-020-01108-4 + 5-10 weitere ähnliche
Als Nichtinsider einfach mal den Abstract, die Methods und die Conclusion durchlesen. Praktisch weiß ich nicht, ob das alles gefaked ist (verstehe nicht was sie tun. Sollte eigentlich auch dem Reviewer auffallen...), die Strategie war wohl, ihre Methode auf bestehende (shitty) Studien und deren Daten (die sie dann einfach aus deren SI in Ihren Hauptteil genommen haben...) anzuwenden. Dabei geht eigentlich nicht hervor, dass sie einfach die ganze Datensammelei den bestehenden Papern überlassen haben, es wird schön so getan, als hätten sie die Datenpunkte alle selbst zusammengesucht. Das Ergebnis (falls ok) ist halt grundsätzlich was, wie es auch bei einer Doktorarbeit rauskommen kann (für 3 Monate Arbeit für ein totes Ende), da man heute publizieren muss, wandert das dann eben in solche Journals... Grundsätzlich auch interessant, aber wenn Leute halt das oben 10-12 in Journals einreichen und sich dann selbst zitieren, findet halt niemand mehr wirkliche neue Ergebnisse...
Und nun zu Journals mit Impact:
https://pubs.acs.org/doi/abs/10.1021/acscatal.9b01985 → Ergebnis: SVR funktioniert besser als ihre ANNs, aber trotzdem ist da ein neuronales Netz abgebildet. Und es wird von AI gesprochen. Funktioniert iwas: ne. Stattdessen ein SI mit ihrem Jupyter-Notebook als PDF..
https://pubs.acs.org/doi/10.1021/acs.chemmater.0c02290 → sie trainieren Ihre ML-Modelle mal wieder mit 300 Samples, weil das ja so aussagekräftig ist. (gut, mach' ich auch, weil man das halt so macht). Dann liest man mal weiter: "results on the reliable subset". Aha, da wird cherrypicking betrieben und dann hat man ein gutes Modell. Yes...
Kommt alles daher, dass a) die meisten Experimentalisten gut im ausdauernd Zeug zusammenschütten sind, Mathe 1-3 aber vergessen haben, bzw. als Chemiker mglw. nie hatten... b) viele "computational" Leute (including me und mein Prof) keinen Bock haben, dicke Bretter zu bohren, weil man da halt 3a für 1 Paper braucht, wenn man das nicht schon länger macht. Die letzteren springen dann auf jeden low-effort-Zug auf (im Moment ist das halt alles, wo man ML draufschreibt, früher waren das iwelche Tight-Binding-Sachen - davor DFT, davor wohl gute Arbeit), damit man dann damit Impact hat , muss man aber auch so publizieren, dass es auch die Gruppe a) kapiert. Also braucht man einfache, exakte Resultate. Ob das Sinne macht. Egal. Einfach drüberschreiben "The machine learning models exhibit a decent prediction precision" obwohl man genau nix "predicted" hat. Aber hey.