Daunti
Urgestein
Amazon:
Man hat die Bestellung einfach vor dem Tor abgelegt (zur Firma meines Vaters geliefert)
Man hat die Bestellung einfach vor dem Tor abgelegt (zur Firma meines Vaters geliefert)
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Gerade einen Reject-Review von Leuten bekommen, die wohl immerhin damit arbeiten und nicht so begeistert von dem Ergebnis sind: es ist egal welches Spielzeug man verwendet, die funktionieren alle gleich schlecht... – bin ich auch nicht, aber wo sind die, wenn mal wieder jemand behauptet, das Spielzeug funktioniert prächtig (was ich lange und mein Professor leider noch länger geglaubt haben)...
Versteht das einer?
Im groben. Er hat einen Artikel (paper) für eine wissenschaftliche Fachzeitschrift (Journal) geschrieben. Natürlich ein Journal mit peer-review Verfahren. Die Reviewer (Gutachter), die seinen Artikel begutachtet haben, kamen in der Summe zu dem Schluss seinen Artikel abzulehnen und somit weder die Möglichkeit auf eine Korrektur geschweige denn einer Veröffentlichung zu geben.
Anscheinend ist es an der statistischen Analyse gescheitert.
Irgendwie so.
grundsätzlich ein komplizierter und nervtötender Akt...
nicht wasserdicht?Kaffee aufs Smartphone gekippt
Alles was auch nur minimal mit IT zu tun hat...Jetzt werd ich schon zum Dauergast hier...
Nach Preiserhöhungen von 10-15% zum Jahreswechsel kündigt der Lieferant weitere ~10% Erhöhung zu Mitte März an... nicht dass es schon schwer genug wäre überhaupt Material zu bekommen :/
PCB/EMS Branche wird witzig dieses Jahr.
Das ist richtig.Im groben. Er hat einen Artikel (paper) für eine wissenschaftliche Fachzeitschrift (Journal) geschrieben. Natürlich ein Journal mit peer-review Verfahren. Die Reviewer (Gutachter), die seinen Artikel begutachtet haben, kamen in der Summe zu dem Schluss seinen Artikel abzulehnen und somit weder die Möglichkeit auf eine Korrektur geschweige denn einer Veröffentlichung zu geben.
Es ist daran gescheitert, dass die Sache nicht funktioniert, wenn man sich mal überlegt: ist das sinnvoll, was wir hier machen. Im Wesentlichen baut in meinen Bereich jeder sein eigenes kleines Experiment nutzt _ein_ Machine-Learning-Model und sagt dann: "super, beste Ergebnisse!!!". Diesen Auftrag bekam ich auch und da ich leider nicht auf institutionelles Wissen zurückgreifen konnte, habe ich recht lange versucht, konsistent auf "super, beste Ergebnisse" zu kommen. Das hat nicht funktioniert, dann hab' ich mal die Daten von anderen Leuten eingesammelt und sieh' da, es ist egal, welches Modell man mit welchen Parametern verwendet, die besten "Ergebnisse" erzielt man, indem man die richtigen Daten einsetzt - was zu erwarten war, damit ist das ganze nicht besonders innovativ und nicht publizierbar... Das hindert andere Leute aber nicht daran, so etwa 1-2 mal im Monat mit neuen "super, beste Ergebnisse"-Dingen um die Ecke zu kommen, die im Wesentlichen alle null praktische Relevanz haben, daher hab' ich das halt auch mal aufgeschrieben, ist dann praktisch ein "Praxis"-Review (gab es tatsächlich zeitnah zur ersten Wildcard-Submission in einem vielzitierten Journal auch so ähnlich von besser vernetzten Leuten - außerdem muss man ja irgendwas aufschreiben)...Anscheinend ist es an der statistischen Analyse gescheitert.
Irgendwie so.
Die ganze Sache nervt mich und eben nicht nur das Paper - daher war das im Anfang auch etwas verklausuliert. Wie einen Absatz weiter vorn angemerkt hat die ganze Sache so wie sie im Moment im Raum steht 0 praktische Relevanz, in den 5a, in denen da mehr Leute (und der kleine Lehrstuhl von uns) auf den Zug aufgesprungen sind, wurden die Modelle immer komplizierter, die Ergebnisse aber kaum besser (außer durch bessere Selektion der Randbedingungen). Von den eigentlichen "Zielen" ist man weit entfernt. An sich ja auch kein Problem, wenn man ehrlich an die Sache ran gehen würde und das ganze als "nettes Spielzeug" sieht und behandelt. Die geschürte Erwartungshaltung und die Verkaufsargumente der meisten Projekte (da gibt's ja auch Geld für) würde man aber im normalen Leben wohl einfach als ****** bezeichnen. Und bitte nicht falsch verstehen, das ist alles gut und wichtig, dafür Geld auszugeben, aber ob die Projekt- und Publikationsfokussierung nach der Professur wirklich effektiver ist, als einfach jedem Professor Summe X zu geben, bezweifle ich da ganz ehrlich.Mir ging es darum, dass ich seine Schreibweise sehr kompliziert finde. (Eventuell lag es ja daran, dass es abgelehnt wurde).
Hehe. Der eine sagt tatsächlich "aber Modell X ist besser dafür, das Experiment macht mit Modell C keinen Sinn" - kann nicht sein Ernst sein, denn derjenige, der vor 5 Monaten Modell X2 als Quellcode-Mod (kann man schön ein Patch rausextrahieren) von Modell X publiziert hat, hat auch einen Anhang, in dem er Modell C demonstriert, dass immer besser als Modell X ist und dass er dann in seinem Setting schlägt . Der nächste kommt "die Modelle machen mit den Daten keinen Sinn" - hindert aber andere Leute nicht, das Modell auf handverlesenen (wörtlich: "reliable subset") Daten mit einer ähnlichen Distribution anzuwenden und zu behaupten, dass das jetzt der Durchbruch ist (peer review, publiziert, 12 Zitationen nach 3 Monaten). Aber ja, muss ich wohl ein etwas weniger erfolgsorientiertes Journal ausmachen.Das würde genug Stoff für Keksbeiträge in diesem Thread liefern. Ich habe aktuell einen Artikel in der Pipeline der seit bald 8 Monaten hin- und herläuft zwischen den Reviewern und mir. Mal gucken was wieder für lustige Comments von denen nach ihrer Einsicht in meine neueste Revision kommen.
Jo, 50% Umsatzrendite ahoi. Nachdem unser (sich in die Wirtschaft absetzende) Postdoc im Schwesterjournal einen Artikel veröffentlichen konnte, auf den man 50% der Kritikpunkte auch anwenden könnte, frage ich mich auch, ob es eine gute Idee war, andere Leute im Feld als Reviewer aufzuschreiben. Mindestens einer ist nämlich (von der Auswahl der "aber damit geht es besser"-Paper her) einer von denen, die ich einfach mal in die Kategorie gut vernetzter Scharlatan einordnen würde. Die schreiben ein Paper, tragen das auf Konferenzen rum, lassen es von 80-jährigen Koryphäen in Nature-Reviews schreiben und haben dann auf ihren Namen 100 Google-Scholar-Punkte (weil nur Arxiv) für ein Konzept, das seit 1995 verwendet wird...Du darfst kein Wissenschaftler werden, sondern solltest selbst einen Verlag plus Journale gründen. Dann lässt man andere für sich forschen und Artikel schreiben, kassiert dafür noch das Geld ab, und macht sich eine gemütliche Zeit. Gleichzeitig hetzt man den Wissenschaftlern dumme Reviewer auf und lacht sich abends auf der Couch bei einem Glas Wein kaputt was man den Wissenschaftlern wieder lustiges eingebrockt hat.
Man merkt, du bist tief in deinem Fachbereich drin. Ausschnitte versteht man, aber längst nicht alles.
Aber das Kernproblem, die Qualität der Daten muss stimmen, hat man im Machine Learning ja generell.
Und ich dachte immer, dass das in der Wissenschaft als solches anwendbar ist. Das man diese Erkenntnis extra betonen muss für MAschine Learning...Aber das Kernproblem, die Qualität der Daten muss stimmen, hat man im Machine Learning ja generell.
Jo, 50% Umsatzrendite ahoi. ...
Scheinbar ja schon.Und ich dachte immer, dass das in der Wissenschaft als solches anwendbar ist. Das man diese Erkenntnis extra betonen muss für MAschine Learning...
Naja, die "Qualität" der Daten ist jetzt nicht das Problem, die Zusammensetzung variiert halt sehr stark und prinzipiell kann man das ganze ja auch einfach auf den vorhandenen großen Datensätzen laufen lassen, dann interessiert es nur niemanden (außer der Community, die dort Benchmarks macht...), weil die Resultate keine verkaufbaren Zahlen bieten. Das heißt i.d.R. beginnen die Leute dann Daten-Cherry-Picking um bessere Modelle zu machen, was sich imho nicht nur bescheuert anhört... (und daneben ist anzumerken, dass die großen Datensätze das in geringerem Maße auch schon zu Beginn tun, das liegt aber an der Natur der Sache...)Man merkt, du bist tief in deinem Fachbereich drin. Ausschnitte versteht man, aber längst nicht alles.
Aber das Kernproblem, die Qualität der Daten muss stimmen, hat man im Machine Learning ja generell.
Deshalb habe ich versucht mein Problem als Spielzeug zu verpacken . Ich und andere spielen damit, praktischer Nutzen bis jetzt nicht gegeben.Ich hab während meines Studiums mit vielen wissenschaftlichen Mitarbeitern zusammen gearbeitet an Instituten. Ein kleiner Teil wird, so wie man es schön sagt, zu richtigen Fachidioten. Die können teilweise einfachste Sachen nicht mehr unkompliziert erklären oder reden so, als wenn das alles "Common-Knowledge" wäre. ^^
Naja, ... mein Eindruck ist, dass die Leute im Wesentlichen eine Story wollen. Gut zu sehen an einem anderen Projekt: "Kannst du XY für das neue Projekt simulieren" - "Ja" - <sehe mir das inspirationspaper an, spreche mit dem zuständigen postdoc> - "das sind schöne Bildchen, die die da zeigen, aber so richtig was zum Experiment trägt das nicht bei?" - "ja" - "irgendwie blöd" - "ach was, das haben die so gemacht, dann machen wir das auch so, können ja die zitieren"... Im Wesentlichen ist so was für mich auch nix anderes als Fake-News-Produktion.Und ich dachte immer, dass das in der Wissenschaft als solches anwendbar ist. Das man diese Erkenntnis extra betonen muss für MAschine Learning...
https://de.wikipedia.org/wiki/Elsevier zumindest hier nur 40%. Ich denke, da versickert schon auch noch genug .Sind das im Mittel über die Journale hinweg nur 50%? Mein aktueller Artikel kostet, sofern er denn endlich angenommen wird, über 14.000€ (Überlänge; jede Seite Extra knapp 500€). Ohne Vertrag mit meiner Uni müsste ich das selber zahlen, was ich ohnehin nicht tun würde. Die machen schon in Relation zu ihren Kosten schon richtig fetten Umsatz und Gewinn. Das ist inzwischen schon Abzocke; aber ich will hier kein Thema starten...
Wissenschaft ist ein Schlagwort, davon sollte sich niemand blenden lassen. Die Diskussionen mit Reviewern sind manchmal genauso affig wie Diskussionen in Foren. Das Niveau mag zwar oftmals gehobener scheinen, inhaltlich ist das aber der gleiche Quatsch. Je nachdem in welchen Bereich man schreibt und welche Themen man behandelt kann man Pech haben und doofe Reviewer bekommen die eigentlich gar nicht verstehen was man geschrieben hat. Die picken sich dann einen oder zwei Aspekte raus, irgendwelche Begriffe die sie verstehen, und reiten darauf rum.Und ich dachte immer, dass das in der Wissenschaft als solches anwendbar ist. Das man diese Erkenntnis extra betonen muss für MAschine Learning...
Das ist eben die Businessseite der Wissenschaft. Man schaut welche hot topics gerade in den guten Journal angesagt sind und dann werden dazu ebenfalls Papers gemacht damit man auch reinkommt. Und wenn das jeweilige Thema out ist nimmt kein Journal mehr Papers dazu an, egal wie gut das Paper ist. Marketing, Business, etc. eben. Soweit dass die Journale damit indirekt schon Trends vorgeben sind wir ja schon. Völlig normal und leider ist das heute so. Geht mir auch mega auf den Keks dieser ganze Scheiss.Naja, ... mein Eindruck ist, dass die Leute im Wesentlichen eine Story wollen. Gut zu sehen an einem anderen Projekt: "Kannst du XY für das neue Projekt simulieren" - "Ja" - <sehe mir das inspirationspaper an, spreche mit dem zuständigen postdoc> - "das sind schöne Bildchen, die die da zeigen, aber so richtig was zum Experiment trägt das nicht bei?" - "ja" - "irgendwie blöd" - "ach was, das haben die so gemacht, dann machen wir das auch so, können ja die zitieren"... Im Wesentlichen ist so was für mich auch nix anderes als Fake-News-Produktion.
Versuche mal unter den Reglern die Option: "Vorherige DSL-Version verwenden". Bei mir hat es das Problem mit den Reconnects gelöst.Die regler stehen in der mitte aber auch wenn ich die nach links stelle keine besserung
Habe seit gestern abend schon 5 reconnects gehabt