Ein kleiner Skylake will hoch hinaus: Der Intel Core i3-9350K im Test

0 Fakten, 100% Polemik.....
Für dich brauche ich keine Fakten und auch keine Polemik. Du disqualifizierst dich doch ständig selber. Wie immer, bist du sowohl inhaltlich, als auch intellektuell anspruchslos. Deine ständigen Attacken gegen mich, die nur deine Unzulänglichkeit unter Beweis stellt, belustigen mich.

Ich zitiere Andreas Stegmüller, der den Test zum 3800X gemacht hat:
Wie es dazu kam, habe ich oben schon geschrieben, was aber nun die Sachlage ist, kommt jetzt:
Die Ergebnisse des 3800X waren in den Diagrammen tatsächlich (teilweise) falsch – ein paar Werte wurden schlichtweg falsch berechnet. Das war eine Mischung aus meiner eigenen Blödheit, kombiniert mit der Anwendung eines fehlerhaften Skripts. Ich habe die Spiele-Diagramme nun händisch überarbeitet und korrigiert. Auch der eine Wert zum 2600 ist nun richtig. Hier wurden Millisekunden und nicht FPS ausgegeben, daher die deutliche Abweichung zu den anderen Werten. Das muss ich die Tage auch für bestehende Artikel anpassen.
Was ich noch deutlich sagen möchte: Die falschen Werte der 99th Percentile haben keinerlei Auswertung auf die Bewertung des Ryzen 7 3800X oder das Testergebnis. Zum einen weil die Messungen stets korrekt waren, zum anderen weil die Bewertung ohnehin anhand der internen Testdatenbank erfolgte und nicht anhand der Diagramme.

AMD Ryzen 7 3800X im Test: Ein hungriger Lückenfüller - Seite 4
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wollte auch meinen Senf dazugeben, aber es wurde bereits alles gesagt.
 
Für dich brauche ich keine Fakten und auch keine Polemik. Du disqualifizierst dich doch ständig selber. Wie immer, bist du sowohl inhaltlich, als auch intellektuell anspruchslos. Deine ständigen Attacken gegen mich, die nur deine Unzulänglichkeit unter Beweis stellt, belustigen mich.

Ich zitiere Andreas Stegmüller, der den Test zum 3800X gemacht hat:
Wie es dazu kam, habe ich oben schon geschrieben, was aber nun die Sachlage ist, kommt jetzt:
Die Ergebnisse des 3800X waren in den Diagrammen tatsächlich (teilweise) falsch – ein paar Werte wurden schlichtweg falsch berechnet. Das war eine Mischung aus meiner eigenen Blödheit, kombiniert mit der Anwendung eines fehlerhaften Skripts. Ich habe die Spiele-Diagramme nun händisch überarbeitet und korrigiert. Auch der eine Wert zum 2600 ist nun richtig. Hier wurden Millisekunden und nicht FPS ausgegeben, daher die deutliche Abweichung zu den anderen Werten. Das muss ich die Tage auch für bestehende Artikel anpassen.
Was ich noch deutlich sagen möchte: Die falschen Werte der 99th Percentile haben keinerlei Auswertung auf die Bewertung des Ryzen 7 3800X oder das Testergebnis. Zum einen weil die Messungen stets korrekt waren, zum anderen weil die Bewertung ohnehin anhand der internen Testdatenbank erfolgte und nicht anhand der Diagramme.

AMD Ryzen 7 3800X im Test: Ein hungriger Lückenfüller - Seite 4
Joa, was haben seine Aussagen mit deinen zu tun ?
Er hat begriffen das sich ein Fehler eingeschlichen hat, du nicht. Die Angaben sind aber in FPS, nicht Frametimes in ms oder deine "Miniframes" was auch immer das sein soll. Du sprachst deswegen dem kompletten Test die Legitimation ab.
Glaube auch nicht das Andreas gesehen hat wie du dich unter dem Ryzen 3800X artikuliert hast, deshalb solltest du intellektuell auch nicht so inflationär verwenden.
 
Preislich vollkommen unattraktiv. Teure CPU, die eine teure Z-Platine benötigt.

Wie kommst du darauf, das der i3 9350K eine Z-Platine benötigt?

Unabhängig davon fällt mir zu dem Preis allerdings auch kein Grund ein diese CPU zu kaufen.. den Ryzen 2600 kriegt man mittlerweile für 100€.
 
Die falschen Frametimes des 2600, 3600 und 3800X wurden ausgebessert. Man fühlte sich aber nicht dazu berufen dies hier zu kommunizieren.

Zum Test. Zwar bringt mehr Takt etwas mehr Average Frames, die Frametimes bleiben trotzdem weiterhin niedrig und erhöhen sich nicht. Viel zu teuer das Teil. Nach meiner Meinung wäre der Kauf solch einer CPU ein Fehlkauf.
 
Zuletzt bearbeitet:
Das Problem bei den Frametimes ist aber, dass diese 99th Percentile nur ungenügend darstellen. Die sind es aber, die für das lästige "Mikroruckeln" verantwortlich sind, das nur ab und zu auftritt. Igor's 3950X-Video nimmt sich dieser Problematik hervorragend an:
Der Dampfhammer: AMD Ryzen 9 3950 X Benchmark Session - Workstation, Gaming-Details und Computing - YouTube

Alleine durch seine Einstellung zum Spielebenchmark - 1920x1080 Lowest possible Settings - disqualifiziert sich der Test. Alles was die CPU belastet kurzerhand mal abgeschalten :wall:
 
Zuletzt bearbeitet:
Alleine durch seine Einstellung zum Spielebenchmark - 1920x1080 Lowest possible Settings - disqualifiziert sich der Test. Alles was die CPU belastet kurzerhand mal abgeschalten :wall:

Ich nehme an, Du hast im Video gar nicht richtig zugehört bzw. das betreffende Review auf meiner Seite gar nicht nicht gelesen. Der Spielebenchmark dient EXEMPLARISCH als Einleitung zu dem, was sich nachher bei den Workstations ergibt.
Und diese Programme laufen Full-HD oder weit derüber hinaus und nutzen nicht das Geraffel, was in Spieleengines so fröhlich noch mit reingestopft wurde.
AA macht immer noch die GPU. ist also komplett irrelevant. Das Lustige ist, dass 720p eine sinnlose Phrasendrescherei ist, wenn man die Zusammenhänge außer Acht lässt. Pauschal funktioniert das nicht, das muss man von Fall zu Fall austesten.

- Man nimmt die schnellste CPU und testet die Settings so, dass gerade noch nichts ins Limit rennt. Und zwar exakt an der Stelle mit der höchsten Last, nicht im Durchschnitt
- Ich messe diese Werke an einer speziellen Teststation, die auch alle systemrelavanten Sensoren und Leistungsaufnahmen mit erfasst. Zusammen mit den Low-Level-Frames.
- Man nimmt die schnellste GPU und testet die Settings so, dass ebenfalls nichts limitiert
- Danach nimmt man die langsamste CPU und macht einen Plausibilitätstest
- Dann erst lässt man die Benchmarks laufen

Breakpoint ist nichts, dessen Settings so brutal auf die CPU durchschlagen, als dass man sie maximieren müsste. Ich wüsste keine der Funktionen, die ich Inventor 2020 Pro wiederfinden könnte. Generell bin ich wohl einer der wenigen, die überhaupt Prozessorlast, Threadauslastung, Leistungsaufnahme und Varianzen testen, BEVOR ich mich für ein finales Setting entscheide. Gegen 720p sprechen übrigens in diesem KONKRETEN Fall auch die FPS, die auf 720p mit max. Settings jenseits der 300 gelegen hätten. Ich möchte nicht den Durchsatz vom Motherboard mit im Ergebnis wiederfinden.

Exemplarisch, damit Du mal siehst, was ich vorher für einen Aufwand betreibe, um z.B. auch Settings festzulegen:

Station.jpg
 
Zuletzt bearbeitet:
Die Antwort auf @fortunes bezog sich allein auf deinen Test zu Breakpoint. Wenn ich eine CPU teste streiche ich doch nicht alles was die CPU belastet. Was Du mit deinen lowest Settings gemacht hast.
Alleine die Weitsicht lässt manche CPU einbrechen. AA/AO etc. kann man ja ausmachen, da das reine GPU Angelegenheit ist.

Als wir damals Shadow of the Tomb Raider verglichen haben, hat es schon gereicht das Preset von hoch auf ultra hoch zu erhöhen um die CPU FPS erheblich einbrechen zu lassen. Weil sich eben unter anderem die Weitsicht dadurch erhöht hat. Mein R9 3900X kann da auf hoch auch mit meinem i9 7920X mithalten. Auf ultra macht der i9 den R9 aber sowas von nass.

Meine Meinung bleibt auf alle Fälle, daß CPU Vergleiche im Low Preset keine Aussage haben.
 
Zuletzt bearbeitet:
Lies bitte meinen Post noch einmal und versuche zu verstehen, dass ich das vorher alles ausgetestet habe. Und zwar im Hinblick auf das, was dann als Test folgt.
SotTR ist komplett anders, da mag das ja durchaus zutreffen. Aber auch das fällt beim Vorab-Test ja auf. Aber einfach zu sagen, pauschal 720p auf max geht bei allen Spielen gleich gut, ist Tellererand-limitiert.
Das Spiel steht exemplarisch für DirectX11 (Autodesk) und es lässt sich fast 1:1 auch auf OpenGL übertragen. Gaming interessiert mich als solches im Review übrigens nicht.

Im Umkehrschluss kann ich mit Tests, die nicht mal Perzentile pro FPS auswerten und die Frame Time sowie die Varianzen nicht mal prozentual aufschlüsseln (oder als interpolierte/extrapolierte Kurve mit gleicher Achslänge ausgeben), überhaupt nichts anfangen. Was ist daran so schwer? Mathe Klasse 8 reicht da schon.
Eine Sekunde als Intervall für eine Beurteilung ist zudem komplett ungeeignet. Wenn man keine geeigneten Daten hat, nützen die 720p auch nichts. ;)


Kleiner Nachtrag:
Der 9900K(S) kackt erst recht ab (Varianzen), wenn man die Settings hochdreht. Diese Spikes sind echt eklig.
 
Zuletzt bearbeitet:
Kleiner Nachtrag:
Der 9900K(S) kackt erst recht ab (Varianzen), wenn man die Settings hochdreht. Diese Spikes sind echt eklig.

Genau das wollen wir aber sehen. Mir ist es egal ob Intel oder AMD vorne ist.
Ich verfolge seit Jahren deine Reviews, besonders dein Aufwand zur Leistungsaufnahme, egal ob CPU oder GPU, wird wohl in Deutschland einzigartig sein. Da kommen keine geschönten/schön Wetter Tests.
Warum also hier. Wenn der i9 9900KS bei ansprechenden/hohen Settings einbricht, sollte das auch genannt werden.
 
Die Expertise bewegt sich auf dem Niveau Handcreme, YouTube und auch mal selber CB Bench und das eigene Spiel. Das amtliche Siegel von CB, PCGH und möglicherweise noch Computer Bild.
Für aufwendige Analysen reichen die eigenen Kenntnisse nicht mehr aus, man müsste sich damit Tage, oder Wochen beschäftigen um das zu verstehen.
Außerdem darf es nicht sein, dass die eigene Kaufentscheidung ins negative Licht gerückt wird.
Solange Leute glauben, wird der Glaube der einzige und Wahre Fakt. Wissen wollen nur die wenigsten, es kostet ja auch Zeit und eine nötige Kapazität an Gehirnwindungen.

Für die Masse ist es wichtig zu glauben, dass wenn ihre CPU in 720p die meisten Average Frames hat, dann werden sie in allen anderen Spielen fünf Jahre später immer noch tolle Frames in 720p haben. Zudem ist es die einfachste Lösung für die Masse, tolle Tabellen mit dem geringsten Aufwand zu erstellen.
Wir sind nämlich hier in einem Bereich, indem für die Masse anspruchslose Tests völlig genügen. Denn Zocken und Idle, YouTube und PCGH Expertise ist nun eben der Löwenanteil.
 
Zuletzt bearbeitet:
Genau das wollen wir aber sehen. Mir ist es egal ob Intel oder AMD vorne ist.
Ich verfolge seit Jahren deine Reviews, besonders dein Aufwand zur Leistungsaufnahme, egal ob CPU oder GPU, wird wohl in Deutschland einzigartig sein. Da kommen keine geschönten/schön Wetter Tests.
Warum also hier. Wenn der i9 9900KS bei ansprechenden/hohen Settings einbricht, sollte das auch genannt werden.
Weil es ab einer gewissen Stelle für den User bereits irrelevant ist. Man kann das sogar in jedes Extrem treiben, das man gern hätte, um A oder I fertig zu machen. ohne das jemand Verdacht schöpft, man könne parteiisch sein. Aber der Realitätsbezug geht dann schon gegen null und genau da wird es schon wieder fragwürdig. Das Problem ist, dass auch dies niemand verstehen wird oder will und jeder nur mit meinen unkommentierten Folien daherkommt, um irgendetwas zu beweisen. Genau das werde ich auch in Zukunft vermeiden, weil diese Messungen viel zu komplex sind und zu viel Verständnis voraussetzen. Vielleicht beginne ich damit, wenn andere seiten endlich mal anfangen, Perzentile und Varianzen im Detail so aufzulisten, wie man es eigentlich bräuchte. Dann setze ich gern wieder einen obendrauf ;)

@DTX xx: Amen :)
 
Weil es ab einer gewissen Stelle für den User bereits irrelevant ist. Man kann das sogar in jedes Extrem treiben, das man gern hätte, um A oder I fertig zu machen. ohne das jemand Verdacht schöpft, man könne parteiisch sein. Aber der Realitätsbezug geht dann schon gegen null und genau da wird es schon wieder fragwürdig. Das Problem ist, dass auch dies niemand verstehen wird oder will und jeder nur mit meinen unkommentierten Folien daherkommt, um irgendetwas zu beweisen. Genau das werde ich auch in Zukunft vermeiden, weil diese Messungen viel zu komplex sind und zu viel Verständnis voraussetzen. Vielleicht beginne ich damit, wenn andere seiten endlich mal anfangen, Perzentile und Varianzen im Detail so aufzulisten, wie man es eigentlich bräuchte. Dann setze ich gern wieder einen obendrauf ;)

@DTX xx: Amen :)

Hey Igor, danke erstmal für dein Test, dein Test war ja ein Stock VS Stock Test im hauptmerkmal Workstation. Wie schlägt sich den dein 9980XE mit Takt OC und Mesh OC gegen den Ryzen 3950X ? Du kannst ja bei X299 jeden Kern einzel Spannung und Takt geben und dir so gesehen die besten Kerne der 18 raussuchen. Hast du das mal getestet ? Würde mich sehr interessieren um wie viel % sich dann die Ergebnisse ändern ? Der Ryzen läuft ja Stock werkseitig Übertaktet ja schon auf anschlag, der 9980XE hat ja aber noch gut Luft nach oben. Mir geht es da rein um Leistung und nicht um Stromeffizienz.
 
Zuletzt bearbeitet:
Hey Igor, danke erstmal für dein Test, dein Test war ja ein Stock VS Stock Test im hauptmerkmal Workstation. Wie schlägt sich den dein 9980XE mit Takt OC und Mesh OC gegen den Ryzen 3950X ? Du kannst ja bei X299 jeden Kern einzel Spannung und Takt geben und dir so gesehen die besten Kerne der 18 raussuchen. Hast du das mal getestet ? Würde mich sehr interessieren um wie viel % sich dann die Ergebnisse ändern ? Der Ryzen läuft ja Stock werkseitig Übertaktet ja schon auf anschlag, der 9980XE hat ja aber noch gut Luft nach oben. Mir geht es da rein um Leistung und nicht um Stromeffizienz.
Ich betreibe den 9980XE immer Stock in der WS, den 9960X jedoch auch schon mal mit OC. RAM OC bringt bei Spielen sicher noch Einiges, Mesh ist eine elende Krücke, beim HPC eher weniger. Ich übertakte ja auch nie mit Multiplikator, sondern nur über den individuellen Turbo-Core + angepasste Spannung, weil es die CPU kühler und stabiler laufen lässt. Man braucht aber schon 4.6 GHz um signifikant zuzulegen und ab 4.8 GHz geht die Post ab. Leider auch an der Steckdose. Indiskutabel, leider. Den Ryzen 3950X habe ich, wie die Intels auch, ohne Motherboard-Cheat-OC betrieben. Also default Settings weg und die ganzen zusätzlichen Boost-Hilfen mal deaktiviert wie es sich gehört. Der Ryzen könnte nämlich auch noch schneller. Vor allem beim RAM. Da geht noch richtig was, während auf dem X299 nichts mehr so recht skalieren mag.
 
TDP ist interessant.
Was kann der 9350K, was der 3570K nicht kann?

Achja, Wixvorlage für gealterte, nun ausstudierte Kiddies sein.
Der durchschnittliche Gamer aus 2019 ist doch das, was 1999 der letzte Kacknoob war.

Aber warum auch nicht?
Wir sind ja immerhin am freien Markt. Und wenn die Leute den Mist kaufen wollen, dann sollen sie ihn doch kaufen.
 
Zuletzt bearbeitet:
Also mit dem R5 2600x, dem R5 3600 oder dem i5 9400/9500 aus eigenem Haus in den Preisregionen ist das Ding doch mal ein Abfallprodukt, definitiv
 
Das Ergebnis für den 3400G kann nicht stimmen.
The Division 2 2.560 x 1.440 Frametimes können niemals höher sein als Average Frames.

Natürlich muss HWL dies nicht kommunizieren. Schließlich sieht es die HWL Redaktion auch nicht für nötig zu antworten, wenn man diese auf Fehler hinweist.
Kein Wunder das man so gut wie keine HWL Links auf anderen Seiten findet.
Zu viele Fehler
Schlechte Kommunikation
Frametimes die andere Seiten als wichtigen Bestandteil der Messergebnisse ansehen, sind für HWL nur zusätzliche Messungen.
Dabei sind die Frametimes sehr wichtige Messung, wie man ja hier sehr gut am 9350K sehen kann. Die Frametimes brechen ja schon desaströs ein.
 
Zuletzt bearbeitet:
Ist doch das gleiche wie jedes Mal wenn du nen Fehler findest. Schreib den Verfasser des Artikels an. Den Richtigen XD
 
elcrack0r
Ich habe Don gute 2 Stunden nach Veröffentlichung seines Tests eine PM geschrieben und keine Antwort erhalten, obwohl er in dieser Zeit hier gepostet hat. Danach habe ich ihm nochmals eine PM geschrieben, trotzdem keine Antwort. Wenigstens wurden die Ergebnisse danach ausgebessert.
Warum sollte ich also jemals wieder an die Redaktion schreiben? Man fühlte sich ja noch nicht einmal dazu genötigt, hier im Thread eine kurze Mitteilung zu senden.

Bei meinem ersten Versuch die Redaktion zu erreichen, ich dabei nicht den Verfasser angeschrieben hatte, sondern die Chefredaktion, ich nur eine pampige Antwort erhalten habe dessen Sinn darin bestand, dass HWL schon wüsste was man tue, hat sich das Thema für mich erledigt.
 
Zuletzt bearbeitet:
Ich nehme an, Du hast im Video gar nicht richtig zugehört bzw. das betreffende Review auf meiner Seite gar nicht nicht gelesen. Der Spielebenchmark dient EXEMPLARISCH als Einleitung zu dem, was sich nachher bei den Workstations ergibt.
Ein Spielebenchmark als Einleitung zu Workstationtests? WTF.:lol:
Generell bin ich wohl einer der wenigen, die überhaupt Prozessorlast, Threadauslastung, Leistungsaufnahme und Varianzen testen, BEVOR ich mich für ein finales Setting entscheide. Gegen 720p sprechen übrigens in diesem KONKRETEN Fall auch die FPS, die auf 720p mit max. Settings jenseits der 300 gelegen hätten.
Toms Hardware gibts gar nicht mehr, aber wen wundert es schon, wenn man nicht weiß was ein CPU Limit ist.
1080p low Settings | ausreichend schnelle GPU | FPS in 720p u. 1080p 1:1 gleich.

In 720p max Settings können die FPS nicht bei 300 liegen, wenn sie in 1080p low bei gerade mal knapp über 150 sind.
Andernfalls würde das bedeuten, dieser Test ist komplett fürn Arsch und es bottleneckt weiterhin die Grafikkarte.
Low bedeutet zudem erheblich weniger Last für den Prozessor.

I
Man nimmt die schnellste CPU und testet die Settings so, dass gerade noch nichts ins Limit rennt. Und zwar exakt an der Stelle mit der höchsten Last, nicht im Durchschnitt

Und Nachts ist es kälter als draußen.:fresse2:

Ich möchte nicht den Durchsatz vom Motherboard mit im Ergebnis wiederfinden.

Glaubst du an Echsenmenschen?
 
Zuletzt bearbeitet von einem Moderator:
Aus der Reihe Ryze erklärt Igor die Welt :hust:
 
Das Forum verblödet geradezu.
 
Finde den Ton und die Wortwahl interessant... wenn man sich mal auf der Zunge zergehen lässt wie z.b. DTX xxx oder auch Ryze mit Sauce "argumentieren" und sich dann wundern wenn man nur abwinkt und sie nicht mehr ernst nimmt... Gerade DTX xxx ist schon in dem AMD Ryzen Test extrem negativ aufgefallen, inkl. Schuss vor dem Bug ausgehend von Mr. Bode. Und dann kommen andere (Phantomias) und drohen sogar mit lächerlichen Rechtsmitteln. Da greift man sich an den Kopf.

Jungs ihr wisst schon für wen die das hier machen und von einer "Verpflichtung" ist man so weit entfernt wie man es nur sein kann. Und dann wundert ihr euch das Personen Tests usw. nicht mehr machen wollen wenn man angefeindet wird, oder man auf primitivste Art und Weise die Qualifikation bzw. Expertise von Testern in Frage stellt. Z.b. wird Igor mit Sicherheit um Welten mehr Ahnung & Erfahrung haben als Ryze nur träumen kann. ;)
 
Zuletzt bearbeitet:
Ein Spielebenchmark als Einleitung zu Workstationtests? WTF.:lol:

Toms Hardware gibts gar nicht mehr, aber wen wundert es schon, wenn man nicht weiß was ein CPU Limit ist.
1080p low Settings | ausreichend schnelle GPU | FPS in 720p u. 1080p 1:1 gleich.

In 720p max Settings können die FPS nicht bei 300 liegen, wenn sie in 1080p low bei gerade mal knapp über 150 sind.
Andernfalls würde das bedeuten, dieser Test ist komplett fürn Arsch und es bottleneckt weiterhin die Grafikkarte.
Low bedeutet zudem erheblich weniger Last für den Prozessor.



Und Nachts ist es kälter als draußen.:fresse2:



Glaubst du an Echsenmenschen?
Glaubst du an intelligentes Leben......in deinem Körper?
Den Beweis hast du erbracht. Nicht vorhanden. :shake:

@Igor
Ich liebe eure Seite und vor allem deine Videos.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh