Intel spricht sich dafür aus den "Schwerpunkt von Benchmarks zu verlagern"

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.151
intel.jpg
Intel ist eines der Unternehmen, welches zur Computex regelmäßig Neuigkeiten zu verkünden hat. In diesem Jahr ist die Computex auf September verschoben und dennoch versucht die Messe zumindest etwas Aufmerksamkeit zu erzielen. Unter anderem hat man Intels CEO Bob Swan zu einem kurzen Statement gewinnen können.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ahja jetzt wo sie in Benchmarks gegen AMD den kürzen ziehen finden die Benchmarks nicht mehr so wichtig.

Sobald irgendwann in paar Jahren die große Antwort von Intel kommt an der Jim Keller usw. dran arbeiten, sind Benchmarks dann bestimmt wieder ganz entscheidend.
 
Intel sollte Mal weniger Pippi Langstrumpf lesen...
"Ich mach die Welt wie sie mir gefällt"...

Kaum ist der eigene Balken nicht mehr der längste, sind Balken egal.
Der Verein bräuchte einen ganz gewaltigen Dämpfer um Mal wieder geerdet zu werden.
 
Ob die schon mehr über Zen-3 wissen :geek:
 
Die können sich denken das AMD irgendwas zwischen 5 bis 15% pro Takt drauflegt. Wobei eine Optimierung der Latenzen (Core zu Core sowie Core zu Ram) deutlich mehr bringen sollte. Dann wird die Luft für Intel gaaaanz dünn. AMD hat ja derzeit schon mehr pro-Mhz Leistung in Anwendungen, nur in Spielen "retten" Intel die sensationell guten Latenzen vom Ringbus und IMC noch.
 
Intel liefert mal wieder comedy-gold.

Genial, ich liebe es.

[Benchmars don't matter].
 
So richtig fair ist das von AMD ja nun wirklich nicht, wie können die auf einmal einfach gute Prozzis basteln :unsure: :ROFLMAO:.
 
Sehe da jetzt ehrlich gesagt weniger ein Problem an der Aussage??

Spielt ihr alle Cinebench? Dann ist das natürlich klar Unsinn, stimmt... Aber real? Die ganzen Reviews und Benches, die so rumgeistern, gehen voll auf annähernd perfekte MT Skalierung, was real praktisch selten bis nie der Fall ist. Oder wenn, dann in gewissen Bereichen, wo man dann aber nicht irgend so ne mini Schmette kauft, sondern entsprechend Produkte, die für wenig Geld viel MT Power liefern. Möglichst kompromisslos in diese Richtung. Ich frag mich bspw., welchen Sinn es hat, nen 10400 vs. 3600 Vergleich mit MT Benchmarks zu tätigen... Wenn ich MT will, kauf ich nen 3900/3950X oder gar nen TR.

Ganz sicher ist Intel nicht unschuldig an diesem Trend, der schon vor Jahren, ja sogar über 10 Jahren eingesetzt hat. Nämlich weil seinerzeit es auch mal Intel war, die mit mehr Threads entsprechend mehr Punkte setzen konnten. Man muss allerdings auch dazu sagen, dass es nen Unterschied macht, ob der Prozessor nun 2 oder 4 Threads liefert und im regulären Betrieb davon 1, 2 oder gar mehr ausgelastet sind. Oder ob das jetzt 16, 24 oder noch mehr Threads sind, die real eben nur in generischen Volllasttasks belastet werden, im "Normalbetrieb" aber nur Bruchteilhaft belastet werden.

Der aktuelle Höhepunkt an Unsinnigkeit sind Notebook Verbrauchsmessungen unter Prime95 AVX MT Volllast mit dem Resultat, dass das eine Produkt total scheiße abschneidet, weil sonst wie viel Mehrverbrauch. Und real praktisch beim Anwender dann im Akku Betrieb doppelt so lange durch hält, weil der Idle Verbrauch nur halb so hoch wie bei der Konkurrenz ist. (Vorsicht, Überspitzt formulierte Aussage)

Es ist absolut schade, dass "Benchmarks" mittlerweile teils drastisch am realen Einsatzzweck vorbei gehen. Leider werden die echten Vergleichsoptionen immer weniger... Ein bisschen Licht am Tunnel hat jüngst erst Igor geliefert mit seinem Review von etwas anderen Anwendungen aus dem real praktischen Einsatz. Aber auch das ist immernoch seeeeehr speziell auf einen Einsatzzweck hin ausgerichtet gewesen. Dennoch aber weit näher an der Realität als fast nur MT Volllast Werte gegeneinander zu stellen um dann zu sehen, ja mehr MT Power = mehr Punkte. Tolle Wurst Das weiß jeder selbst auch ohne dicke Balken.

Wäre Multithreading real praktisch sooo extrem von nöten, wie es in den Benches fokusiert wird, müsste der Markt zu einem überwiegenden Teil HEDT und dicke Server Zuhause stehen haben. Ist aber nicht der Fall, die Leute kommen überwiegend (nämlich zu mehr wie 50%) mit kleinen Mobile CPUs aus. HEDT kauft ein Bruchteil, wenn man dafür alle Finger einer Hand braucht, sind das schon viele... Von den dicken 2P Servern ganz zu schweigen... Auch sowas war früher mal anders.
 
Und wie könnte man es dann besser machen?

Kann ich dir nicht sagen... Ich kann dir aber sagen, wie ICH das für meine Anforderungen mache...

Ich werte einfach nicht nach irgendwelchen MT Volllast-Balken über ein Produkt, sondern schaue mir an, was ich für Software nutze, wie diese Skaliert und wo diese überhaupt MT Vorteile liefert (oder gar Nachteile bringt wenn zu viele Threads bereit gestellt werden -> Stichwort Gamemode bei AMD)
Unterm Strich kommt dann meist eine Art Liste bei rum, wo Modelle stehen, die für den Einsatzzweck generell besser in Frage kommen als andere. Wenn ich mobil sein will, dann fällt alles was Desktop ist, raus -> da kann ein 64C TR noch so viel Power liefern im Cinebench -> das kann ich schwer mit mir täglich rumtragen geschweige denn im Einsatz unterwegs irgendwo nutzen, um mal ein Beispiel zu bringen.
MMn ist es auch unsinnig, immer in diesen Klassen zu denken. Respektive Vergleiche auf verschiedene Klassen hin runter zu brechen. Häufig will man wissen, ob es sich bspw. lohnt, ein "H" CPU Modell der Mobile Reihe ggü. einem "U" oder gar "Y" Modell zu erstehen. Was mich bei nem "U" und schon gar nicht bei nem "Y" Modell interessiert, ist wie viele CB R20 Punkte das Teil drückt oder wie viel das Ding unter Volllast verbraucht, weil es eh nicht so betrieben wird.

Es gibt unmengen von Tools, die real im Einsatz sind und wo man gewisse Unterschiede hin sieht. Vor allem in Bezug auf die aktuellen Security Mitigations, wo Intel teils massivst Federn lassen muss(te) um dirty Workarounds aktiv zu schalten.
Sowas eignet sich 1a für Vergleiche... ABER, der Aufwand sowas zu "benchen" ist extremst viel höher, weil eben nicht nur auf den "Run" Button zu hämmern ist und nach paar Sekunden ein Wert raus kommt.
Bei Games bspw. tätigt man schon ungleich höheren Aufwand, weil integrierte Bench-Funktionen seit geraumer Zeit als wenig aussagekräftig gelten. Nur im Anwendungssektor nutzt man solchen Spaß mit Kusshand... Warum auch immer...
 
Das Topic ist unpassend, da es suggeriert, Intel wolle branchenweit den Focus von Benchmarks weg verschieben. Dem Artikel nach bezieht sich diese Überlegung nur auf das eigene Unternehmen und nicht auf andere Unternehmen. Hintergrund für diese Überlegung ist natürlich das derzeit weniger überragende Abschneiden in Benchmarks. Dass man sich also bei der Produktwerbung auf andere Eigenschaften konzentriert, bei denen man die eigenen Produkte im Vorteil sieht, ist trivial.
 
Ja das ist alles schön und gut, aber wie sollen DIE TESTER das besser machen.

Ich bin der meinung dass die internettests nur dazu dienen sollten eine grobe richtung aufzuzeigen, und für den grossteil der user reicht das.

Jemand der wie du spezielle andwendungsszenarien hat, hat auch entsprechendes hintergrundwissen und erfahrung um nicht auf solche tests angewiesen zu sein.


Bei gpu tests haben wir ja hochspezielle szenarienvergleiche, aber sa macht es auch sinn.
 
Das ist doch inhaltsloses Geblubber von Intel. Wenn ich beispielsweise nen Supercomputer betreiben will, möchte ich auch vorher wissen wieviel Flops ich fürs Watt bekomme. Benchmarks werden immer wichtig sein. Als normalo Käufer, kaufe ich doch nicht nur für DAS eine Programm, sondern will die Freiheit möglichst alle zu nutzen. In der Welt wird alles über "Benchmarks" miteinander verglichen und da will Intel jetzt nicht mehr dabei sein. So einfach ist das.
 
Ja das ist alles schön und gut, aber wie sollen DIE TESTER das besser machen.
Das ist nicht die richtige Antwort auf die Aussage ;) Der Kritiker der Methode, die aktuell fabriziert wird, muss nicht die Antwort auf das WIE liefern, sondern will lediglich anmerken, dass es aktuell scheiße läuft, wie es läuft.
Es gibt da auch kein Allheilmittel - eben weil jeder andere Anforderungen hat. Das ist schonmal die erste Erkenntnis, die grundsätzlich gegen allgemeine (MT) Benchmarks spricht.

Ich bin der meinung dass die internettests nur dazu dienen sollten eine grobe richtung aufzuzeigen, und für den grossteil der user reicht das.
99% Zustimmung... Es wäre ne 100%, wenn es dann entsprechend breit gefächerte Benches im Netz geben würde. Aber ein Anwendungsszenario zu kreieren, was den Produkten sehr gut liegt, weil das effektiv das fast? einzige Mittel ist, was nüchtern betrachtet, greifbare Unterschiede suggeriert, ist aber eben irgendwo dennoch an der Realität vorbei.

Man muss sich da mMn eher die Frage stellen, ob es überhaupt zielführend ist, in der Form zu vergleichen...
Vllt etwas kreiert, aber was besseres fällt mir grad auf die Schnelle nicht ein - bei nem Auto Vergleich wird doch auch nicht nur vMax auf der Bahn getestet... Das ist ne Angabe in der Vergleichstabelle, thats it.
Im Vergleich zu CPU Benches bspw. wird aktuell in x-facher Form eine art vMax Messung durchgeführt - um so mehr, um so besser. Also testet man 50-150, 50-200, 100-200 usw. usf. und stellt immer und immer wieder fest, das Ding mit dem meisten Bumms, ist dort am schnellsten. JAAA, stimmt, ist so, nett und gut und schön. Die Mutti bewegt ihren Lupo aber nicht nach dem 50-150 Wert ggü. nem Golf R oder sonstwas für ein Ding. Sondern hat eben komplett andere Anforderungen...

Jemand der wie du spezielle andwendungsszenarien hat, hat auch entsprechendes hintergrundwissen und erfahrung um nicht auf solche tests angewiesen zu sein.
Für mich und meine Anwendungen - ja. Aber was ist denn mit dem gemeinen Otto?
Die Frage eingangs, ob ihr alle Cinebench spielt kommt nicht von ungefähr... Welche real praktisch im Alltagseinsatz häufig genutzten Anwendungen legen dauerhaft über Minuten bis Stunden Volllast an einen Prozessor? Ich kenne da nicht eine Einzige... Es gibt klar Szenarien, die das Verhalten erzeugen... Nur ist das was für den gemeinen Otto? Nutzt Otto Blender und rendert Bilder? Encodiert Brunhilde alle Nase lang 4k Videos in x264/x265? Sind da auf einmal nur noch "Content Creatoren" unterwegs und machen nix anderes als Spielen und Streaming gleichzeitig? Bearbeiten auf einmal alle Videos oder Bilder von ner sonst wie hochauflösenden Cam? Selbst die Benches zu 7Zip halte ich noch für praktisch irrelevant... Ich wüsste nicht, wann bspw. meine Frau Mutter das letzte mal nen x-GB großes Zip File gepackt oder entpackt haben soll... Das sind, wenn überhaupt paar wenige MB und geht meist mit Fingerschnipp bzw. (eben weils ewig dauert) man nutzt idR schnelle Komprimierungsverfahren - wo eher das Storage limitiert als der Prozessor...

Btw. wir können ja die Frage mal umdrehen... Was spricht denn dMn FÜR MT Volllasttestes in Reviews? Wem bringt es was zu sehen, dass ein TR Kreise in "Anwendungen" um nen 3600er Ryzen dreht, wenn er keine der Anwendungen oder ähnliche Szenarien nutzt?
 
Der gemeine otto wird ohnehin keine speziellen lösungen haben, 5% mehr oder weniger fallen dem doch gar nicht auf.

mMn sind diese synthetischen vollast tests dazu sinnvol, die fähigkeiten der hardware aufzuzeigen und ein grobes bild anzugeben.

Ich habe mir die tests angesehen und ich kann ais diesen synthetischen tests schlussfolgern dass für meine 4K videobearbeitung ein 32 kern threadripper besser geeignet ist als ein alter 2600K.

Es geht darum die grobe richtung aufzuzeigen. Für alles andere kann man dann selber testen oder im netz suchen, auf youtube gibt es ja auch recht viele interessante test's.

Beim autovergleich: ich habe szenario 1ich muss 40 tonnen fracht 400 KM in Deutschland weit befördern. Ich habe auswahl A ein LKW mit 500PS und ein porsche mit 500PS wer gewinnt?

Szenario 2 ich muss alleine so schnell wie möglich 400KM zurrucklegen, welches fortbewegungsmittel vob den 2 gewinnt diesmal?

Das sind grobe vergleiche.

Geht es darum 48t schüttgut oder 34 tonnen flüssigware zu transportieren sind diese groben methoden nichtsnützig. Aber als grobe information trotzdem sinnvoll.

Klar gibt es deppen die hergehen und die synthetischen benchmarks 1:1 auf jedes szenario übertragen. Aber das ist nicht die schuld des testers, des test, oder der HW.

Also kurz und bündig, synthetische tests sind der anfang aller erkentniss, nicht das ende.
 
Mal aus Sicht eines Redakteurs:

Sicherlich sind Cinebench, V-Ray und die anderen synthetischen Benchmarks in erster Linie wenig praxisrelevant, weil sie im Alltag der Nutzer einfach nicht vorkommen. Aber sie sind eben eine Möglichkeit die Leistung abzubilden und vor allem untereinander zu vergleichen.

Auf der anderen Seite verwenden wir auch Benchmarks mit einer höheren Bandbreite hinsichtlich der Anforderungen. Viel Rendering, Encoding, Compiling, etc. pp.

Was neben den nackten Zahlen immer notwendig ist, ist eine gewisse Transferleistung des Lesers. Natürlich läuft nicht bei jedem immer ein 3D-Rendering und auch codiert nicht jeder ständig ein Video. Man muss sich also aus dem eigenen Anwendungsprofil und den zur Verfügung stehenden Benchmarks selbst das zusammensetzen, was man als sinnvoll erachtet. Spiele ich viel und habe das 3D-Renering als Hobby, dann schaue ich eben auf die Spiele und die Rendering-Benchmarks. Wer seinen Prozessor nur nach Cinebench nT kauft, dem helfen sicherlich auch keine Verweise auf praxisrelevantere Benchmarks.
 
Benchmarks sind dazu gedacht, reproduzierbar die Alltagsleistung verschiedener Produkte in der getesteten Anwendung zu vergleichen.

Das Problem ist nicht das Konzept eines Benchmarks, sondern die Auswahl der Benchmarks bzw. wenn die Ergebnisse des Benchmarks nichts mit den Ergebnissen in der realen Anwendung zu tun haben und dass viele sich von Benchmarks beeinflussen lassen, die für sie vollkommen irrelevant sind.

Man schaue sich mal diesen Vergleich an:

HWU testet dort quasi nur Rendering und Number Crunching mit sehr guter Skalierung über die Threads und 0 Latenzsensitivität. Der Test ist für 95% der Anwender komplett wertlos. Ich störe mich nicht einmal an dem Fazit, der Ryzen dürfte auch bei einem vernünftigen Test im Schnitt die bessere Wahl sein, alleine schon weil die Effizienz bei mobiler Nutzung extrem wichtig ist, aber der Weg zu dem Fazit ist falsch gewählt.

Ob Intel sich mit einer Fokussierung auf den Alltagsnutzen ihrer Produkte wirklich einen Gefallen tut, wage ich auch zu bezweifeln. Da würde bei den Anwendungen des durchschnittlichen Nutzers wahrscheinlich herauskommen, dass es Jacke wie Hose ist, ob er einen Haswell, Ice Lake oder Ryzen mit 4, 8 oder 3000 Threads nutzt.
 
Was neben den nackten Zahlen immer notwendig ist, ist eine gewisse Transferleistung des Lesers. Natürlich läuft nicht bei jedem immer ein 3D-Rendering und auch codiert nicht jeder ständig ein Video. Man muss sich also aus dem eigenen Anwendungsprofil und den zur Verfügung stehenden Benchmarks selbst das zusammensetzen, was man als sinnvoll erachtet.
Diese Aussage kann man gar nicht genug hervorheben. Stimme ich zu 100% zu!

Ist auch kein exklusives Phänomen von Prozessoren, ist bei SSDs, Notebooks, ja sogar Grafikkarten ebenso. Deshalb sind manche Benchmarks auch sinnvoller als andere, weil sie eben einen Transfer zur echten Lebensszenarien ermöglichen - oder eben nicht. Ich meine, was heißt denn für Intel "real world"? Die Welt ist für jeden einzelnen verschieden. Meine "real world"-Anwendungen müssen nicht mit sonst irgendwem übereinstimmen.
 
Dann haben wir zum Beispiel den Compile-Benchmark, der sicherlich nT-lastig ist, der zu einem gewissen Anteil aber auch von der Single-Threaded-Leistung der Hardware abhängt. Solche Mischungen bekommt man aber eben nicht in jeder Anwendung.
 
Wenn ich beispielsweise nen Supercomputer betreiben will, möchte ich auch vorher wissen wieviel Flops ich fürs Watt bekomme.
Wenn man einen SuperComputer kaufen will, dann macht man entsprechende Ausschreibungen, bei denen Benchmarks Teil der Anforderung ist. Nur die Leistung pro Watt der CPU ist relativ unwichtig, weil so ein Computer vor allem durch das Zusammenspiel der Komponenten die hohe Rechenleistung erzielt, und der Verbrauch nicht nur der CPU eine Rolle spielt sondern des gesamten Clusters, und dazu zählt auch die Kühlung. Wenn Hersteller A nur mit Chiller die Knoten kühlen kann, und Hersteller das mit Warmwasser hinbekommt, dann wird es sehr schwer Hersteller B zu übertreffen in der Energieeffizienz. Selbst wenn von A die CPUs 50% mehr Leistung bei gleichen Stromverbrauch liefern, B spart dafür >90% der Energie bei der Kühlung ein. Die Fautregeln beim RZ-Betrieb mit Chiller, Abwärme + 100%, und bitte bei der Abwärme den kompletten Knoten nehmen und nicht nur die CPU. Die RAM-Riegeln benötigen auch ihren Teil.
 
Da würde bei den Anwendungen des durchschnittlichen Nutzers wahrscheinlich herauskommen, dass es Jacke wie Hose ist, ob er einen Haswell, Ice Lake oder Ryzen mit 4, 8 oder 3000 Threads nutzt.
So siehts aus... Youtube schaut sich auch nicht "schneller" mit einem i9... :d

Ansonsten muss man halt sehen wo der eigene Schwerpunkt liegt. Auch ein 10900K ist als Spielecpu eine gute Wahl, wenn (!) man maximale FPS braucht. Für alle anderen Spieler reicht ein 3600 oder 3700X als Allrounder dicke aus. Für Leute die mit spezifischen Anwendungen arbeiten muss man dann halt auf den jeweiligen Einzelfall schauen. Da gibts ja so tolle Seiten die Pugetsystems.com für.
 
Der Kritiker der Methode, die aktuell fabriziert wird, muss nicht die Antwort auf das WIE liefern, sondern will lediglich anmerken, dass es aktuell scheiße läuft, wie es läuft.

An der Stelle machst du es dir imho auf mehreren Ebenen zu einfach.

Du bist Mitglied im Hardwareluxx-Team - zwar "nur" als Moderator und damit höchstwahrscheinlich nicht in Tests eingebunden, ein Team-Mitglied bist du aber. Und Hardwareluxx testet CPUs im Prinzip nach genau diesem Schema, welches du hier kritisierst. Als Team-Mitglied könntest du dich nun natürlich hervorragend einbringen: Verbesserungen vorschlagen und helfen, diese umzusetzen. Machst du scheinbar nicht sondern sagst öffentlich, dass du die Tests bzw. deren Ergebnisse als nicht relevant einstufst bzw. sogar generell in Frage stellst.

Das wirft für mich ein gelinde gesagt merkwürdiges Licht auf dich.

Und dann kommt der Teil meiner Kritik, welcher nichts mit der Team-Zugehörigkeit zu tun hat: Sich hinzustellen und zu sagen, dass es scheiße läuft (deine Worte!), du aber nicht dafür verantwortlich bist, das bessere WIE zu definieren, ist Internet-Buzzwording par excellence. Wo wären wir heute nur, wenn es diese hervorragende Möglichkeit des Internets, etwas zu sagen und gleichzeitig doch nichts zu sagen, nicht gäbe... :fresse: Kritisieren ist immer äußert bequem und einfach. Es auch tatsächlich besser zu machen trennt dann die Spreu vom Weizen. ;)



Du benennst viele der Probleme völlig korrekt. Kurze Benchmarks, One-Click-Benchmarks, synthetische Workloads - das alles ist in der Tat ein Problem. Aber es ist ein Problem, für welches bisher noch keine zufriedenstellende Lösung gefunden wurde. Gäbe es die, so würden es bestimmt viele Redaktionen anders machen. Im Endeffekt zeigen mir deine Aussagen aber, dass du noch nie ernsthaft an einem Review beteiligt warst. Denn wärst du das, so würdest du manche Sache anders sehen und die eine oder andere Aussage stecken lassen.

Ein meiner Meinung nach wichtiger Punkt bei synthetischen Benchmarks ist auch der Vergleich von Artikeln untereinander. Wenn sich Artikel in den Ergebnissen des gleichen Produktes widersprechen, weil jeder zwar reale Anwendungsszenarien testet, die genutzten Einstellungen aber dramatisch voneinander abweichen, dann ist auch keinem so wirklich geholfen. Dann gäbe es wieder Diskussionen, die Redaktion hätte X bevorzugt und Y benachteiligt. Natürlich nur mutwillig und voller Absicht, weil das ja der einzige Zweck der Reviews von Redaktion <insert Name here> ist (überspitzt gesprochen). An dieser Stelle helfen vordefinierte Benchmarks wie 3DMark, Cinebench, HandBrake und Co., eine (eingeschränkte) Vergleichbarkeit zwischen verschiedenen Tests herzustellen. Natürlich dürfen solche Tests nicht den einzigen Reviewinhalt darstellen - sie aber zu verteufeln, weil man der Meinung ist, der testende Redakteur sei zu faul, ist dabei aber definitiv zu kurz gedacht.

Ein zweiter Punkt, der für die Verwendung von synthetischen Tests spricht, ist das Thema Nachvollziehbarkeit. Wenn ich ein Review lese und mit der gleichen Hardware zu Hause "gegenteste", dann bekomme ich bei Tests wie 3DMark oder Cinebench Ergebnisse im gleichen Bereich (+/- ein paar Prozent). Ganz einfach, weil die dort durchgeführten Tests "standardisiert" sind und ich mich nicht mit dutzenden Einstellungen herumschlagen muss (von denen ich vielleicht nicht mal weiß geschweige denn deren Funktion bzw. Wirkung kenne), bis ich zu einem nachvollziehbaren Ergebnis komme.

Natürlich wird jetzt auch wieder das Argument kommen, dass man ja alles auch dokumentieren kann. Es gibt aber irgendwo auch Grenzen dessen, was sinnvoll dokumentiert werden kann. Wenn ich für 10 Seiten Review 30 Seiten Dokumentation schreiben muss, dann passt Aufwand und Nutzen für mich nicht mehr. Es nutzt nichts, wenn man das perfekte Review samt aller Dokumentationen zaubert und ein einziger Leser auf der Welt jubelt, weil sein Anspruch exakt getroffen wurde, der Rest der Leser dann aber nichts mit den Ergebnissen anfangen kann. Eine gewisse Balance muss gegeben sein und dies auch bleiben. Der Leser, und da gebe ich Don ebenfalls recht, muss in der Lage sein, die Testergebnisse auch selbst interpretieren zu können. Ist das nicht gegeben, so hilft auch das tollste Realworld-Anwendungsszenario nicht.



Was spricht denn dMn FÜR MT Volllasttestes in Reviews? Wem bringt es was zu sehen, dass ein TR Kreise in "Anwendungen" um nen 3600er Ryzen dreht, wenn er keine der Anwendungen oder ähnliche Szenarien nutzt?

Ich habe oben ja bereits zwei Punkte genannt, die für die Verwendung von synthetischen, geschlossenen Benchmarks spricht: Vergleichbarkeit und Nachvollziehbarkeit. Das ist natürlich nur unter dem Aspekt sinnvoll, als dass diese Tests nicht alleinig im Review Verwendung finden dürfen.

Bleiben wir trotzdem noch einmal bei deiner Fragestellung: Wer für eine solche Erkenntnis (Threadripper ist in MT schneller als ein 3600) ein separates Review benötigt, der sollte sich vielleicht besser an jemanden wenden, der ihn berät.

Aber selbst hier habe ich folgende Einwände an deiner Aussage:

1. Sich zwei Extreme bei dem konstruierten Vergleich herauszupicken ist nicht zielführend. Der eine User will vielleicht wissen, wie das Geschwindigkeitsverhältnis von 3600 zu 3900X aussieht, den nächsten interessiert wieder der Vergleich zwischen 3900X und 3960X. Wären denn diese Vergleiche nach deinem Gusto legitim und sinnvoll? Ja? Nein? Vielleicht? Wenn man dann diese Daten eh erhoben hat, ist als Abfallprodukt auch der Vergleich 3600 zu 3960X möglich - ob der sinnvoll ist oder nicht, steht auf einem ganz anderen Blatt. Kaum jemand wird ein Review verfassen, was als oberstes Ziel den Vergleich eines Sechs- und eines 24-Kerners hat.

2. Du hast dir jetzt den 3600 und einen Threadripper herausgepickt, um einen deiner Meinung nach kruden Vergleich zu präsentieren. Doch wo ist hier die Grenze? Ist nicht auch ein Vergleich zwischen 3600 und 3950X schon arg schief (6 Vs. 16 Kerne, ~170 Euro Vs. ~770 Euro)? Oder ist das OK, weil es ja immerhin der gleiche Sockel ist? Was ich damit sagen will: Was sinnvoll zu vergleichen ist oder nicht, liegt im Auge des Betrachters. Was für dich absoluter Nonsens sein mag, macht für den nächsten Leser genau den richtigen Vergleich aus.

Und auch das müssen Reviews heutzutage leisten: Die Befriedrigung verschiedenster Ansprüche - jeder will sich irgendwie in den Ergebnissen wiederfinden. Bei dem einen User klappt das mehr, bei dem anderen User weniger. Es wird nie ein Review geben, was alle Ansprüche gleichermaßen erfüllt - es muss eine gewisse Balance gefunden werden. Dessen muss man sich ebenfalls bewusst sein. Zudem ist eine Redaktion, welche sich zu sehr spezialisiert, auf lange Sicht meist nicht überlebensfähig. Unterm Strich steht man dann vor der Frage: Gar kein Review oder lieber ein Review, welches zwar nicht perfekt ist, aus dem man aber trotzdem etwas ableiten kann?



Überspitzt gesprochen ist es im Internet doch ohnehin immer so: Entweder, das Review XYZ passt einem perfekt in den Kram oder aber es ist die Bits nicht wert, aus denen es besteht. Und im Zweifelsfall ist der Redakteur zu doof und zu faul, es richtig zu machen - also kann er es gleich ganz sein lassen. Jeder weiß es besser, aber keiner macht es besser. Daher kann ich nur sagen, dass Redakteure ziemlich arm dran sind - sie können nämlich nur verlieren. Das ist dann wie bei einer Fußball-WM: Da gibt es auch plötzlich 80 Millionen Bundestrainer, die es allesamt besser wissen - verantwortlich ist aber nur ein einziger davon. ;)

Das ist jetzt eine ziemliche Wall-of-Text geworden, das sei mir hoffentlich verziehen. Aber je länger ich über deinen Post und deine Aussagen nachdenke, desto blöder käme ich mir als Redakteur von Hardwareluxx vor... :fresse:
 
Naja Intel kann sich ja gerne intern messen und einschätzten wie sich möchten, dass ist deren gutes Recht, solange der objektive Vergleich mit den gängigen Benchmarks möglich ist und erhalten bleibt, sehe ich dort auch kein Problem.

Was ich nur vermisse in der Aussage von Intel, auf welcher Basis man sich künftig einen objektiven Vergleich zur Konkurrenz vorstellt, dort sollte nochmal präzisiert werden.
 
Jeder hat so eine eigenen liebings Reviewer... ich mag GN auf Grund seiner kritischen Evaluierung und im Balkenporno enthaltener OC-Ergebnisse mit Ballpark 24/7 Einstellungen die von 720p bis 4k gehen - über Anwendungen und Spiele die von einem Extrem über eine Mittellösung zu einem anderen Extrem gehen. Extrem komprimierte Information mit genügen Detailtreue, um Zwischeninterpolationen machen zu können.

Sowas kann man aber nicht einfach so übers Knie brechen, da jede Redaktion einen anderen Fokus hat was den Evaluationspunkt angeht. Einige werten nach Preis/Performance, andere auf reine Performance, die nächsten testen nur Stock, dann gibts wieder welche die ihren Fokus auf Anwendugen legen und Spiele komplett ignorieren und anders herum gibts auch. Dann haben wir noch unsere Bastel+OC Szene, welche durch etwas Speichertuning mal eben 20% mehr Leistung aus einem Chip rauskitzeln und auf einmal ist das 1440p System, was vorher in fester Hand von Team blau war komplett ad absurdum geführt, weil die min-FPS bei Team rot auf einmal besser sind. Vielleicht hilft es ja, anstatt einfach Balken durch die Gegend zu werfen ne Art Zielstellung zu definieren (die man am Preis festmachen könnte - so als Beispiel) um dann zu gucken, ob der Prozessor diese erfüllt - ob man das jetzt relativ oder absolut betrachtet sei dann dem Reviewer überlassen.

Tja, jetzt kommt auf einmal der Platzhirsch durch die Tür und schwabelt irgendwas von '"Benchmarks sind doof, wenn wir nicht auf Platz 1 sind" - ich denke, der macht sich gut als Trophähe in der Lobby vom anderen Team.
 
Mooooment mal... :unsure: Sprechen wir hier von dem selben Intel, welches vor einigen Montaten noch einen speziell entwickelten Prozessor, gekühlt mit einem unter dem Tisch versteckten Chiller, auf einem speziell entwickelten Mainboard auf eine Bühne gestellt hat, um zu zeigen wie lang der Balken bei ihnen ist?

Da waren ihnen Benchmarks anscheinend noch etwas wichtiger.... :sneaky:
 
Für mich ist das das Eingeständnis, dass sie auch mindestens mittelfristig nichts haben werden um AMD Paroli zu bieten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh