Das ist unser neues Grafikkarten-Testsystem für 2018

Ohh ja 4 Titan V im Ether-Mining verbund bitte :banana::fresse::asthanos:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ohh ja 4 Titan V im Ether-Mining verbund bitte :banana::fresse::asthanos:

Jap, dafür wird aber das Netzteil des Systems nicht ausreichend sein, wenn man dann 4 Vega64 dagegen laufen läßt. :fresse:

850 Watt reichen eigentlich nur für eine Vega64, denn AMD gibt als Empfehlung dort schon ein 750W NT an ...
 
Zuletzt bearbeitet:
Ja 850W ist da für SLI/CF schon etwas wenig.

Meine beiden GTX1080ti und den 5930k @ 4,3GHz hatte ich mit nem 760W Netzteil am laufen.
Die GPUs waren dabei undervoltet auf 0,95V bei ca. 1,8GHz. Unter Prime und Furmark war der verbrauch damit exakt bei 750W :fresse:

Der TR ist ja auch kein Kostverächter und dann noch 2 Hardcore Grafikkarten rein :sick:
 
Ja 850W ist da für SLI/CF schon etwas wenig.

Meine beiden GTX1080ti und den 5930k @ 4,3GHz hatte ich mit nem 760W Netzteil am laufen.
Die GPUs waren dabei undervoltet auf 0,95V bei ca. 1,8GHz. Unter Prime und Furmark war der verbrauch damit exakt bei 750W :fresse:

Der TR ist ja auch kein Kostverächter und dann noch 2 Hardcore Grafikkarten rein :sick:
Für Dual SLI/CF ist das völlig ausreichend, ich konnte sogar 3 HD7970 mit unter 950W mit einem 850W betreiben, oc war dann halt nicht mehr möglich. ;)

Topic:
Der Grund liegt doch auf Hand, wer ein Intel GPU Testsystem haben möchte bemühe sich der Google Funktion.
Es gibt Zahlreiche Intel Test System aber kaum HEDT von AMD für Multi-GPU, es wird einfach Zeit. ;)
 
Wie man hier über mehrere Seiten hinweg sehen kann, ist es meiner Meinung nach nicht unbedingt sinnvoll gewesen, das sich hier die User selbst zusammenreimen müssen, was sich die Redaktion beim Testsystem gedacht haben könnte.

Wer lesen kann ist klar im Vorteil.;)

News HWL schrieb:
Wir haben uns für einen AMD Ryzen Threadripper 1950X entschieden. Dieser bietet 16 Kerne und kann 32 Threads verarbeiten. Der Turbotakt liegt bei bis zu 4,0 GHz und damit sollten eventuelle Flaschenhälse bei der CPU-Leistung ausgeschlossen sein. Zudem werden Spiele zunehmend von einer höheren Anzahl an CPU-Kernen profitieren.

Man will ja auch das reine Softwareumfeld umstellen, dass haben hier dann wohl ein paar überlesen. Das bedeutet das neuere Spieletitel von mehr Kernen profitieren. Das ist dann vergleichbar mit PCGH und CB, die ihre Testparcours bereits umgestellt haben.

Da reimt sich auch niemand was zusammen, aber ein direkteres Statement wäre immer gut, klar.:asthanos:
 
Ist das denn wirklich so, dass Ryzen/TR die GPUs nicht zu 100% auslasten kann in 1080p?

ist natürlich immer eine frage von spiel und setting.. aber ja - es kann durchaus vorkommen das ryzen/tr in 1080p nicht in der lage ist eine gpu an die kotzgrenze zu drücken
CPU Bottleneck? GeForce GTX 1080 Ti Tested on AMD Ryzen versus Intel Kaby Lake - Legit ReviewsCPU Bottleneck Exposed By GeForce GTX 1080 Ti?

zum neuen testsystem hier: uff joa naja, meine erste wahl zum testen von grafikkarten wäre es nun nicht..
es ist nun aber auch nicht so das man damit grafikkarte nicht ordentich testen kann.

sollte man in 1080p nicht im gpu limit landen, dann kann man ja immer noch in höheren auflösungen testen.
 
Zuletzt bearbeitet:
ist natürlich immer eine frage von spiel und setting.. aber ja - es kann durchaus vorkommen das ryzen/tr in 1080p nicht in der lage ist eine gpu an die kotzgrenze zu drücken
CPU Bottleneck? GeForce GTX 1080 Ti Tested on AMD Ryzen versus Intel Kaby Lake - Legit ReviewsCPU Bottleneck Exposed By GeForce GTX 1080 Ti?

zum neuen testsystem hier: uff joa naja, meine erste wahl zum testen von grafikkarten wäre es nun nicht..
es ist nun aber auch nicht so das man damit grafikkarte nicht ordentich testen kann.

sollte man in 1080p nicht im gpu limit landen, dann kann man ja immer noch in höheren auflösungen testen.

1. das ist ein 1700, hat mit TR weniger zu tun (da der ja nicht nur höher boostet)...
2. das war vor dem Patch für Windows10 - der dann auch statt 4/0, 2/2 per AMD CCX/IF berücksichtigte...

Wie man gesehen hat, gab es gerade dann unter 1080p Probleme, weil man nicht mehr als 4 Cores brauchte, bei mehr Cores skalierte der 1700 unter 1440p und 2160p identisch zum 7700k. Steht auch unter dem Benchmark das die Redaktion selbst verwundert war. Man konnte das nachstellen wenn man ein CCX deaktivierte. Fehlende Optimierung auf eine neue Gen ist normal das war in 03/17...

AMD hatte das im Vorfeld auch als Achillesferse genannt, CCX und IF...bei fehlender Optimierung auf Zen.

*Ich würde insgesamt dafür plädieren, dass die Redaktion mal eine Umfrage macht - welche neuen Spiele in den Parcours sollen...da spricht man bestimmt mehr an. (wenn sie das nicht schon gemacht hat)
 
Zuletzt bearbeitet:
ist schon richtig, die cpu wurde allerdings auf 4ghz übertaktet.

Heute schlägt sich stellenweise ein 7820 auf 4,6GHz geprügelt mit einem 1900x umher, weil der eben 2/2/2/2 nutzt nicht 8/0. Die IF Optimierung macht es dann aus. Den 7700 auf 4,0GHz zu limiteren macht imo keinen Sinn. Der schafft eigentlich mehr, wenn es schon um OC geht. Der 1700 läuft dann am Stehkragen und der 7700 hätte noch Luft.

Ehrlicherweise muss ich sagen, würde ich eine 1080ti nicht unbedingt mit einem 1700 bei 4,0Ghz OC paaren, zumal die CPU das nicht wirklich lange mitmacht, da ist meist bei 3,8 Schluss und bei MultiCores deutlich früher. Da kannst du soviel Spannung rauf prügeln wie du willst.

Die Cores die stabil 4,0GHZ schaffen verwursten sie im 1800x oder 1600x, vllt. erwischt man auch mal einen 1700 aber die Regel ist das nicht.

Unabhängig davon boostet der TR 2x2 auf 4GHz (also mit 4 Cores + eXFR=Quadcoreboost), Ryzen nicht (Dualcoreboost). Schaffen auch nicht Intel CPUs.
 
Zuletzt bearbeitet:
Wie man hier über mehrere Seiten hinweg sehen kann, ist es meiner Meinung nach nicht unbedingt sinnvoll gewesen, das sich hier die User selbst zusammenreimen müssen, was sich die Redaktion beim Testsystem gedacht haben könnte.

Und selbst wenn es da Beweggründe gegeben haben sollte wie (ich spinne da für mich mal ein Beispiel zusammen, was für mich nachvollziehbar wäre): Wir wollen auf der Kiste auch noch Videoschnitt betreiben und deswegen wurde es ein Threadripper. Das wir damit vielleicht bei GPU-Tests bei gewissen Konstellationen nicht das Optimum haben, ist uns bewusst. Aber diesen Kompromiss mussten wir eingehen.

Sowas könnte ich sofort nachvollziehen und wäre völlig ok für mich. Aber nicht die Aussage: Dieses System haben wir für GPU-Tests zusammengestellt.

Aber lieber lässt man sich die Fanboys hier weiterhin die Köpfe einschlagen, als mal für Klarheit zu sorgen.

Aber auch egal. Welche neuen GPUs sind denn auf dem Weg, die getestet werden wollen? Wenn nicht nVidia ähnlich wie mit der Titan V wie aus dem nichts mit etwas neuem auf der Bildfläche erscheint, passiert ja bis Ende 2018 eh nix mehr. (Schwarzmalerei meinerseits)

Da hätte ich lieber noch den Refresh von Threadripper im Sommer abgewartet.

Ja ich hätte mir auch lieber eine reaktion von der Redaktion gewünscht. :hwluxx: Sorry andere Seite Die besten Prozessoren Oktober 2017 - Kaufberatung für Gaming CPUs mit Rangliste aber hier sieht man gut das der TR 20% langsamer ist wie ein i7 oder i9 mit selber Graka verstehe nicht warum das einige nicht akzeptieren. Das für nen Gpu Testsystem einfach ein TR die falsche Wahl ist.
 
Zuletzt bearbeitet:
sieh dir nur deine Systemdaten mal selbst an. Fanboygequatsche?

Mit Verlaub, aber komischerweise sind die, die vehement versuchen hier den TR als gut oder passend anzusehen auch die, welche selbst nen Ryzen im PC stecken haben, wie das wohl kommt?? ;)
Genau so wie die, die hier mit MGPU argumentieren - die sind, die selbst gar kein MGPU nutzen...
Genau so dreht es sich hier irgendwie gerade nur um das Finden von Ausreden, warum der TR doch OK ist... Aber das war überhaupt nicht der Kritik punkt. Der Kritikpunkt war, das TR System ist nicht das beste, was man für ein GPU-Review ranziehen kann, weil es ggü. anderen Systemen im Nachteil ist. Da liegt ein Himmelweiter Unterschied in der Argumentation. WENN DIR ein TR oder Ryzen reicht, OK, mach halt. Aber diese GPU Benchmarks haben den Anspruch, so wenig wie möglich von extern limitiert zu sein - DAS erreicht der TR einfach nicht.

Kann man akzeptieren oder weiter irgendwelche Aussagen vors Loch schieben - die an der Tatsache aber genau nichts ändern... Selbe Leier wie im CPU Bereich - da erzählen dir die Nasen mit ihren 4C/4T Assbach CPUs, wie wichtig in 2018 doch 8C+ Modelle sind - die sie selbst nie bessen haben. Und noch witziger, wenn das zu jemanden geschieht, der selbst länger diese CPU Breite aktiv am nutzen ist...

Ich besitze einen 75Hz und 160Hz Monitor, der 160HZ hat leider kein Freesync und ich persönlich finde 75Hz@ freesync etwas angenehmer als 160Hz ohne, ich habe bei BF3 selbst bei 160Hz nicht das Smoothe gefühl, wie wenn freesync Aktiv ist.

Dann ist der Monitor scheiße oder du bildest dir das ein... Es gibt absolut keinen Grund, warum fixe 160 FPS@160Hz schlechter sein sollten als gedeckelte 74/75FPS@FreeSync. Der einzige valide Grund wäre, das 160Hz Modell ist mist, weil hohes Lag oder irgend sowas. -> nur ist das dann wieder kein Vergleich. Du würdest 75FPS/Hz@FreeSync in den Wind schießen, WENN dein System in der Lage wäre, vollends @160FPS/Hz in jeder Lebenslage zu kommen. DAS ist aber im Moment unrealistisch ;)

Das schlimmste was also passieren könnte, ist das die GPUs in einem Test mit dem TR alle die gleichen max. Frames haben, weil sie nicht ausgelastet werden können, richtig? Das kann man aber doch dadurch umgehen, dass man Szenen wählt, wo die Auslastung der GPU eben 100% ist und diese dann veröffentlicht.

Sag mal Schaffe, stellst du dich wirklich so blöd an? Man nehme es mir nicht übel, aber das Spielchen kannste dir schenken...
Wie oft willst du nun noch hier die gleiche Frage stellen? Ein CPU Limit ist ein CPU Limit. Es deckelt die Ergebnisse nach obenraus. Ob das max. FPS, min. FPS oder avg. FPS sind, ist irrelevant. Das einzige, was es dazu zu wissen gibt ist - ein Limit verfälscht die Messungen/Ergebnisse und macht sie damit unsinnig. Punkt.
WAS soll ein Test mit verfälschen Ergebnissen aussagen? Und mal ehrlich - um die Reihenfolge zu sehen guck ich auf den Preis, da brauch ich kein Review zu... Natürlich interessiert, bis aufs Prozent genau der Abstand zwischen den GPUs. Denn genau nach diesen Werten werden sich Kaufentscheidungen richten.

Es geht einfach um Vielfalt in der Berichterstattung, bevor alle Redaktionen das gleiche Setup, mit der gleichen Hardware und stetig gleichen Testszene fahren, macht es mehr Sinn vergleichbare Testsysteme unterschiedlicher Hersteller quer Beet durch die Redaktionen zu besitzen und darauf auch unterschiedliche Testsequenzen laufen zu lassen, Stärken oder Schwächen nachzuweisen.

Auf dem Papier schon - in der Praxis wird das Gegenteil eintreten. Die Tests, die sich soweit von der Masse entfernen, wie bspw. die damaligen Sandy-E GPU Tests im Luxx werden und wurden links liegen gelassen... Das ist schade und vor allem kostet es sinnlos Zeit. Schau dir einfach mal quer beet die Kommentare in den Tests an. Vor allem bei HighEnd GPUs...
Viele wunder(te)n sich über die Ergebnisse, viele kritisier(t)en das Testsystem, manche auch die Spieleauswahl usw. usf. - JETZT wäre der Zeitpunkt gewesen, das gerade zu ziehen ;)
Was meinst du, warum hier im Luxx - trotz eigener Redaktioneller Arbeit - so häufig CB oder gar PCGH Reviews verlinkt werden?? Denk mal drüber nach...

Ach und Thema Kosten, meist du man kauft die Hardware vollends? - Ich glaube du bist da auf dem falschen Dampfer...

Welche neuen GPUs sind denn auf dem Weg, die getestet werden wollen? Wenn nicht nVidia ähnlich wie mit der Titan V wie aus dem nichts mit etwas neuem auf der Bildfläche erscheint, passiert ja bis Ende 2018 eh nix mehr. (Schwarzmalerei meinerseits)

Ich würde im Bereich Mitte 2018 von einem Ampera/Volta GA- oder GV104 ausgehen - ca. 1080TI Performance +-x und vllt, je nachdem, was AMD noch so ankündigt, ggf. sogar ne TI oder Titan auf GV102/GA102 Basis gleich hinterher... (mit TitanV Performance +x)

Bis jetzt ist/war es auffallend häufig so, dass NV ne neue Karte rausgehauen hat - wenn es bei AMD was in der Spekulation gab. Die erste TitanXp wenig später nach dem Polaris Release - gemunkelter Vega Release, die TI halbes Jahr später - nochmals gemunkelter Vega Release - und jüngst die TitanV - nachdem Vega endlich raus ist/war... So ganz blöd sind die bei Mr. Lederjacke wohl nicht - nen "Schuss" zurück, wenn die Konkurenz mal feuert im Petto zu haben ist sicher nicht verkehrt. - Und für Ende des Jahres hat AMD nen Vega Refresh vorhergesagt ;)
 
Ja ich hätte mir auch lieber eine reaktion von der Redaktion gewünscht. :hwluxx: Sorry andere Seite Die besten Prozessoren Oktober 2017 - Kaufberatung für Gaming CPUs mit Rangliste aber hier sieht man gut das der TR 20% langsamer ist wie ein i7 oder i9 mit selber Graka verstehe nicht warum das einige nicht akzeptieren. Das für nen Gpu Testsystem einfach ein TR die falsche Wahl ist.
Es hat ja grundsätzlich niemand bestritten das AMD (Zen1) langsamer ist, aber mit steigender Auflösung egalisiert sich Intels Vorteil und wie man auf CB lesen konnte bräuchte es dann schon einen 6950 und der kostet immer noch ca. 1,4k. Das viele niedriger taktende Cores nicht immer ein Allheilmittel sind ist auch klar, wenn eine Engine eher Singlethreadleistung fordert. Auf TR kann man dann per Kerndeaktvierung auch andere Modelle simulieren (fernab von Q-Channel).

Im Numa Mode ist der Threadripper stellenweise auch auf 7740 Level. Mit dem 7800x zieht er ab 1440p fast gleichauf (-1,2%). Das ist zuweilen Messungenauigkeit. Wo man kritisieren kann, er hat eine deutlich höhere und dann auch nutzbare TDP (der 1900x auf 4,15GHz OC steht dem 7820x auf 4.6GHz dann aber auch in nichts nach, beide verpulvern viel), die nicht davon abhängig ist wie viele Cores tatsächlich genutzt werden.

Das man so eine BigCpu nicht für 1080p anschafft ist auch klar, aber eine TXp braucht man dafür auch nicht.

Was ich an TR gut finde ist das er sein 60 PCIe-Lanes-Interface, ob jetzt 16/12/8 Cores egal, immer mitbringt.

Andere Redaktionen testen dann mit älteren X von Intel und da ist ein 8700k wahrscheinlich auch schneller.

6 Cores gibt es von AMD für einen Hunderten seit ewigen Zeiten als FX Serie, hat nicht wirklich jemanden interessiert. Warum das jetzt aufgeblasen wird muss mir einer erklären, Fanboyless kann das ehrlicherweise nicht sein.

Gedanken muss man sich machen, ob die Spiele unter vielen Kernen immer starten, ausgenutzt werden sie wahrscheinlich noch nicht komplett. Wenn man an einen Nutzungszeitraum von 5 Jahren für die CPU denkt, dann wird das womöglich doch noch relevant. Wie gesagt skaliert SLI/CF mit 8 Cores besser. Es braucht einfach preiswertere und sparsamere GPUs bei mehr Optimierung im Bereich von MultiGPU (AFR vs SFR). Ich wäre dann interessiert. 4-8K kann man mit einer Karte vergessen. Das merke ich oft genug, die CPU ist dann sicher nicht das Bottleneck.;)

Mit Verlaub, aber komischerweise sind die, die vehement versuchen hier den TR als gut oder passend anzusehen auch die, welche selbst nen Ryzen im PC stecken haben, wie das wohl kommt?? ;)

Genau so wie die, die hier mit MGPU argumentieren - die sind, die selbst gar kein MGPU nutzen...
Genau so dreht es sich hier irgendwie gerade nur um das Finden von Ausreden, warum der TR doch OK ist... Aber das war überhaupt nicht der Kritik punkt. Der Kritikpunkt war, das TR System ist nicht das beste, was man für ein GPU-Review ranziehen kann, weil es ggü. anderen Systemen im Nachteil ist. Da liegt ein Himmelweiter Unterschied in der Argumentation. WENN DIR ein TR oder Ryzen reicht, OK, mach halt. Aber diese GPU Benchmarks haben den Anspruch, so wenig wie möglich von extern limitiert zu sein - DAS erreicht der TR einfach nicht.

Kann man akzeptieren oder weiter irgendwelche Aussagen vors Loch schieben - die an der Tatsache aber genau nichts ändern... Selbe Leier wie im CPU Bereich - da erzählen dir die Nasen mit ihren 4C/4T Assbach CPUs, wie wichtig in 2018 doch 8C+ Modelle sind - die sie selbst nie bessen haben. Und noch witziger, wenn das zu jemanden geschieht, der selbst länger diese CPU Breite aktiv am nutzen ist...
Das weiß ich alles, es kann trotzdem sachlich bleiben... Wenn du mir aufzeigst wo ich eine zweite Vega nachordern könnte, wäre ich auch glücklich.

Ich habe hier genug Intel Kram zu liegen, das nur nebenbei, Nvidia in Hülle und Fülle, ja BigCPUs die noch vor zwei Jahren rein fürs Spielen Blödsinn waren und und...

Mich stört das allgemeine Geplärre einfach, wenn ich Argumente liefer kann man sie auch aufgreifen, darüber diskutieren und nicht behaupten das interessiert niemanden, wozu schaff ich mir denn einen 10Core von Intel auf einem Workstation MB an, zum Spielen - ja alles klar.;)

Ganz bestimmt bin ich kein Fakeaccount oder etwas derartiges und lass mich daher auch nicht als Blödmann oder "Holzkopf" abstempeln.

------------------------------

Und um das Thema Testplattform/Testpacours nochmal anzusprechen, eine CPU (ob TR oder SKL-X Unterbau) ist dabei nicht der limitierende Faktor, da sich deren Leistungsfähigkeit in keinster Weise ändert, die Grafikkarten skalieren je nach Verwendung der Kerne immer gleich, egal ob diese Kerne mit 2GHz oder 5GHz takten. Wenn man beweisen will welche Plattform schneller ist, ist das wieder etwas völlig anderes.

Der Redaktion scheint es dabei einfach um GPU Skalierung zu gehen, da reicht der Wert derzeit nun mal auf dem TR von 0-100. Egal welches Grafikboard stecken sie alle im gleichen Testsystem, derzeit dürfte die OC 1080ti (Titan V mal ausgenommen) unter dem Threadripper daher die 100% markieren, alles andere sortiert sich danach ein und muss sich an dieser Marke messen. Jeder GPU steht daher die gleiche CPU Leistung gegenüber. Vielleicht vergessen das einige, weil sie noch nie ein Testsystem aufgebaut oder genutzt haben.

Neuere Grafikkarten sortieren sich dann auf diesem Testsystem mit 100+ Werten ein, wenn sie schneller sind. Das wäre auch auf Intel völlig identisch, da sich bestimmte Größen in einem Testsystem nicht ändern, sondern vielmehr die Nutzung bereitgestellter Ressourcen oder die Leistungsfähigkeit der GPU an sich steigt.

Eine Testreihe startet immer von einem analysierten Ausgangswert, ob der von einem TR oder SKL-X abstammt ist völlig egal, es geht ja nicht darum CPU Leistung abzubilden, oder die unterschiedlicher Plattformen oder Konfigurationen bzw. die Vor- oder Nachteile dieser heraus zu kristallisieren.
 
Zuletzt bearbeitet:
Mich stört das allgemeine Geplärre einfach, wenn ich Argumente liefer kann man sie auch aufgreifen, darüber diskutieren und nicht behaupten das interessiert niemanden, wozu schaff ich mir denn einen 10Core von Intel auf einem Workstation MB an, zum Spielen - ja alles klar.;)

Naja, das läuft hier eher nach dem Motto, wie du mir so ich dir? Du gehst nicht auf die Aussagen anderer ein, springst stattdessen munter von Thema zu Thema, erst PCIe Lanes, MGPU, was du so toll an TR findest usw. usf. Alles schön und gut, aber erwarte nicht, dass man dir die Aussagen dann um die Ohren haut - vor allem wenn es absurd wird.

Der CB Test ist definitiv kappes - die Coreskalierung, die man dort sehen möchte kommt primär durch neuere Architekur/Plattform, neuere/schnellere Speicheranbindung, klar durch höheren Takt und ein Stück weit durch mehr pro Thread Performance. Nimm all die ganzen Themen und erzeuge eine valide/vergleichbare Basis - und schon kommt da raus, dass die Coreskalierung ein Witz ist.
Als Gegentest könntest du bspw. den hier nehmen:
CPU-Aufrüsten: Sandy Bridge bis Coffee Lake mit Overclocking im Vergleich (Seite 2) - ComputerBase
Der 2600k nimmt Fahrt auf, wenn man den Speicher hoch dreht und den Takt maximiert. Am Ende steht der 5GHz 8700k, mit nochmal 10% mehr Takt und nochmal schnellerem Speicher zwar weiter in Front, aber mit popligen 13%. Was allein die 50% Cores bringen sieht man zwar nicht - zwischen dem OC 7700k und dem OC 8700k liegen so viel Punkte (2%) aber nicht, trotz leichtem Vorteil im Takt/Speicher bei letzterem...

Die Threadskalierung ist nach diesem Test zu urteilen effektiv nicht vorhanden - ab einer gewissen Breite. Und das ist im Moment 4-6C. Drüber ist es dünn... Wenn noch breitere CPUs (wie im anderen Test) noch schneller sind, liegt die Vermutung nahe, dass dies durch andere Faktoren kommt - L3 Cache in riesig ist bspw. so ein Kandidat (*hust* der SKL-X mit gekürzten L3 lässt hier federn *hust* -> aber halt, für euch ist das ja dann Mesh vs. Ringbus - wieder so ein "Geplärre") :wink:

Und um das Thema Testplattform/Testpacours nochmal anzusprechen, eine CPU (ob TR oder SKL-X Unterbau) ist dabei nicht der limitierende Faktor, da sich deren Leistungsfähigkeit in keinster Weise ändert, die Grafikkarten skalieren je nach Verwendung der Kerne immer gleich, egal ob diese Kerne mit 2GHz oder 5GHz takten. Wenn man beweisen will welche Plattform schneller ist, ist das wieder etwas völlig anderes.

Das unterschreibe ich so nicht, da es nicht stimmt...
A) Grafikkarten skalieren gar nicht (ja ich weis, das ist Wortklauberei, aber es ist an der Stelle entscheidet zu wissen, dass nicht die GPU(s) skalieren, sondern die FPS - und die Skalierung ist von vielen Faktoren abhängig - unter anderem der CPU - genau hier gilt es diese auszuklammern!)
B) Der Takt ist irrelevant - die Aussage war, möglichst beste pro Thread Performance - wie du die erreichst, egal. Hauptsache schnell und mit einer ausreichend hohen Anzahl an Cores. Brachliegende Cores bringen keine Punkte - aber auch keinen Nachteil... Gedeckelt durch zu geringe pro Thread Performance hingegen wirkt klar negativ - während es zu viel pro Thread Performance nicht gibt.
C) Die FPS ändern sich sehr wohl in Abhängigkeit der CPU Leistung - genau hier liegt ja der Knackpunkt. MEHR GPU Power = mehr Bedarf an CPU Leistung.

Deine Aussage stimmt maximal bis zu dem Punkt, wo eine GPU nahezu vollständig limitiert - dann ist es so, dass die absolute CPU Leistung wenig bis gar keinen Einfluss auf den Messwert FPS (oder ms - bei Frametimemessungen) hat. Aber über diesen Punkt sind wir bei heutigen HighEnd Modellen lange schon hinaus... Selbst in UHD.
Spielen in Ultra HD/4K: CPUs und GPUs im Test (Seite 2) - ComputerBase
CB hat das vor nicht all zu langer Zeit mal aufgegriffen - wie unschwer zu sehen, da sind je nach CPU und Spiel mal mehr mal weniger deutliche Unterschiede bei der TI, bei der 1080er hingegen nicht. Und da reden wir "nur" um ca. 30% GPU Performanceunterschied. Spinn das weiter, ein System, was die nächsten Monate/Jahre mit HighEnd GPUs bestückt wird und wo heute schon das Limit erkennbar ist, war einfach keine gute Wahl.

Auf deine Erklärung, warum die schnellere GPU MEHR gedeckelt wird als die langsamere bin ich echt gespannt - du behauptest felsenfest, die CPU spiele für die Skalierung keinen rolle... Also schieß los.

PS: bitte nicht von den Zahlen bei CB täuschen lassen - das waren Prozent, nicht FPS!
Und lass dich auch nicht von den 99th percentile blenden - da schießt CB auch den Bock und benachteiligt bewusst/unbewusst - ich weis es nicht - die langsameren Systeme durch die Art und Weise ihrer Datenerhebung. (deswegen ist dort der Abstand idR auch noch größer)

Zur Erklärung, falls von interesse:
Um das nachvollziehen zu können - sollte man wissen, das Frame der FPS Messung setzt sich IMMER aus einem CPU und einem GPU Anteil zusammen. Hier gilt es - im GPU Review - den GPU Anteil zu beäugen. Da sich der Spaß bei einer FPS Messung nicht mehr trennen lässt, MUSS man den Anteil der CPU so gering wie möglich halten.
In aktuellen Spielen geht der Trend aber vermehrt dazu über, recht hohe Zeiten auf der CPU Seite zu haben... So kann es dir passieren, dass da pro Frame allein über 5ms CPU Anteil stehen. Das heist, im Bestcase - GPU Speed annähernd unendlich, kommst du auf maximal 199,x FPS. MEHR ist nicht... Oben drauf kommt der GPU Anteil - sagen wir 10ms = 15ms in Summe = 66,67 FPS. Geb ich nun 50% mehr GPU Power drauf, erwarte ich 50% mehr Frames -> aber das wird nicht passieren! Es kommen ca. 85,71 FPS raus - da der CPU Anteil starr bleibt - im dümmsten Fall sogar steigt (bspw. wenn da was FPS gekoppelt ist und mehr Rechenzeit braucht)
-> das ist ne Skalierung um poplige 28,5%.
Rechne das jetzt mal bei doppelt so schneller CPU - CPU Anteil also bei 2,5ms anstatt 5 und ebenso der Skalierung von 50% mehr Power auf der GPU Seite... (es kommen schon 36,3% raus)

Unschwer zu erkennen - um so geringer der CPU Anteil - desto besser die Skalierung. Genau aus diesem Grund verwendet man die besten CPUs und nicht, das was gerade im Regal liegt oder gut aussieht...

Eine Testreihe startet immer von einem analysierten Ausgangswert, ob der von einem TR oder SKL-X abstammt ist völlig egal, es geht ja nicht darum CPU Leistung abzubilden, oder die unterschiedlicher Plattformen oder Konfigurationen bzw. die Vor- oder Nachteile dieser heraus zu kristallisieren.
Du bist auf dem richtigen Weg - aber du blendest einfach aus, dass die CPU Performance maßgeblich Einfluss auf die Skalierung hat. Nimms mir nicht übel, aber wie soll ich das bewerten? Du wirfst mir oben "Geunke" hinterher, hier kommt was von "Geplärre" - und dabei verstehst du einfach die absolute Basis nicht. Mehr als dir das zu versuchen, aufzuzeigen KANN ich nicht tun. Das verstehen musst du allein hinbekommen. Ich für meinen Teil habe es nun mehrfach erklärt - und es reicht für mich nun hier. Auf Stammtischgequatsche ohne Background habe ICH keine Lust...
 
Auf Stammtischgequatsche ohne Background habe ICH keine Lust...

Und was hat das jetzt alles mit der o.a. Aussage zu tun, das wir eben nicht auf unterschiedlichen Plattformen und unterschiedlichen CPUs testen, sondern Grafikkarten auf der immer gleichen Plattform mit der immer gleichen CPU, ich könnte auch einen Zweikerner nehmen oder einen ARM, das Ergebnis wäre in Simulation und Validierung immer das gleiche, weil sich eben an diesen Größen nichts ändert. Du schreibst zwar viel hast aber nicht im Ansatz verstanden was ich geschrieben habe.

Wenn du keine Lust auf Stammtischgequatsche/Geplärre hast (war nicht auf dein Postings bezogen), dann hättest du in diesem Thread genug gefunden was du hättest löschen können, weil Fanboygequatsche und Holzkopf oder "verpiss dich" (in schöne Worte gefasst) zwei völlig unterschiedliche Aussagen sind und zwar in ihrer Wertigkeit. PCGH "Bau" lasse ich mal unkommentiert.

Und worauf habe ich nicht geantwortet bzw. auf welche Aussagen bin ich nicht eingegangen? Ich habe eigentlich alles beantwortet (Antworten muss man ja nicht nochmal wiederholen und Fragen mit Fragen beantworten), mit Zitat einfügen (quote) wie das in Foren üblich ist. Ich springe auch nirgends beim Thema hin und her, sondern habe jetzt meine Aussagen zig mal wiederholt.

Die Leistung einer GPU skaliert mit der eingestellten Auflösung und Quali...eine Anwendung fordert dabei unterschiedliche viele CPU Kerne an. Wobei du einmal meinst, es gibt keine Skalierung und dann wieder schreibst das Hardware skaliert. Darauf werde ich sicher nicht antworten. Die Größe eines Caches hat auf deutlichere Leistungsschübe keine Auswirkung, zu große Caches können sogar das Gegenteil bewirken....die Leistung lässt sich zwar durch gezieltes Caching steigern, dass hat aber nichts mit der Größe (Vergrößerung) an sich, sondern eher mit gesteigerter Auslastung zu tun, damit mit dem Durchsatz (siehe SSD's). Schon kleinere Datenblöcke ermöglichen hier, eine bis zu 4-fache Leistungssteigerung und der Cache muss dabei auch nicht größer sein. Wichtiger mag die Latenz sein. Das AMD die I/0 Breite gesteigert hat, um auch Latenzen zu minimieren, habe ich jetzt mehrfach angesprochen. Das ignorierst du gekonnt.

Ob AMD der HWL-Redaktion Hardware gesponsert hat oder nicht, was auch immer - ist mir übrigens völlig egal und gehört zu den Internas auf HWL die mich nichts angehen. Falls du mit der Entscheidung nicht zufrieden bist, dass deine eigene Hausredaktion sich eben für AMD entschieden hat, solltest Du das mit denen klären - nicht mit mir. Ich habe nur versucht die Vorteile zu verdeutlichen, dass es auch Nachteile gibt habe ich nicht von der Hand gewiesen (auch wenn ich sie nicht explizit angesprochen habe).

Hier wurde nur ziemlich allgemein behauptet, unter Spielen ist TR so viel schlechter als gleichwertige Modelle der Konkurrenz. Nur ist das gar nicht so, die werden von einem 8700k unter Spielen, die eben nicht von mehr als 6 Cores profitieren genauso stehen gelassen. Wo ist da ein Unterschied?

Man reitet hier seitenweise darauf umher, wie toll andere (kann ja nur Intel? sein, damit vergleichbarer Bias) doch wären, dass es da Leute gibt die meinen AMD reicht auch ist doch völlig normal - oder? Im Übrigen trifft auf jede Plattform oder Architektur zu, dass diese bei Kauf wahrscheinlich schon veraltet sein kann (es ist ja immer etwas Neues in der Entwicklungspipeline), nur ewig warten bringt absolut nichts.

Das TR keine NUR-Gamer Plattform ist, wissen wir alle schon und CPU Limits auch vorliegen können. Trotzdem ist erkennbar, dass TR unter Multitask-User und im Local Mode (z.B. unter TimeSpy) mehr DrawCalls triggert, als das sonst eine CPU unter vergleichbarem API Overhead könnte. Das lässt auf zukünftige Steigerungen bei günstigem Softwareumfeld hoffen. Eine vermeintliche Spieleschwäche liegt dann auch nicht vor, eher eine nicht Berücksichtigung bei der Entwicklung. Wir sehen auch, dass bei manchen Anwendungen oder Spielen völlig egal ist, welche CPU im Rechner steckt (i3-i7 oder SR3-TR), da dann das GPU-Limit, das CPU-Limit deutlich übersteigt. Es kommt also darauf an, was man wie unter welchen Szenarien testen möchte. Vielleicht klärst Du das hausintern ab.

Man schließt also weitgehend aus, wenn man alle Karten auf ein und demselben Testsystem testet, dass sich "Umgebungsbedingungen" signifikant ändern. Das eine 1050ti dabei nur 3 Cores fordert und eine TXp auch 10 hat dabei keine Relevanz (es blieben noch 6 Cores verfügbar). Dann die dickste Plattform für alles zu benutzen, ist nur logisch (mal abgesehen davon das es noch schnelleres gäbe).
 
Zuletzt bearbeitet:
Das eine 1050ti dabei nur 3 Cores fordert und eine TXp auch 10 hat dabei keine Relevanz (es blieben noch 6 Cores verfügbar).

Na klar, eine 1050 Ti nutzt 3 Cores, eine 1060 5 Cores, eine 1080 8 Cores und eine Xp 10 Cores. Genau so ist es!
Man darf nicht vergessen für die Soundkarte noch 2 Cores abzuziehen.
 
Na klar, eine 1050 Ti nutzt 3 Cores, eine 1060 5 Cores, eine 1080 8 Cores und eine Xp 10 Cores. Genau so ist es!
Man darf nicht vergessen für die Soundkarte noch 2 Cores abzuziehen.

Keine Corelimitation, das ist das Thema!
 
Na klar, eine 1050 Ti nutzt 3 Cores, eine 1060 5 Cores, eine 1080 8 Cores und eine Xp 10 Cores. Genau so ist es!
Man darf nicht vergessen für die Soundkarte noch 2 Cores abzuziehen.

Witcher 3 ist ab 4 Kernen GPU limitiert, das heißt aber nicht das eine langsamere Karte alle Kerne braucht um ihr GPU Limit zu erreichen und es ist auch nicht so, dass Treiber/Engine/API dann stupide alle Kerne auslastet. So etwas scheint dir völlig fremd zu sein...

Und was meine Aussage in Diskussion mit fdsonne anging, steht die auch im Zusammenhang mit Multitasking, was eine Stärke der Zen Architektur sein soll. Was du noch abziehen willst, weil du weitere Hintergrundprozesse am laufen hast ist dein Ding. Ich kann ja nebenbei auch noch ein Video rendern und auf Youtube hochladen.

Keine Corelimitation, das ist das Thema!
Es geht nicht um Logik, es geht um Geblubber, das Haar in der Suppe zu finden. Wenn die Moderation sowas zulässt ist das deren Ding.
 
Zuletzt bearbeitet:
Dass du nicht raffst, wie sehr ironisch und spöttisch mein Post war, wundert mich nicht.

Bei euch fehlt es halt an allen Ecken und Enden beim technischen Verständnis und Hintergrundwissen.
 
Ich denke es wäre gut, wenn die Redaktion schon bald mal ein paar Ergebnisse vom neuen System bringt.

Ein Sondertest zb "Wie Leistungsfähig sind die GPUs der Einsteigerklasse wirklich?" oder so, denke die Aufregung wird sich mit jedem
Ergebnis, auf das man mehr zurückgreifen kann, legen. :d

Oder ein Nachtest von Vega zb "Mehr Adrenalin mehr Power?"

Ich kann mir auch Vorstellen, dass das System für Game-Test eingesetzt wird, also lasst uns mal abwarten was kommt, bleib spannend!
 
heute kam doch ein Sondertest.
Mining mit dem 1950x :wayne:


:fresse:
 
Dass du nicht raffst, wie sehr ironisch und spöttisch mein Post war, wundert mich nicht.

Bei euch fehlt es halt an allen Ecken und Enden beim technischen Verständnis und Hintergrundwissen.

Das führst du ja nun zum x-ten Mal an, schreibst aber nichts zur Prozessoraffinität, Threadmigration, synchrone/asynchrone E/A Affinität und maximale Threadanzahl. Du willst imo nur cool rüber kommen und dein meinungsgebundenes Ding leben (o.k. dann mach das) - anstatt dann Logik walten zu lassen und sinnvolle Beiträge zu leisten. Nun schreibst du auch einfach mal dazwischen ohne das jemand weiß, wer überhaupt gemeint war.

Mach dir mal die Mühe und klick im Taskmanager mal diesen o.a. Bereich an und du wirst staunen, was da alles geht oder nicht geht, bei expliziter Kernzuweisung. Bei einer GPU Limitierung hilft auch nicht höchster Takt.

Aber ich weiß schon, alle anderen sind halt zu dumm das zu erfassen. Es fehlt bei uns überall...natürlich. Was das mit dem Thema zu tun haben soll k.A..:fresse:

Ironie des Schicksals, wir haben es uns selbst ausgesucht...
 
Zuletzt bearbeitet:
Witcher 3 ist ab 4 Kernen GPU limitiert

ähm.. nein.

das spiel ist im gpu-limit gpu-limitiert, wie viele cpu-kerne dafür nötig sind ist dabei erstmal herzlich egal.
wenn man will kann man in dem spiel auch mit einer dualcore cpu ein gpu limit bewerkstelligen - genauso kann man aber auch dafür sorgen das man mit einer 8-kern cpu kein gpu-limit erreicht.

Witcher 3 - 8700K vs. 8600K vs. 7820X vs. 1800X CPU-Benchmark 720p 1080 Ti OC - YouTube

falls du ausdrücken möchtest dass das spiel nur maximal 4 kerne ordentlich auslasten kann.. das kann evtl sein, das sind dann allerdings zwei paar schuhe.
 
Zuletzt bearbeitet:
Nur ist das gar nicht so, die werden von einem 8700k unter Spielen, die eben nicht von mehr als 6 Cores profitieren genauso stehen gelassen. Wo ist da ein Unterschied?

Quark!
Nehmen wir als Beispiel einfach mal AC Origins. Das hat laut diesem Test hier eine sehr gute Kernskalierung und skaliert auch mit 8 Kernen + SMT. (Ja, ich bin mir bewusst, dass das runtertakten des Ryzens für so einen Test nicht optimal ist)

Sind die 8-Kerner jetzt schneller als der 8700k?
Nope
Nein
Nada

Kann sich der 6 Kerner deutlich von einem 4 Kerner absetzen?
Nope
Negativ

Falls es irgendwen stört, dass ich zur Veranschaulichung AC Origins benutzt habe, der kann sich gerne Ghosten Recon Wildland anschauen, das verhält sich ähnlich. :wink:


Man reitet hier seitenweise darauf umher, wie toll andere (kann ja nur Intel? sein, damit vergleichbarer Bias) doch wären, dass es da Leute gibt die meinen AMD reicht auch ist doch völlig normal - oder?

Es geht darum für ein GPU-Testsystem (und nicht was im Privatgebrauch für einige ausreichend ist) eine CPU einzusetzen, welche die GPUs in den Testszenarien möglichst nicht limitiert. GPUs werden i.d.R. in Spielen getestet und daher ist es sinnvoll für das Testsystem eine CPU zu nehmen, welche in diesem Bereich einfach die schnellste ist, sodass ein mögliches CPU-Limit möglichst nach hinten verschoben wird und die Ergebnisse der GPUs nicht verfälscht. Auch mit Blick in Richtung Zukunft, denn die GPUs werden immer leistungsfähiger. So reicht es für ein Testsystem eben nicht aus eine CPU einzusetzen, welche aktuell vielleicht nur ein wenig limitiert, aber später, wenn sich das GPU-Limit weiter verschiebt, stärker limitiert. Vor allem dann nicht, wenn sich andere CPUs für diese Bereiche einfach besser eignen und hier besser performen.

Aktuell ist eben dies ein 8700k. Siehe dir das zu diverse Benches oder Rankings an:
CPU-Tests 2018: Benchmark-Bestenliste - Leistungsindex für Prozessoren [Update mit 4× Coffee Lake & i9-7980XE]
Ryzen 7 1800X vs. Core i7 8700K, Meltdown Spectre Updates Benchmarked - YouTube

In dem Video ist der 8700k locker 15-20% schneller als ein 1800x. Der 8700k ist dabei noch nicht einmal übertaktet.


Das TR keine NUR-Gamer Plattform ist, wissen wir alle schon und CPU Limits auch vorliegen können.

Und deswegen ist der TR nicht optimal für ein Testsystem, welches GPUs testen soll. Also wo ist dein/euer Problem?


Das eine 1050ti dabei nur 3 Cores fordert und eine TXp auch 10 hat dabei keine Relevanz (es blieben noch 6 Cores verfügbar). Dann die dickste Plattform für alles zu benutzen, ist nur logisch (mal abgesehen davon das es noch schnelleres gäbe).

Wat :confused:

Das habe ich mir btw ziemlich oft gedacht, aber keine Lust alles aufzugreifen. Nicht nur bei deinen Beiträgen :wink:


Witcher 3 ist ab 4 Kernen GPU limitiert

Ist das so?

Core i7 8700K vs Core i7 7700K/ i7 4790K/ i7 3770K 4.5GHz OC Gaming Benchmarks! - YouTube


Und was meine Aussage in Diskussion mit fdsonne anging, steht die auch im Zusammenhang mit Multitasking, was eine Stärke der Zen Architektur sein soll. Was du noch abziehen willst, weil du weitere Hintergrundprozesse am laufen hast ist dein Ding. Ich kann ja nebenbei auch noch ein Video rendern und auf Youtube hochladen.

Völlig uninteressant für ein GPU-Testsystem....

Würde irgendeine Redaktion auf die stupide Idee kommen, während der Tests noch eine Video zu rendern, würden sie Ergebisse total verfälschen und sich selbst disqualifizieren. Naja außer des ist ein Sondertest, wo explizit so etwas getestet werden soll...


Aber jetzt zum Topic.

Ich empfinde den 1950x auch nicht gerade als beste Wahl als CPU für das GPU-Testsystem. Wie weiter oben so ausgeführt, gibt es bezogen auf die Leistung bessere Alternativen. Aber was ich auch als Problem ansehe, sind die unterschiedlichen Modi (Distributed Mode, Local Mode, Game Mode, Creator Mode), das kann alles für ordentlich Verwirrung sorgen. Welcher Modus wird genutzt? Spiele reagieren leider nicht immer gleich auf die unterschiedlichen Modi, so läuft Spiel A mit dem Creator Mode am besten, Spiel B wiederum läuft am Besten im Game Mode, Spiel C läuft nur im Game Mode, usw.. Wird sich da am Anfang auf einen Modus festgelegt und falls ja, mit welcher Begründung wurde dann genau dieser gewählt? Was passiert mit Spielen, die damit Probleme haben? Werden diese einfach aussortiert? Das könnte man an dieser Stelle sehr lange weiterführen :d

Game vs. Creator Mode: Was ist was? - AMD Ryzen Threadripper 1950X und 1920X - AMD's Kernkompetenz auf dem Prüfstand

Computerbase.de schrieb:


Viel Spaß mit den neuen System :d
 
Zuletzt bearbeitet:
ähm.. nein.

das spiel ist im gpu-limit gpu-limitiert, wie viele cpu-kerne dafür nötig sind ist dabei erstmal herzlich egal.
wenn man will kann man in dem spiel auch mit einer dualcore cpu ein gpu limit bewerkstelligen - genauso kann man aber auch dafür sorgen das man mit einer 8-kern cpu kein gpu-limit erreicht.

Witcher 3 - 8700K vs. 8600K vs. 7820X vs. 1800X CPU-Benchmark 720p 1080 Ti OC - YouTube

falls du ausdrücken möchtest dass das spiel nur maximal 4 kerne ordentlich auslasten kann.. das kann evtl sein, das sind dann allerdings zwei paar schuhe.
Das Spiel ist ab 4 Kernen GPU limitiert (vermutlich dann ab einer bestimmten Anzahl an Threads - 8 könnten parallel ausgeführt werden), auch 20 CPU Kerne ändern an dem Umstand nichts, auch nicht welche mit 6 GHz. Die CPU kann NICHT mehr berechnen, wenn sie keine Daten von der GPU erhält und diese am Limit ist, der Rest steht weiter oben. Es gibt natürlich genauso gut auch Softwarelimitierungen. Die Ressourcenverteilung ist dabei wieder ein anderes Thema, bevor zum Bsp. der geforderte CPU Kern 1-4 auf 80 Grad geprügelt wird, wird die CPU Last auf weitere oder alle Kerne verteilt (CPU Sheduling - Arbitration - Multilevel Queue Scheduling) und das hat nichts mit der ausführbaren maximalen Threadanzahl einer Anwendung zu tun.

Die reine Threadverteilung wird durch Windows verwaltet, mit bestimmter Priority, dass heißt, das die im Film gesehene Auslastung gar nicht NUR vom Spiel herrühren muss, sondern auch noch Hintergrundanwendungen laufen die Prozessorressourcen benötigen. Was ich auch mit Multitask beschrieb. Witcher 3 profitiert von mehr als 4 Kernen kaum, was klar auf eine GPU Limitierung hindeutet. Die Software erfasst dabei alle Lastzustände, nicht nur die - die durch Witcher 3 verursacht werden und bildet sie ab.

- - - Updated - - -

dito

Sind die 8-Kerner jetzt schneller als der 8700k?
Wenn ich in der Zukunft abbilden will, ob eine Anwendung mehr als 12 Threads fordert, was dann? Dann kauf ich halt wieder neu, machen ja alle so, oder krieg's gesponsort oder was weiß ich, und darf meine alten Ergebnisse mal vergessen und Wochen von vorne bis hinten new benchen. Gute Idee...

Es geht darum für ein GPU-Testsystem (und nicht was im Privatgebrauch für einige ausreichend ist) eine CPU einzusetzen, welche die GPUs in den Testszenarien möglichst nicht limitiert.
Ja und dafür nimmt man einen 6 Kerner...

In dem Video ist der 8700k locker 15-20% als ein 1800x. Der 8700k ist dabei noch nicht einmal übertaktet.
Was denn nun? Wer ist jetzt übertaktet und wer nicht?

Du meinst sicher 15-20% vor dem 1800x und nicht übertaktet, also Stock.

Wat :confused:
Das habe ich mir btw ziemlich oft gedacht, aber keine Lust alles aufzugreifen. Nicht nur bei deinen Beiträgen :wink:
Du kannst denken was du willst.


Völlig uninteressant für ein GPU-Testsystem....
Ja klar, da wird Multitask für die Zukunft beworben, gerade von AMD - aber das ist einfach Blödsinn, weil's bei den Konsolen auch niemand braucht. Das war einer der Wünsche die vermutlich an AMD herangetragen wurden...irgendwo muss man sich ja positionieren.

Habe ich Seiten vorher schon angesprochen... du hast also nicht alles gelesen.
 
Zuletzt bearbeitet:
Das Spiel ist ab 4 Kernen GPU limitiert (vermutlich dann ab einer bestimmten Anzahl an Threads - 8 könnten parallel ausgeführt werden), auch 20 CPU Kerne ändern an dem Umstand nichts, auch nicht welche mit 6 GHz. Die CPU kann NICHT mehr berechnen, wenn sie keine Daten von der GPU erhält und diese am Limit ist, der Rest steht weiter oben. Es gibt natürlich genauso gut auch Softwarelimitierungen. Die Ressourcenverteilung ist dabei wieder ein anderes Thema, bevor zum Bsp. der geforderte CPU Kern 1-4 auf 80 Grad geprügelt wird, wird die CPU Last auf weitere oder alle Kerne verteilt (CPU Sheduling - Arbitration - Multilevel Queue Scheduling) und das hat nichts mit der ausführbaren maximalen Threadanzahl einer Anwendung zu tun.

Die reine Threadverteilung wird durch Windows verwaltet, mit bestimmter Priority, dass heißt, das die im Film gesehene Auslastung gar nicht NUR vom Spiel herrühren muss, sondern auch noch Hintergrundanwendungen laufen die Prozessorressourcen benötigen. Was ich auch mit Multitask beschrieb. Witcher 3 profitiert von mehr als 4 Kernen kaum, was klar auf eine GPU Limitierung hindeutet. Die Software erfasst dabei alle Lastzustände, nicht nur die - die durch Witcher 3 verursacht werden und bildet sie ab.

du kannst im verlinkten video eindeutig sehen das dort trotz vier verschiedener cpus mit mehr als 4 kernen in witcher 3 kein gpu-limit vorliegt
und trotzdem bleibst du hier felsenfest dabei das bei verwendung von einer 4-kern cpu in wichter 3 in jedem fall die gpu limitiert :fresse:

sicher das du überhaupt weist was ein gpu-limit ist?
 
Ja ich hätte mir auch lieber eine reaktion von der Redaktion gewünscht. :hwluxx: Sorry andere Seite Die besten Prozessoren Oktober 2017 - Kaufberatung für Gaming CPUs mit Rangliste aber hier sieht man gut das der TR 20% langsamer ist wie ein i7 oder i9 mit selber Graka verstehe nicht warum das einige nicht akzeptieren. Das für nen Gpu Testsystem einfach ein TR die falsche Wahl ist.
Welche Online Redaktion nutzt denn sonst ein AMD HEDT Plattform um Grafikkarten zu testen?
Es geht doch nicht um optimal oder nicht, es gibt Leute die einen ThreadRipper besitzen und gerne ein paar Vergleichswerte auf deren Basis sehen wollen.
Das Absprechen dies sei nicht Optimal, lässt dann nicht mal Optimierungen zu, willst du evt keinen Vergleich zu AMD?
 
This!

Es wird einem Vergleich der Plattformen Rechnung getragen und AMD darf nun auch mal dran sein, das gefällt vielen und einigen nicht, nichts Neues eigentlich :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh