Das ist unser neues Grafikkarten-Testsystem für 2018

willst du evt keinen Vergleich zu AMD?
Ich glaube, daß ist nicht das Thema.
Sicher wollen wir auch einen Vergleich zu AMD/Threadripper, aber in einem CPU Test.
Für einen GPU Vergleich hätte ich mir doch eine CPU gewünscht, die die Grafikkarten so wenig wie möglich limitiert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
trotzdem bleibst du hier felsenfest dabei das bei verwendung von einer 4-kern cpu in wichter 3 in jedem fall die gpu limitiert :fresse:

sicher das du überhaupt weist was ein gpu-limit ist?

Wo habe ich das geschrieben? Ich sprach von einem 4 Core Limit der GPU oder 8 Threads! Wo bitte siehst du ein CPU Limit?, die GPU würde sporadisch ihren Takt senken, was die Frameverläufe stark beeinflussen würde. Und irgend etwas muss ja limitieren, hast du überhaupt gelesen was ich dazu geschrieben habe? Ein GPU SLI knallt mit gleicher CPU bei 1080p Ultra 100fps auf den Bildschirm und eine gleichwertige Single GPU aus dem Gespann 60fps und Witcher 3 ist CPU limitiert.

Übrigens hat das Level Ultra oder High dann kaum noch Einfluss auf die fps Rate (bei gleichem Setting rennt die GPU schon bei High ins Limit und Datenparitäten der Modi bei verfügbarem VRAM machen den Kohl dann nicht mehr fett, W3 an sich setzt ab Medium bestimmten GPUs ordentlich zu, dazu muss der Speicher nicht volllaufen), die GPU ist einfach am Ende angelangt, an einem Speicherlimit liegt es nicht. GamerNexus testete damals auch mit 12GB Karten, bei allen Modi und der PCGH (Bau) auch. Die sind natürlich alle zu dämlich.

Nein - ich weiß nicht was ein CPU und GPU Limit ist, ist gut. O.K., ich gebe auf ihr habt Recht. Intel wäre klar besser, was anderes kann ja kaum gemeint sein. Am besten einen 6 Core ohne HT/SMT, damit er immer schön bis 5 GHz taktet.
 
Ich glaube, daß ist nicht das Thema.
Sicher wollen wir auch einen Vergleich zu AMD/Threadripper, aber in einem CPU Test.
Für einen GPU Vergleich hätte ich mir doch eine CPU gewünscht, die die Grafikkarten so wenig wie möglich limitiert.
Keine Frage aber Sockel 1151(2) lässt nur zwei GPUs zu, also eine Einschränkung von vorn herein.
Ein I9 hat auch ein Quad Channel IMC, warum darauf verzichten?
 
Das Spiel ist ab 4 Kernen GPU limitiert

Ryzen 7 1700/ 1700X/ 1800X vs i7 7700K Gaming Benchmarks - YouTube

Wieso liefert der 7700k dann mehr FPS in Witcher 3 als die Ryzen, wenn das Spiel doch angeblich ab 4 Kernen die GPU limitiert? Wo kommen die denn her? Was ist wenn wir einen Bulldozer mit 4 Kernen einsetzen?

Mit solchen Pauschalaussagen sollte man vorsichtig sein.



Tolle Erklärung :hust:


Wenn ich in der Zukunft abbilden will, ob eine Anwendung mehr als 12 Threads fordert, was dann? Dann kauf ich halt wieder neu, machen ja alle so, oder krieg's gesponsort oder was weiß ich, und darf meine alten Ergebnisse mal vergessen und Wochen von vorne bis hinten new benchen. Gute Idee...

Oder du nimmst Process Lasso und schaust dir an, wie viele Threads eine Anwendung erzeugt. :d

Spaß beiseite.

Nur weil eine Software 12 Threads auslasten kann, heißt dies noch lange nicht, dass diese auch mit so vielen Kernen/Threads skaliert bzw. skalieren muss. Es heißt auch noch lange nicht, dass eine andere CPU mit weniger Kernen/Threads nicht trotzdem eine bessere Leistung erzielen kann, weil sie die bessere Singlethread-Leistung hat.

Gerade Spiele profitieren viel mehr von schnellen Kernen als von vielen langsamen. Sieht man doch eindeutig bei solchen Spielen wie AC Origins, Ghost Recon Wildlands, Watch Dogs und viele mehr. Die weisen bei langsamen Kernen alle deine sehr gute Skalierung über die Anzahl der Kerne auf. Aber sobald die Kerne schneller sind, reichen auch weniger Kerne aus, um die gleiche Leistung zu erzielen.

In diesen Test kann man das ganz gut erkennen. Durch das runtertakten des 6950X auf 2 GHz, rennt man erst mit 10 Kernen + HTT ins GPU-Limit, während man bei 4 GHz schon mit 4 Kernen ohne HTT ins GPU-Limit läuft.

Also was bringt diese tolle Kernskalierung, wenn sich das Blatt durch viel Singlethread-Performance ändert und eine CPU mit weniger Kernen sogar schneller ist?
Das einzige was hier besser wäre, wäre eine CPU mit mehr Kernen und gleichzeitig gleiche Singlethread-Leistung. Liefert das ein TR? Nein => 8700k ist besser geeignet.
Wird der Tag kommen an dem sich das umdreht? Wahrscheinlich
Wann wird das passieren? Puh, da kannste lange warten und bis dahin sind der 8700k sowie TR so dermaßen veraltet, dass es keinen Unterschied mehr macht.

Ach ne, ich vergaß ja 2018 ist das Jahr der Kerne.. Wie 2017.. Oder 2016 :hust:


Ja und dafür nimmt man einen 6 Kerner...

Ja wenns nun mal die schnellste CPU in dem Bereich ist, dann nimmt man halt einen 6 Kerner.. Was willst du denn groß machen?


Was denn nun? Wer ist jetzt übertaktet und wer nicht?

Beide Stock.


Du meinst sicher 15-20% vor dem 1800x und nicht übertaktet, also Stock.

Ja, habs verbessert. :wink:


Ja klar, da wird Multitask für die Zukunft beworben, gerade von AMD - aber das ist einfach Blödsinn, weil's bei den Konsolen auch niemand braucht. Das war einer der Wünsche die vermutlich an AMD herangetragen wurden...irgendwo muss man sich ja positionieren.

Noch einmal, es geht hier um ein Testsystem und da ist es völlig fehl am Platz, wenn man neben den Tests und benötigte Tools zur Erfassung von Daten irgendetwas anderes laufen lässt. Gerade wenn es solche Sachen wie rendern sind, da diese ordentlich Leistung verschlingen und dadurch die Ergebnisse total verfälschen können.

Man kann Sondertest machen, wo solche Mulitask-Test gemacht werden, aber bitte nicht in einem GPU-Test...

Manche Leute haben hier Vorstellungen ey.. Das ist reinstes Nitpicking.

Habe ich Seiten vorher schon angesprochen... du hast also nicht alles gelesen.

Ich habe die meisten Beiträge hier nur überflogen und es tatsächlich nicht gelesen.. War wohl gerade am Facepalmen, als der Part kam, wo du das geschrieben hattest :d
 
@Paddy

klasse immer wieder dagegen halten, was das Zeug hält:fresse:

Das bringt doch nichts, die Luxx Redaktion hat uns informiert über das neue Testsystem 2018.
 
Wieso liefert der 7700k dann mehr FPS in Witcher 3 als die Ryzen, wenn das Spiel doch angeblich ab 4 Kernen die GPU limitiert?

Die GPU limitiert die CPU - nicht umgekehrt. Das Video ist vor dem Windows 10 Patch für Zen, was soll das bitte aussagen? Das hatten wir doch schon.

Mehr Phys-Cores (4C+HT oder 6C) bringen nichts: The Witcher 3: Wild Hunt i5-8600K vs. i7-7700K - YouTube

Lass uns einfach abwarten dann sind wir schlauer. Viel Spaß...

Wenn du weiter gucken willst, bemerkst du auch das mehr Cores unter einigen wenigen Engines doch relevant sind. Und das hatte auch die Redaktion angesprochen oder hofft darauf.
 
Zuletzt bearbeitet:
Das bringt doch nichts, die Luxx Redaktion hat uns informiert über das neue Testsystem 2018.

Man darf doch kritisieren. Wäre dies nicht erwünscht oder erlaubt gewesen, dann hätte man einfach die Kommentare deaktivieren können.


Das Video ist vor dem Windows 10 Patch für Zen, was soll das bitte aussagen? Das hatten wir doch schon.

Der Ryzen-Patch hat einfach ein neues Energieprofil hinzugefügt, welches "Core-Parking" verhindert. Ob dieser Patch auch die anderen "Empfehlungen" implementiert hat, weiß ich nicht. Digital Foundry hat sich bei den Ryzen Tests an die von AMD empfohlen Einstellungen (Reviwer-Guide) gehalten und somit den gleichen Effekt erziehlt, wie der Ryzen Patch. :wink:

Ryzen 7 1800X Review! Whats The REAL Deal With Gaming? - YouTube ab Minute 5, redet er über die Empfehlungen von AMD.


Die GPU limitiert die CPU - nicht umgekehrt.

Mehr Phys-Cores (4C+HT oder 6C) bringen nichts: The Witcher 3: Wild Hunt i5-8600K vs. i7-7700K - YouTube

Geil, dir wurde jetzt sämtliches Material vorgelegt, welches beweist, dass Witcher 3 auch noch mit mehr als 4C skaliert und du verweigerst dich immer noch, dies zu akzeptieren. Wieso strebst du dich gegen Fakten?
Aber Hey, dein einzelnes Video beweist es ja, weil man mit einer 1080 ins GPU-Limit rennt :banana:

Hier ein allerletzter Versuch. Ab 3:37 Minuten ist Witcher 3 zu sehen. Da ist die Reihenfolge folgende: 8700k > 8600K > 7700k > 8400. Was ist der Unterschied zu deinem Video? Es wurde eine deutlich stärkere Grafikkarte benutzt und somit das GPU-Limit verschoben, sodass die Unterschiede zwischen den einzelnen CPUs zu erkennen sind. Hier ist sogar zu erkennen, dass der 8700k gegenüber den 8600k womöglich dank HTT sogar noch skaliert. Also ist deine Behauptung ab 4 Kerne so was von widerlegt, wenn es sogar noch einen Unterschied zwischen 6T und 12T gibt! Es macht sogar einen Unterschied, ob 6C oder 4C + 4T!

Core i7 8700K/ i5 8600K/ i5 8400 Gaming Benchmarks vs Core i7 7700K - YouTube


Wenn du weiter gucken willst, bemerkst du auch das mehr Cores unter einigen wenigen Engines doch relevant sind. Und das hatte auch die Redaktion angesprochen oder hofft darauf.

Das Problem ist einfach nur, dass viele Leute falsch an die Sache herangehen. Aber das kann ich dir später erklären (ich habs mit dem Vergleich langsame Kerne vs schnelle Kerne schon angedeutet).
 
Zuletzt bearbeitet:
Die GPU limitiert die CPU - nicht umgekehrt. Das Video ist vor dem Windows 10 Patch für Zen, was soll das bitte aussagen? Das hatten wir doch schon.

Mehr Phys-Cores (4C+HT oder 6C) bringen nichts: The Witcher 3: Wild Hunt i5-8600K vs. i7-7700K - YouTube

Lass uns einfach abwarten dann sind wir schlauer. Viel Spaß...

Wenn du weiter gucken willst, bemerkst du auch das mehr Cores unter einigen wenigen Engines doch relevant sind. Und das hatte auch die Redaktion angesprochen oder hofft darauf.

naja 1080p und low ist halt auch nicht das sinnvollste.

max und low res und ohne AA find ich besser
 
Zuletzt bearbeitet:
naja 1080p und low ist halt auch nicht das sinnvollste.

max und low res und ohne AA find ich besser
Aber um ein GPU Limit auszuschließen macht es Sinn, das ist ja was andere nicht verstehen, ab Medium limitiert schon die GPU.

- - - Updated - - -

Das Problem ist einfach nur, dass viele Leute falsch an die Sache herangehen.

Na da bin ich aber gespannt, weil du felsenfest zuweilen soviel Fehlinformationen reinhaust.

Coreparking ist also deiner Meinung egal bei Gaming, ja? Dann mach dir mal die Mühe (wenn du denn einen Ryzen besitzt) einfach mal auf Energiesparen zu stellen, was dann passiert!

Und nein das stimmt nicht - was du schreibst, Microsoft optimierte Windows Aufgaben zwischen den zwei Vierkern-Einheiten (CCX), aus denen der Acht-Kern-Prozessor besteht, weil dieser sonst wahllos hin und her switchte (die Threadverteilung nimmt Windows selbst vor!). Dies beeinträchtigt die Performance und erhöht Latenzen bei verringerter Speicherbandbreite.

Also nicht nur NUR Coreparking wie du schreibst...
 
Zuletzt bearbeitet:
durch low-Settings wird aber auch die CPU entlastet weil etwa der Polycount zurückgenommen wird.

Ich finde es auch sinnvoller Low Res aber High Settings.
Um dann ein GPU-Limit auszuschließen bencht man ja CPU-Tests mit der zum jeweiligen Zeitpunkt stärksten GPU.
Und der Fall ist aktuell klar, Titan Xp bzw. 1080Ti.
 
Ich finde es auch sinnvoller Low Res aber High Settings...

Grafikrelevante Settings auf low, ja...

Was er nicht kapieren will ist das Windows auch noch CPU Power benötigt und AB per OSD eben die gesamte Systemlast abbildet, nicht nur die, die durch ein Spiel entsteht. Dabei werden Threads zuweilen auf andere Cores verschoben.

- - - Updated - - -

Und der Fall ist aktuell klar, Titan Xp bzw. 1080Ti.

Genau, einfach mal umblättern und lesen was ich fdsonne geschrieben habe. Die ti markiert z.Z. den absoluten Wert, den der Threadripper erreichen kann. Man geilt sich aber an den Balken auf die dann nicht lang genug sind. Man kann diese Werte aber mit seinem eigenen Setting beeinflussen (wie du gerade selbst feststellst) oder der verwendeten Software (CPU vs GPU limitiert).
 
Zuletzt bearbeitet:
weil du felsenfest zuweilen soviel Fehlinformationen reinhaust.

Die da wären?


Coreparking ist also deiner Meinung egal bei Gaming, ja?

Nein das habe ich nicht behauptet. Ich habe geschrieben, dass die von Digital Foundry sich an die von AMD empfohlenen Einstellungen gehalten haben, u.a. das einstellen des Energieprofils von "Ausgeglichen" auf "Höchstleistung". Wurde auch so in dem Video gezeigt und gesagt. Durch das Profil "Höchstleistung" kommt es eben nicht mehr zu den Core-Parking.


Und nein das stimmt nicht - was du schreibst, Microsoft optimierte Windows Aufgaben zwischen den zwei Vierkern-Einheiten (CCX), aus denen der Acht-Kern-Prozessor besteht, weil dieser sonst wahllos hin und her switchte (die Threadverteilung nimmt Windows selbst vor!). Dies beeinträchtigt die Performance und erhöht Latenzen bei verringerter Speicherbandbreite.

Also nicht nur NUR Coreparking wie du schreibst...

Nein, du verbreitest hier Fehlinformationen (witzig, dass du wiederum genau das mir unterstellen willst *faceplam* ).

Gaming: AMD Ryzenâ„¢ Community Update | Community
Gaming: AMD Ryzenâ„¢ Community Update #3 | Community
Windows 10: Fall Creators Update macht Ryzen schneller - Golem.de
 
Also hat Microsoft dann den betreffenden Patch für die Data Fabric in den Oktober verschoben? Microsoft Support auf Twitter

Mit einem neuem Energieprofil löst man also einen Thread-Sheduler Bug unter Windows. Da habe ich doch wieder was dazu gelernt. Das eine nennt sich nur Core Parking OFF und das andere Fast Frequency Change.

Das Energieprofil (höchster Kerntakt bei niedriger Spannung) war nur dafür da, zu verhindern schnelle Frequenzänderungen auf den Kernen zu unterbinden, damit der Balanced Plan nicht langsamer reagiert, als die interne Änderung der Core-Voltage, weil die Software diesen Leistungsstatus mit beeinträchtigt, braucht es dann auch dort Änderungen.

Aber o.k., das ich zu dumm bin wurde mir schon Seiten vorher bestätigt. Nur wenn Microsoft das selbst schreibt, hätte sich AMD eigentlich nicht selbst opfern müssen (um Ihr Image zu bewahren). Heute hat der Ryzen die gleiche Leistung ohne das alle Kerne (Idle/Load) ständig mit vollem Takt laufen müssten. Das kann man auch ziemlich leicht überprüfen, geht natürlich nur wenn man so eine CPU im Rechner hat. Es spart sogar minimal an der Wattage (10w ca.).
 
Zuletzt bearbeitet:
Also hat Microsoft dann den betreffenden Patch für die Data Fabric in den Oktober verschoben? Microsoft Support auf Twitter

Mit einem neuem Energieprofil löst man also einen Thread-Sheduler Bug unter Windows.

Ich frage mich gerade echt, ob deine Antwort sarkastisch ist oder ob du es ernst meinst...

Jetzt schau dir noch einmal ganz genau an, was du verlinkst hast. Microsoft hat zuerst einen Scheduler-Bug weder bestätigt noch dementiert. Sie haben lediglich geschrieben, dass sie sich die Sache ansehen werden. Später hat AMD dann einen Blogpost veröffentlicht, wo sie schreiben, dass der Windows 10 Scheduler so arbeitet wie vorgesehen und die (logische und physische) Kerne nicht nachteilig nutzt. (We have investigated reports alleging incorrect thread scheduling on the AMD Ryzen™ processor. Based on our findings, AMD believes that the Windows® 10 thread scheduler is operating properly for “Zen,” and we do not presently believe there is an issue with the scheduler adversely utilizing the logical and physical configurations of the architecture.) Diesen Blogpost hat Microsoft dann verlinkt, genau wie ich. Du scheinst solche Sachen aber einfach zu ignorieren...


Achja ich hatte dir noch eine Erklärung unterschlagen.
Viele Leute gehen an die Sache mit der Kernskalierung falsch heran, weil sie die Ergebnisse von Benches einfach falsch interpretieren. Die sehen sich Benches an und sehen nur, ein 4 Kerner ist schneller als 6 oder 8 Kerner, dann kommt sofort wieder die Keule von wegen schlechte Programmierung, keine Multicore-Unterstützung/Optimierung, Spiel nutzt nur x Kerne, würde das Spiel mehr Kerne nutzen können, dann wären die 4+ Kerner schneller und was da sonst noch immer für Parolen kommen. Diese Leute verstehen aber einfach nicht, dass Spiele schon ewig Multithreaded sind (oder Multicore-Unterstützung (wie es hier immer heißt) aufweisen) und auch eine gewisse Kernskalierung aufweisen, nur werden solche Ergebnisse oft durch andere Faktoren (andere Bottlenecks) verfälscht. Oft reichen einfach wenige, aber dafür schnellere Kerne vollkommen aus, um den gesamten Workload zu stemmen, d.h. aber noch lange nicht, dass die Kernskalierung nicht vorhanden ist, sie ist einfach nur nicht ersichtlich. Das ist ein entscheidender Unterschied.
Das ist auch sehr gut erkennbar bei meinem vorherigen Beispiel Ghost Recon Wildlands. Sind die Kerne langsam, dann brauch man halt mehr Kerne um den Workload zu stemmen. Sind die Kerne wiederum sehr schnell, dann reichen auch weniger aus um den Workload zu stemmen.

Bei den auf 2 GHz fixierten Kernen waren 10 Kerne mit HTT notwendig, um ins GPU-Limit zu laufen. => Kernskalierung über 10 Kerne sehr gut erkennbar.
Bei den auf 4 GHz fixierten Kernen waren auf einmal nur noch 4 Kerne ohne HTT nötig, um ins GPU-Limit zu laufen. => Kernskalierung über 4 Kerne hinaus nicht mehr erkennbar.

In diesen Beispiel ist das Bottleneck jetzt halt die GPU, welche limitiert, aber es können auch auch andere Bottlenecks auftreten. :wink:
 
In diesen Beispiel ist das Bottleneck jetzt halt die GPU, welche limitiert, aber es können auch auch andere Bottlenecks auftreten. :wink:
Da habe ich ja auch versucht zu erläutern, zudem bildet AB RTTS OSD nicht nur die CPU Last und damit Kernauslastung ab, die durch ein Spiel entsteht sondern die gesamte Systemlast. Die Thread lassen sich bildlich nicht trennen und über ein OSD wird nur die prozentuale Last angezeigt, nicht die Anzahl.

Was den Rest angeht müsste man sich mit Sheduler Thread Priority_class und /_level auseinandersetzen.

Wäre folgendes Thema unter Windows:
Designziele
Architektur
Virtueller Adressraum
Ausführungspfade
Prozesse und Threads
Quantum
Threadpriorität
Relative und Variable
Realtime
Dynamic Boost
Traps und SMP (hard_affinty, ideal_processor, soft_affinty, last-run)...

Merkst du was? Das sprengt nicht nur den Thread hier und ist weit offtopic. Siehe es daher einfach als Sarkasmus an und gut.

Ich finde AMDs TR als GPU Testsystem ausreichend, andere nicht. Damit ist alles gesagt. Mehr wollte die Redaktion wahrscheinlich nicht wissen.

Wahrscheinlich weil ich mich schon länger für ein solches System selbst interessierte und immer noch überlege ob es Alternativen gibt.;)
 
Zuletzt bearbeitet:
Und was hat das jetzt alles mit der o.a. Aussage zu tun, das wir eben nicht auf unterschiedlichen Plattformen und unterschiedlichen CPUs testen, sondern Grafikkarten auf der immer gleichen Plattform mit der immer gleichen CPU, ich könnte auch einen Zweikerner nehmen oder einen ARM, das Ergebnis wäre in Simulation und Validierung immer das gleiche, weil sich eben an diesen Größen nichts ändert. Du schreibst zwar viel hast aber nicht im Ansatz verstanden was ich geschrieben habe.

Richtig, ich verstehe nicht, wieso du die Basics von GPU Reviews nicht verstehen willst... Hier gehts immernoch nicht um lange Balken oder weis der Geier was du hier noch sehen willst.
In ein GPU Review gehört so wenig wie möglich CPU-Bremse rein. Fertig. WENN du hier unbedingt den TR sehen willst, dann schau dir das TR-Review an und lass die Leute, die sich über die Leistungsfähigkeiten von GPUs informieren wollen ihren Part... Ist ganz einfach.

Ich habe nur versucht die Vorteile zu verdeutlichen, dass es auch Nachteile gibt habe ich nicht von der Hand gewiesen (auch wenn ich sie nicht explizit angesprochen habe).
Über was reden wir dann bitte hier? Vorteile von TR stehen/standen nie zur Debatte... Keine Ahnung, was du hier überhaupt diskutierst, WENN dir die Punkte nichtmal klar sind... Wer über Vor- und Nachteile von TR debattieren will, soll bitte in den TR-Sammler gehen.
Hier gehts um ein Testsystem für kommende GPU-Reviews und nicht über Vorteile von TR :rolleyes:

Und worauf habe ich nicht geantwortet bzw. auf welche Aussagen bin ich nicht eingegangen? Ich habe eigentlich alles beantwortet (Antworten muss man ja nicht nochmal wiederholen und Fragen mit Fragen beantworten), mit Zitat einfügen (quote) wie das in Foren üblich ist. Ich springe auch nirgends beim Thema hin und her, sondern habe jetzt meine Aussagen zig mal wiederholt.
"Du gehst nicht auf die Aussagen anderer ein, springst stattdessen munter von Thema zu Thema, erst PCIe Lanes, MGPU, was du so toll an TR findest usw. usf. Alles schön und gut, aber erwarte nicht, dass man dir die Aussagen dann um die Ohren haut - vor allem wenn es absurd wird."
-> da stehen doch schon die Beispiele!?

Die Leistung einer GPU skaliert mit der eingestellten Auflösung und Quali...eine Anwendung fordert dabei unterschiedliche viele CPU Kerne an. Wobei du einmal meinst, es gibt keine Skalierung und dann wieder schreibst das Hardware skaliert.
Nein, behaupte ich nicht... Nochmal lesen bitte.
Auch skaliert die Leistung nicht mit der Auflösung... Nochmal, die GPU ist immer gleich schnell. Egal welche CPU da im System steckt, egal welche Auflösung du fährst, egal welche Settings du eindrehst... Das ist auch der Punkt hier im Kern der Kritik. WENN du zu wenig CPU Leistung bereit stellst im Testsystem, dann kommt von der Leistung der GPU in Form von messbaren FPS ggf. nicht mehr alles an. Um so mehr die GPU kann, desto mehr wird die Decklung vorzufinden sein.
(im übrigen, siehe oben, auch so ein Punkt - du gehst nicht auf die Aussagen ein. Ich erklärte dir bereits, dass die GPU immer gleich schnell ist - siehe "A)" im Post über dem deinigen)

Wir könnten die Messmethode ändern - bspw. nur noch Papierdaten vergleichen. Rohleistung in TFlop/sec, VRAM Menge, Bandbreite usw. -> DANN ists wurscht, was das Testsystem kann. Aber das ist eben nichts wert, wenn es um praktischen Einsatz geht.

Wenn du keine Lust auf Stammtischgequatsche/Geplärre hast (war nicht auf dein Postings bezogen), dann hättest du in diesem Thread genug gefunden was du hättest löschen können, weil Fanboygequatsche und Holzkopf oder "verpiss dich" (in schöne Worte gefasst) zwei völlig unterschiedliche Aussagen sind und zwar in ihrer Wertigkeit. PCGH "Bau" lasse ich mal unkommentiert.

Was soll dieser Unsinn?
DU hast mich zitiert und mit "geunke" losgetreten... Ganz ernsthaft. Du schmeißt hier mit irgendwelchen Begriffen um dich, die du irgendwo aufgeschnappt hast, aber verstehen - verstehen ist ein ganz anderer Part. Deinen Ausführungen zu Entnehmen bist du auch nur jemand, der weder mit Softwareentwicklung noch mit GPU-Rendering irgendwas am Hut hast. Da helfen auch irgendwelche Begriffe nicht - die du hier rumwirfst. Und "Coole Sprüche", die du Anderen vorwirfst.
Auch suchst du hier Ausreden warum TR doch ein gutes System ist - nochmal für dich, NIEMAND bestreitet das TR ein gutes System ist. NIEMAND!!!! - im Zusammenhang mit GPU-Leistungstests in Games ist ein TR System aber nicht die bestmögliche Option in 2018. -> du machst daraus: "Man geilt sich aber an den Balken auf die dann nicht lang genug sind." :rolleyes:

Genau diesen Bullshit (sorry) - lass einfach gut sein. Einfach nur noch lächerlich, was hier abgeht... Immer die gleiche Leier - Monat für Monat. Macht ihr mal und lügt euch weiter die Taschen voll. Ich geh mich derweile fragen, was so schwer dran ist zu kapieren, warum TR nicht die optimale Wahl ist - und damit der Kernpunkt für die Kritik.
 
Was für ein Battle hier, da kann man in Zweifel kommen, ob die Luxx Redaktion überhaupt hinter dieser Entscheidung steht, dieses System nutzten zu wollen? Die Mehrzahl der Kommentare hier sprechen ja dagegen, aus welchem Grund auch immer, sind diese den relevant, dass System womöglich noch zu kippen?
 
Mal was aus der TR Praxis, user @Crynis war so freundlich und hat das UV Setting aus dem Luxx Vega Sammler, welches die Jungs dort seit Monaten verfeinern, mit einem TR System getestet und konnte das beste Ergebnis bisher erzielen, welches dort mit dem UF Profil und einer Vega Karte erreicht wurde. Vergleichswerte sind im Sammler auf der 1 Seite zu finden. :)

Scheinbar konnte die Leistung des TR was dazu beitragen. ;)


so wie versprochen liefere ich euch den uv settings und auf wunsch von GerryB, habe ich PT+50, P6 1577/975, P7 1667/1028 genommen und es lief direkt durch ohne probleme !

hier das beweis bild ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh