NVIDIA Titan RTX trotz OC mit geringem Leistungsplus zur GeForce RTX 2080 Ti (Update)

man beachte den CPU score, und mein baby lief da nichtmal auf dem, was sich als inzwischen maximum rausgestellt hat :love:
2700X with 3600MHz mem beats a 5.2GHz 8700k with 4464MHz mem

Einen reinen CPU-Benchmark (unbegrenze Skalierung, Latenzunempfindlich) als Vergleich für Gaming Performance (schlechte Skalierung, Latenzempfindlich) herzunehmen, ist LÄCHERLICH. Einfach ein typischer AMD-Fanboy, der sich die Welt so zusammenreimt, dass am Ende das rauskommt, was raus kommen soll.

Dann poste ich jetzt einen TimeSpy Extreme Benchmark mit 10C20T @AVX512 und beweise damit, dass mein 7900X mehr FPS in Spielen liefert, als dein 2700X und ein 9900K zusammen :xmas:

Für einen Test einer Grafikkarte gehört einfach ein LGA1151 System mitsamt Intel Core i9 9900K 5Ghz und 2x8GB DDR4-4400 RAM her. Ansonsten testet man den CPU in einem Grafikkartentest
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist ja schön, dass ein Threadripper auf 4k nur minimal hinter Intel liegt, aber ein Bottleneck ist es nicht nur bei 1080p, sondern auch bei 1440p schon.
Die RTX 2080 (non TI) Tests sind sogar bei 1440p im CPU Bottleneck. Und eine 2080ti reicht ja kaum für 1440p mit höheren Refreshraten.

Davon aber komplett abgesehen: Um eine GPU zu vergleichen will man die relativen Unterschiede zwischen den GPUs sehen. Zu lesen: "Hey bei der Auflösung ist es eh egal!" ist nicht gerade hilfreich bei einer GPU-Kaufentscheidung. Auch wird nicht jeder Leser auf die 4k Zahlen schauen, wenn er selber 1080p oder 1440p hat.
Spätestens bei den 2080TI Reviews bei denen alles bis runter zur 1080(non ti!) die selben FPS hatten, sowohl in 1080p als auch fast in 1440p, hätte doch auffallen sollen, dass es ein Problem gibt. Das hat nichts mit Sinnhaftigkeit oder sonstigen Ausreden zu tun. Wenn man GPUs vergleicht, dann hat man gefälligst dafür zu sorgen, dass ein Vergleich auch möglich ist und man die entsprechende GPU Leistung in den Charts sieht. Was bringt es mir in ein GPU Review zu schauen und FPS Balken zu sehen die mir eine CPU zeigen, statt die GPU die ich sehen wollte?

Oder möchte jemand argumentieren, dass er in ein GPU Review schaut um Zahlen von CPUs zu finden? Egal welche Marke, dass ist doch Schmarn.
 
Es gibt aber auch User, die gerne wissen möchten wie GPU XY auf einem AMD TR-System abscheiden und wie sich das bei Games entwickelt, die möglicherweise über 8 Kerne unterstützen, das Thema Multi-GPU will ich mal nicht erneut erwähnen.

Darum geht es, eben Vergleiche zu schaffen, auch über die unterschiedlichen Plattformen und dem wird auch so Rechnung getragen und so auch das Grafikkartentestsystem begründet, warum kann man das nicht mal akzeptieren?
 
Echt blamabel die Leute, die 1080p auf einer Nvidia Titan RTX verteidigen. Und Threadripper sei ja sowieso nichts wert.
Es fällt mir hier langsam wirklich nichts mehr ein wie hier ständig quer geschrieben wird.... Am Thema vorbei.
 
Wenn ich von dir Kommentare lese sind sie meistens ziemlich unnötig oder unverschämt.

Dein beigelegter Link zu einem Benchmark zeigt in jedem GPU Score höhere Werte beim Intel System. Dazu muss man aber auch sagen, dass das Intel System mit einer höheren GPU Taktung fährt als dein System, aber das sieht eher danach aus, dass du nicht in der Lage warst deine 1080ti zu übertakten, denn die letzten 4 Stück die ich getestet haben sind out of the Box mit 2030-2070MHz gelaufen und das nur mit dem automatisierten GPU Boost.
Aber ohh welch eine Überraschung, deine CPU erreicht einen höheren CPU Score als der 8700k, was aber auch schon in einem CBR15 aufgefallen wäre. Gute Video Reihe gibt es hierzu von Jayztwocents oder Gamer Nexus, die auf einer 2080 ti ne Weile auf den Leaderboards rumgerutscht sind und sich effektiv nicht sehr viel getan hat beim GPU Score selbst in Verbindung zu erhöhtem CPU Takt, lediglich der CPU Score hatte starke Unterschiede, woraus sich dann natürlich der Gesamtscore ergibt.

und wie du siehst hat meine karte da mit 2063MHz gearbeitet bei 1.00V-core... das was auch als 24/7 einstellung läuft... das max ist jenseits der 2150MHz im fall :P

und "nicht in der lage warst die 1080Ti zu übertakten" :lol: omg, liege grad auf dem boden und krampfe vor lachen :lol: könnte jetzt ausholen wegen vergangenheit und so, aber keine lust, jedenfalls nehme ich mir das recht raus, zu sagen, das ich wohl mehr plan habe davon, als du je haben wirst *bussi links, bussi rechts, bussi links und tschüss*
 
Die Mehrleistung in Games ist doch überraschend! Wie kann das sein
 
Die Mehrleistung in Games ist doch überraschend! Wie kann das sein


Ist halt der Vollausbau mit mehr CUDA-, RT-, und Tensorcores.

BTW: Neben der RTX 2070 das einzige Modell, das mir von Turing bisher gefällt.
 
Diese Stock und pimmel OC Vergleiche interessieren doch nicht die Bohne, wir brauchen max OC Ergebnisse, Titan RTX und 2080 TI (Custom BIOS) jeweils mit max PT, ich warte schon den ganzen Tag drauf, was dauert da so lange :shake: :fresse2:
 
Zuletzt bearbeitet:
Es gibt aber auch User, die gerne wissen möchten wie GPU XY auf einem AMD TR-System abscheiden und wie sich das bei Games entwickelt, die möglicherweise über 8 Kerne unterstützen, das Thema Multi-GPU will ich mal nicht erneut erwähnen.

Darum geht es, eben Vergleiche zu schaffen, auch über die unterschiedlichen Plattformen und dem wird auch so Rechnung getragen und so auch das Grafikkartentestsystem begründet, warum kann man das nicht mal akzeptieren?

Und was bringt es diesem Nutzer, wenn er in einem GPU Review sieht wie eine CPU versagt?
Welchen Mehrwert habe ich, wenn alles ab GTX 1080 die selbe FPS zeigt? Der Leser klickt auf "2080TI Review" und bekommt nutzlose Charts.
Das ist alles Arbeit für die Luxxredaktion. Die könnten sie sich sparen. Könnten einfach schreiben "Charts, siehe GTX 1080". Auch eine 3080 wird keine anderen Zahlen bringen.

Wenn man sehen will wie sich der Threadripper schlägt, dann klickt man doch auf einen Artikel dessen überschrift "Threadripper Review" ist,... oder sollen wir bei den CPU Tests nun auch mit einer GTX 1030 in 4k benchen, damit man nicht sieht wie sich die getesteten CPUs unterscheiden?
Man stelle sich vor, eine 50 Euro CPU ist gleich auf mit einem 2.000 Euro Threadripper, dank GTX 1030! Ist das eine hilfreiche Aussage?

Warum ich das nicht mal akzeptieren kann, kann ich Dir aber genau sagen: Weil es keinen Sinn macht und bisher keiner eine Erklärung geliefert hat.
In einem GPU Review sollte die GPU getestet werden, nicht eine CPU.
In einem CPU Review sollte die CPU getestet werden, nicht eine GPU.

Wer beides in Kombo will, klickt einfach auf ein Youtube Video das genau dieses Nischenthema behandelt und gut ist.
Solange also Luxx nicht das CPU Bottleneck rausnimmt, werde ich weiter meckern. Das, oder sie schreiben in den Reviewtitel ganz deutlich: "RTX 3080 TI Review im CPU Bottleneck". Dann stimmt der Titel wenigstens mit dem Inhalt überein.
 
Und was bringt es diesem Nutzer, wenn er in einem GPU Review sieht wie eine CPU versagt?
Welchen Mehrwert habe ich, wenn alles ab GTX 1080 die selbe FPS zeigt? Der Leser klickt auf "2080TI Review" und bekommt nutzlose Charts.
Das ist alles Arbeit für die Luxxredaktion. Die könnten sie sich sparen. Könnten einfach schreiben "Charts, siehe GTX 1080". Auch eine 3080 wird keine anderen Zahlen bringen.

Wenn man sehen will wie sich der Threadripper schlägt, dann klickt man doch auf einen Artikel dessen überschrift "Threadripper Review" ist,... oder sollen wir bei den CPU Tests nun auch mit einer GTX 1030 in 4k benchen, damit man nicht sieht wie sich die getesteten CPUs unterscheiden?
Man stelle sich vor, eine 50 Euro CPU ist gleich auf mit einem 2.000 Euro Threadripper, dank GTX 1030! Ist das eine hilfreiche Aussage?

Warum ich das nicht mal akzeptieren kann, kann ich Dir aber genau sagen: Weil es keinen Sinn macht und bisher keiner eine Erklärung geliefert hat.
In einem GPU Review sollte die GPU getestet werden, nicht eine CPU.
In einem CPU Review sollte die CPU getestet werden, nicht eine GPU.

Wer beides in Kombo will, klickt einfach auf ein Youtube Video das genau dieses Nischenthema behandelt und gut ist.
Solange also Luxx nicht das CPU Bottleneck rausnimmt, werde ich weiter meckern. Das, oder sie schreiben in den Reviewtitel ganz deutlich: "RTX 3080 TI Review im CPU Bottleneck". Dann stimmt der Titel wenigstens mit dem Inhalt überein.

sollten einfach auf nen 2950X upgraden, dann ist die sache gegessen:

AMD Ryzen Threadripper 2990WX und 2950X im Test s Hardware Deutschland

und lieber lese ich nen test mit ner "ausnahme" CPU als auf jeder seite nen klon von nem test von ner anderen seite zu lesen... was bringt mir das, wenn ich überall nen 8700/9900k habe? nix... und nein, nicht jeder will die mehr als schlechten YT videos anschauen.
 
Zuletzt bearbeitet:
hier wird ueber sinn und unsinn gegaukelt und im ocn werden die teile im sli pack gekauft, wahnsinn ^^
 
warum, tests unterhalb von 4k sind bei soner karte eh mumpitz... und da dürfte intel sogar bei den min. frames das nachsehen haben mit dem 9900k

oder warum zerreisst mein 2700X nen 5.2GHz 8700k mit 4464MHz speicher in der luft?
[emoji23]Der war gut beim morgenkaffee

Gesendet von meinem ANE-LX1 mit Tapatalk
 
und wie du siehst hat meine karte da mit 2063MHz gearbeitet bei 1.00V-core... das was auch als 24/7 einstellung läuft... das max ist jenseits der 2150MHz im fall :P

und "nicht in der lage warst die 1080Ti zu übertakten" :lol: omg, liege grad auf dem boden und krampfe vor lachen :lol: könnte jetzt ausholen wegen vergangenheit und so, aber keine lust, jedenfalls nehme ich mir das recht raus, zu sagen, das ich wohl mehr plan habe davon, als du je haben wirst *bussi links, bussi rechts, bussi links und tschüss*


Kindisches Verhalten, mit den Werten gewinnst Du auch keinen Blumentopf. Oder soll ich nun auch posten, dass meine KINGPIN mit 0.950v mit 2100 Mhz/6350 Mhz läuft? Kann wirklich nicht nachvollziehen, warum hier immer iwer auf iwelche imaginären Werte stolz präsentiert und das auch noch so überheblich, als ob er den Chip selbst geschmiedet hat. Wie so oft spielt der Ton die Musik... naja manche müssen wohl noch reifen ;)
 
Wenn ich sehendes etliche Leute eine Titan RTX für 2700 kaufen nur um zu spielen und das noch im Sli frage ich mich ob die Welt endgültig plem plem geworden ist....

Mal eine ehrliche Frage wer hat sein Konto für die Karte überzogen? Oder verdienen hier alle sechsstellig?
 
Zuletzt bearbeitet:
Warum ist es immer so schwer zu akzeptieren, dass es ein Hobby ist?!

Der eine kauft eine Titan für 2,7K, der andere versäuft jedes WE Hundert Euro, wieder ein anderer kauft sich Felgen für 2K. So what?!
 
soll doch jeder sein geld ausgeben wie er will. schade finde ich hier, dass man mit diesen käufen die preistreiberei von nvidia unterstützt.
 
für 2K gibts meine winterräder nur unbereift.. :-/

Das sind erwartbare Ergebnisse. 11GB VRAM stellen keinen Flaschenhals. Von daher ist die Leistung genau da, wo ich sie erwartet habe, wenn man die verschiedenen Ausbaustufen vergleicht.

vllt. keinen grundsätzlichen, aber haben ist immer besser als brauchen. ;-) mit titan rtx konnte ich z.b. in battlefield5 mit RTX-beleuchtung schon 14GiB speicherbelegung sehen. für karten mit begrenztem vram hat das spiel allerdings auch einen schalter.

Diese Stock und pimmel OC Vergleiche interessieren doch nicht die Bohne, wir brauchen max OC Ergebnisse, Titan RTX und 2080 TI (Custom BIOS) jeweils mit max PT, ich warte schon den ganzen Tag drauf, was dauert da so lange :shake: :fresse2:

ich hatte noch nicht die zeit und auch noch nicht die richtigen böcke, aber habs mir mit shadow of the tombraider (uhd, ultrahoch, taa) angeschaut.

titan v 12gib, h2o, OC, 300W -> 69fps
2080ti fe, luft, stock, 260W -> 56fps
2080ti fe, luft, OC, 300W -> 63fps
2080ti custom, h2o, 380W -> 69fps
titan rtx, h2o, OC, 320W -> 70fps



(..)

mfg
tobi
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh