NVIDIA Titan RTX trotz OC mit geringem Leistungsplus zur GeForce RTX 2080 Ti (Update)

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.600
titan-rtx-3.jpg
Da die Titan RTX von NVIDIA seit gestern verfügbar ist, ist es auch nicht weiter überraschend, dass die ersten Ergebnisse der Karte aufgetaucht sind. Ein Twitter-Nutzer namens Death_1125 hat die Karte auch gleich mit einem Wasserkühler von Bykski versehen.Durch die Kühlung wurde ein Overclocking der GPU auf einen Takt von 2.070 MHz und des Speichers auf 2.025 MHz möglich. Dies "verfälscht" den Vergleich zu anderen Karten natürlich etwas. Mit einer erreichten Punktzahl von 41.109 Punkten im 3DMark Fire Strike liegt die Titan RTX bei diesem Takt in etwa im erwarteten Bereich, denn auch eine wassergekühlte GeForce RTX 2080 Ti kommt auf etwa 40.000 Punkte. Eine...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wird die Lux-Redaktion keine Karte zum Test erhalten?
 
Von NVIDIA direkt nicht, nein.
 
Brauchts aus meiner Sicht auch nicht. Eh völlig überteuert das Teil und somit kaum interessant für den Großteil der Leser hier.
 
Warum sollte es nicht interessant sein?
Ein unabhängiger Test würde schon viele interessieren, auch wenn sie sich die Karte weder kaufen wollen noch leisten können.
 
Ja, ein unabhängiger Test wäre interessant, insofern er nicht auf einem TR 1950X durchgeführt wird... :p
 
Ja, ein unabhängiger Test wäre interessant, insofern er nicht auf einem TR 1950X durchgeführt wird... :p

Luxx wird die Karte schon testen, bestimmt aber kein Downgrade beim Grafikkartentestsystem dafür durchführen. :hmm:
 
Du bist so ein Honk. Wenn sie zumindest einen 2950X einsetzen würden, welcher deutlich effektiver boostet. Der 1950X ist einfach wirklich nicht die beste wahl. Ich hatte übrigens beide, kann das daher auch aus eigener Erfahrung sagen.
 
was ist das denn für ein Quatsch, selbiger Typ hat gesagt das er mit seiner 2080TI unter Wasser auch auf über 40k Pkt kommt, null zu vergleichen mit eurem TR Testsystem....
Top Berichterstattung :fresse:
 
Luxx wird die Karte schon testen, bestimmt aber kein Downgrade beim Grafikkartentestsystem dafür durchführen. :hmm:

Wenn es ein "Grafikkartentestsystem" ist, dann wäre das kein Downgrade, sondern ein absolut nötiger fix um das System überhaupt nutzbar zu machen.
Ein CPU Bottleneck in einem GPU Testszenario ist und bleibt peinlich.

Wenn die vom Testbench unabhängige Berichterstattung nicht so fantastisch wäre, würden die Luxx Artikel komplett ohne Wert dastehen bei den Highendkarten.
Aber das Thema wurde ja schon oft genug angesprochen. Die Threadripper Fans werden sich weiterhin freuen wenigstens ein Newsoutlet mit so einem Ding zu haben, die Leute die einen GPU Vergleich wollen werden weiterhin andere Berichte nach Zahlen durchsuchen. :-)
 
mit der aktuellen CPU Konfi der Redaktion wird es wohl im absoluten CPU LImit laufen.....Der TR kann die Karte in 90 % der Fälle in 1080p nicht im Ansatz auslasten..... Somit sind die Test (sofern mit dem TR System durchgeführt) soviel wert wie ein Bericht der Computer Bild.....
 
Zuletzt bearbeitet:
wen juckt 1080p ich les die TR kritik schon lange mit... ich spiele in 4k, da ist ein TR. z.b. die beste Wahl vor so fast allem was intel auffährt sofern man nicht n 10kerner auf 5ghz jubelt
 
Ja, ein unabhängiger Test wäre interessant, insofern er nicht auf einem TR 1950X durchgeführt wird... :p

warum, tests unterhalb von 4k sind bei soner karte eh mumpitz... und da dürfte intel sogar bei den min. frames das nachsehen haben mit dem 9900k

oder warum zerreisst mein 2700X nen 5.2GHz 8700k mit 4464MHz speicher in der luft?
 
Zuletzt bearbeitet:
wen juckt 1080p ich les die TR kritik schon lange mit... ich spiele in 4k, da ist ein TR. z.b. die beste Wahl vor so fast allem was intel auffährt sofern man nicht n 10kerner auf 5ghz jubelt

Mit 1080p spielt nicht mal mehr meine Oma. Aber auch du wirst den technischen Fortschritt irgendwann erlangen.

Die Frage sollten lauten: "Wem juckt 4k"
Die Realität sieht so aus: Keine 10% bei 4k-Gamern, etwa das Doppelte bei 2k und über 70% bei FullHD :p

Bei 4K ist eine ganz einfache Rechnung: die Monitore sind zu 95% Müll und kosten viel. Ich brauche High-End System und
öfters haben ich nichtmal durchgehend 60fps. Bei FullHD reicht eine 780Ti / GTX980 um ALLE Games gut-sehr gut zu spielen.
Mit einer 980Ti hat man generell keine Probleme :d

Die neue TITAN ist zwar Interessant (von der Leistung her), aber 99,99999975% werden / können diese sowieso nicht kaufen.



warum, tests unterhalb von 4k sind bei soner karte eh mumpitz... und da dürfte intel sogar bei den min. frames das nachsehen haben mit dem 9900k

oder warum zerreisst mein 2700X nen 5.2GHz 8700k mit 4464MHz speicher in der luft?

In welchen Szenarien soll es passieren?

Ich würde behaupten, dass bei über 98% aller Fälle & Games (FullHD, 2K und 4K) die 8700k@5,2GHz
(was sehr extreme ist, da reichen 4,7-4,8GHz) mit der 2700X (egal welcher Takt) den Boden aufwischt (min. / max. / avr.) :shot:
 
Zuletzt bearbeitet:
Geht doch auch darum einen Vergleich zu haben, wenn alle Seiten nur mit den Intel 6-8 Kerner testen ist das auch wenig spannend.
 
oder warum zerreisst mein 2700X nen 5.2GHz 8700k mit 4464MHz speicher in der luft?

Egal was du nimmst, nimm weniger oder mehr davon, die aktuelle Dosis scheint nicht zu passen.

Wenn es ein "Grafikkartentestsystem" ist, dann wäre das kein Downgrade, sondern ein absolut nötiger fix um das System überhaupt nutzbar zu machen.
Ein CPU Bottleneck in einem GPU Testszenario ist und bleibt peinlich.
+1
 
Mit 1080p spielt nicht mal mehr meine Oma. Aber auch du wirst den technischen Fortschritt irgendwann erlangen.

Die Mehrheit spielt noch in Full HD, mich eingeschlossen. Warum soll man Unsummen für einen höher auflösenden Monitor ausgeben, um sich dann mit der furchtbaren Windows Skalierung auseiander zu setzen und dann muss man meistens die GPU noch aufrüsten, weil die nicht mehr schnell genug ist.
 
Die Mehrheit spielt noch in Full HD, mich eingeschlossen. Warum soll man Unsummen für einen höher auflösenden Monitor ausgeben, um sich dann mit der furchtbaren Windows Skalierung auseiander zu setzen und dann muss man meistens die GPU noch aufrüsten, weil die nicht mehr schnell genug ist.

Dann kaufst du aber auch keine 2080Ti oder Titan RTX.

Die Zielgruppe der genannten Karten spielt im Schnitt eben nicht mehr auf 1080p. Wer sich eine 1100-2500€ teure Karte kauft, spielt mindestens in 1440p, eher 4K oder 3440x1440.

Und generell: na und? Wieso wollt ihr alle Tests bei 1080p? Lieber bei 1440p und 4K, da zeigt sich eher welche Karten bei zukünftig brauchbaren Auflösung wie gut abschneiden.
Die relativen Unterschiede wären bei 1080p die gleichen. Also: wieso 1080p?
 
Dass die Titan RTX selbst für einen Luxxus Luxxer absoluter Hirnkrebs ist war schon vorher klar, als die Specs veröffentlicht wurden.
 
Bis 2K / 4K eine Rolle spielen, vergehen min. 2-4 Jahre. Also min. 1x Gen. und 1x Refresh :p
 
Da wird argumentiert, dass doch eh nur die wenigsten überhaupt in 4K spielen, aber sicherlich nicht einmal 0,0000000001% eine 2700€ Grafikkarte kaufen werden um damit in 1080p zu spielen. Das sind Argumente, mit denen man intellektuell einen Ziegelstein beschämt.
Die Kombination HEDT und 16 Kerne+ CPU und dieser Titan RTX, wird die Vorstellungskraft einiger hier übersteigen, als die Kombination Mainstream und einer 2700€ Grafikkarte.
Insofern wäre ein Test mit TR und dieser Titan RTX @4K + Anwendungsprogramme für diese Grafikkarte bei weitem sinniger, als dieser (ich muss es so sagen) Kindergartenautausch über eine Titan RTX @Mainstream Plattform und @1080p.
 
Du vergisst jedoch, dass die "High End" Desktop Plattformen aka X399 und X299 eine Titan RTX selbst in WQHD in den meisten Titeln durch die mangelnde Gaming-Performance bottlenecken würden.

Eine Titan RTX auf einem Threadripper System ist für mich so interessant wie eine lange Autobahnfahrt.
 
In welchen Szenarien soll es passieren?

Ich würde behaupten, dass bei über 98% aller Fälle & Games (FullHD, 2K und 4K) die 8700k@5,2GHz
(was sehr extreme ist, da reichen 4,7-4,8GHz) mit der 2700X (egal welcher Takt) den Boden aufwischt (min. / max. / avr.) :shot:

in jedem szenario wo multicore genutzt wird :shot: zum glück fallen da inzwischen auch einige games drunter...

man beachte den CPU score, und mein baby lief da nichtmal auf dem, was sich als inzwischen maximum rausgestellt hat :love:
2700X with 3600MHz mem beats a 5.2GHz 8700k with 4464MHz mem
 
Zuletzt bearbeitet:
in jedem szenario wo multicore genutzt wird :shot: zum glück fallen da inzwischen auch einige games drunter...

man beachte den CPU score, und mein baby lief da nichtmal auf dem, was sich als inzwischen maximum rausgestellt hat :love:
2700X with 3600MHz mem beats a 5.2GHz 8700k with 4464MHz mem

Wenn ich von dir Kommentare lese sind sie meistens ziemlich unnötig oder unverschämt.

Dein beigelegter Link zu einem Benchmark zeigt in jedem GPU Score höhere Werte beim Intel System. Dazu muss man aber auch sagen, dass das Intel System mit einer höheren GPU Taktung fährt als dein System, aber das sieht eher danach aus, dass du nicht in der Lage warst deine 1080ti zu übertakten, denn die letzten 4 Stück die ich getestet haben sind out of the Box mit 2030-2070MHz gelaufen und das nur mit dem automatisierten GPU Boost.
Aber ohh welch eine Überraschung, deine CPU erreicht einen höheren CPU Score als der 8700k, was aber auch schon in einem CBR15 aufgefallen wäre. Gute Video Reihe gibt es hierzu von Jayztwocents oder Gamer Nexus, die auf einer 2080 ti ne Weile auf den Leaderboards rumgerutscht sind und sich effektiv nicht sehr viel getan hat beim GPU Score selbst in Verbindung zu erhöhtem CPU Takt, lediglich der CPU Score hatte starke Unterschiede, woraus sich dann natürlich der Gesamtscore ergibt.
 
Wo genau liegt jetzt sage ich mal als Forscher der Vorteil einer Titan außer mehr Speicher? Da kann ich ja genauso gut 2x TIs holen für die Kohle..
 
Das sind erwartbare Ergebnisse. 11GB VRAM stellen keinen Flaschenhals. Von daher ist die Leistung genau da, wo ich sie erwartet habe, wenn man die verschiedenen Ausbaustufen vergleicht.
 
Wo genau liegt jetzt sage ich mal als Forscher der Vorteil einer Titan außer mehr Speicher? Da kann ich ja genauso gut 2x TIs holen für die Kohle..

Das dürfte wohl auch das wichtigste Argument sein. Weil die volle Spitzenleistung für FP16-Tensor-TFLOPS mit FP32-Accumulate hole ich mit zwei GeForce RTX 2080 Ti ja auch wieder raus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh