NVIDIA GeForce RTX 2080 mit erstem TimeSpy-Ergebnis

Mal sehen was AMD bzw. später auch Intel dagegen halten kann bzw. ob sie da mitziehen und das ganze zum "Standard" machen.
? Das ist DirectXR. Die Version des Systemupdates von Win10 wo das drin ist steht mein ich auch schon fest. Damit IST das Standard ;) Die nächste Xbox und damit auch PS5 werden das können.

Das Prob mit RT ist, daß man das nun unbedingt hervorheben muß. Wie früher anderes, sehen die aktuellen Beispiele damit eher mehr panne aus als realistischer (bis auf die klinisch saubere Umgebung der StarWars Demo).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja TimeSpy ist DX 12, das können Pascal und Maxwell bekanntlich nicht gut. Der Vergleich von Nvidia ma zwar Zeigen wieviel besser die Karten in DX12 sind, ein Firestrike DX11 Bench wäre aber sehrviel interessanter..
Hier wirds mit Sicherheit deutlich weniger an Vorsprung für die RTXen sein..

2 Einträge zum Firestrike ultra gibt es ja schon. Meine olle GTX 980 ti ist da ~40% schneller :fresse2::lol:
Generic VGA video card benchmark result - Intel Core i7-7740X Processor,ASUSTeK COMPUTER INC. ROG STRIX X299-XE GAMING
Generic VGA video card benchmark result - Intel Core i7-7740X Processor,ASUSTeK COMPUTER INC. ROG STRIX X299-XE GAMING
 
@DaHell63
Da werde ich bestimmt nicht mehr haben, aber mal unter uns, 15FPS sind nicht gerade spielbar -> GPU Limit
Weil der Physics Test mit 44FPS ist noch akzeptabel im CPU Limit. ;)
 
Jetzt hat die vermeindliche 2080 beim Time Spy (DX12) schon nicht überzeugt.....mit meiner GTX1080 Ti habe ich out of the Box 500p Grafic Score mehr.
Aber beim Firestrike ultra (DX11) ist der Grafic Score desaströs. Meine GTX 980 Ti ist zwar übertaktet, aber die gezeigte Karte läuft mit 2040MHz auch nicht untertaktet.
Auf jeden Fall dürfte man mit so einer alten Karte nicht mal ansatzweise in die Nähe der vermeindlichen 2080 kommen. Hoffentlich liegts noch am Treiber.
Result
 
Aus welchem Grund auch immer, die Ergebnisse passen nicht bzw. das stimmt was nicht. Wenn es überhaupt eine GeForce-RTX ist, dann mit noch nicht angepasstem Treiber.
 
Naja, die Ergebnisse zeigen dem User in etwa das, welches er schon im Vorfeld vermuten konnte, die RTX Serie ist wohl eher eine Feature Grafikkarte wo Raytracing im Fokus steht.
Ohne dieses RTX Feature ist die RTX Serie eine Überbrückung bis zur nächsten Generation ohne das ersehnte Plus an Leistung.

Meiner Meinung nach kommt Rytracing 2 bis 3 Jahre zu früh. Man hätte erst mal weiter an der Leistungsschraube drehen sollen, damit auch für UHD die Grafikkarten mit entsprechenden Filtern genügend Leistung in Form von FPS erzeugen, das hatten viele erhofft und hätte auch meiner Meinung nach mehr Sinn gemacht.
 
@ Don
8GB VRam und 7000MHz Speichertakt deuten zumindest in die Richtung.

@ Holzmann
Mit neuen Sachen ist man immer zu früh dran. Ausgereift kommt sicher nichts auf den Markt.
Trotzdem freue ich mich, daß es wieder weiter geht und visuell macht es schon was her.
Nur möchte ich im Gegenzug nicht auf DX11 Performance verzichten, da die meisten Spiele eben noch DX11 bevorzugen.
 
Zuletzt bearbeitet:
Nea hast du in 4K getestet ? Bei dir steht da N/A.
 
In wiefern stimmen die TDP Angaben bei Firstrike Ergebnissen?
112 kommt mir recht low vor für eine normale 20xx. Da steht 200+ auf der NVidia Webseite, oder?
 
Naja, die Ergebnisse zeigen dem User in etwa das, welches er schon im Vorfeld vermuten konnte, die RTX Serie ist wohl eher eine Feature Grafikkarte wo Raytracing im Fokus steht.
Ohne dieses RTX Feature ist die RTX Serie eine Überbrückung bis zur nächsten Generation ohne das ersehnte Plus an Leistung.

Nein, eine GeForce RTX wird auch im klassischen Rasterizer-Rendering eine Mehrleistung bieten, ansonsten hätte NVIDIA ein echtes Problem. Die von NVIDIA veröffentlichten Vergleiche zischen der GeForce RTX 2080 und GeForce GTX 1080 zeigen ja schon, dass idealerweise + 30 bis 50 % drin sind, wir realistischerweise wohl, aber etwas weniger sehen werden.

Was ist wenns n gewollter leak der 2070 war/ist?

Selbst als GeForce RTX 2070 sind das zu wenige Punkte. Das passt nicht –*zumindest nicht in Form "finaler" Hard/Software.

Jemand scheint sich wohl über NVs PR-Leaks lustig zu machen :)

Mir wäre das egal. Dir nicht? ;)

Mir ist das auch egal, nur macht es keinen Sinn solche Werte für irgendeinen Vergleich heranzuziehen.
 
Ja die Werte kommen mir auch unrealistisch niedrig vor.
 
@ Don
8GB VRam und 7000MHz Speichertakt deuten zumindest in die Richtung.

@ Holzmann
Mit neuen Sachen ist man immer zu früh dran. Ausgereift kommt sicher nichts auf den Markt.
Trotzdem freue ich mich, daß es wieder weiter geht und visuell macht es schon was her.
Nur möchte ich im Gegenzug nicht auf DX11 Performance verzichten, da die meisten Spiele eben noch DX11 bevorzugen.
DX11.?
Das Feature Level hängt auch von der API ab
.
Das erste Bild kurz nach dem Lade Vorgang: https://abload.de/img/bookofthedeadenvironmd4ir5.jpg
 
Nea hast du in 4K getestet ? Bei dir steht da N/A.

Wer ich?
Firestrike ultra ist doch immer 4K.
Mag vielleicht der System Info Version geschuldet sein. Bei mir war sie doch noch ein wenig älter.
Generic VGA video card benchmark result - Intel Core i7-7740X Processor,ASUSTeK COMPUTER INC. ROG STRIX X299-XE GAMING
NVIDIA GeForce GTX 980 Ti video card benchmark result - Intel Core i7-3930K Processor,Gigabyte Technology Co., Ltd. X79-UD3

Bevor es wer in den falschen Hals bekommt, mir persönlich wäre es lieber wenn die RTX 2080 Ti die GTX 1080 Ti mehr als klar schlagen könnte.
Die GTX 980 Ti geht in Rente und die GTX 1080/GTX 1080 Ti rücken in den 2/3 PC und ich hab ne Ausrede warum ich eine neue Karte brauche:fresse:
 
Zuletzt bearbeitet:
3840x2160p = 4K
5K = AMD
8K = mehr Hardware...

Any curved 32:9 here ?
 
Nur möchte ich im Gegenzug nicht auf DX11 Performance verzichten, da die meisten Spiele eben noch DX11 bevorzugen.
Sieht zwar alles verdächtig aus, aber vielleicht steckt da nix hinter und Nvidia hat DX11 nicht vernachlässigt, wie von manchen befürchtet. Der ganze Ablauf zur neuen RTX-Generation erscheint mir sehr holprig, vielleicht wurde der Fokus zu sehr auf die RTX-Features gelegt und man hat es einfach versäumt, z.B. DX11 Anwendungen/Spiele mit in die Präsentation/Marketing zu integrieren. Die Hoffnung stirbt zuletzt. :)
 
was willst mit dem Ergebnis?
 
321 Watt Board Power at it best :bigok:
[/QUOTE]
 
Zuletzt bearbeitet:
Das sind schon mehr als 100W. Bei 321W Cip Power kannst Du für die ganze Karte rund 400W rechnen.
Vergesst doch mal die ASIC-Werte...
GPU-Z & Co lesen nur allein die VDCC und die dazu gehörigen Ströme aus und multiplizieren das Ganze dann als Chip-Power, was aber so nicht mal richtig ist. Da fehlen VDDCI, die 1,8V- und die 0,8V-Quelle, VPP und logischerweise der komplette Speicher. Die VR-Verluste stehen im direkten Verhältnis zur Leistungsaufnahme (aber nicht linear).
Ganz so einfach kann man es sich nicht machen. ;)
Ich messe die gesamte Grafikkarte, so wie es sich gehört. Die Werte aus GPU-Z und HWInfo sind fast schon unbrauchbar, weil sie in sehr groben Intervallen nur die Sensorwerte von Vcore und Current multiplizieren, dabei aber alle weiteren Spannungen, den Speicher und natürlich auch die Wandlerverluste komplett außen vorlassen. Meine Werte stimmen, die nutzen sogar einige Boardpartner
Wenn ich z.B. im Balanced Mode 220-222 Watt in GPU-Z angezeigt bekomme, dann sind es 285-286 Watt. Bei maximalem OC sind es in GPU-Z dann 328 bis 331 Watt, ich messe für die gesamte Karte 402-404 Watt. HWInfo und GPU-Z nutzen die gleiche Kalkulation

Die Punkte habe ich mit 180W
NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i7-3930K Processor,Gigabyte Technology Co., Ltd. X79-UD3
mit ~216W (20% PT und übertaktet )
NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i7-3930K Processor,Gigabyte Technology Co., Ltd. X79-UD3

Bei dem Verbrauch schämt sich sogar meine GTX 1080 Ti (330W), die dann auch noch über 40% schneller ist.
 
Zuletzt bearbeitet:
@Thrawn
Wie meinst Du das? Warum sollten die RTX-Karten in DX11 schlechter performen, als in DX12, obwohl die aktuelle Generation in DX11 besser arbeitet.

Les doch mal richtig was ich schreibe.. Nicht die RTXen performen in DX11 schlechter sondern Pascal viel besser(als in TimeSpy), der Unterschied wird also erheblich geringer sein.

- - - Updated - - -

Ist schon seltsam aber andersrum würde nvidia ja spätestens am release die scheisse um die ohren fliegen... denke die sind nur super vorsichtig wie wann und welche infos vorm release rausgehen um hier keine käufer zu verlieren/verunsichern.

Genau davon geh ich aus, die Scheisse wird ziemlich weit fliegen, anders ist diese Kinderkacke mit nur DX 12 Benches und vorgeschriebene Testbedingen nicht zu erklären.
 
war schon offensichtlich als er

1. mit RT Flops/ops (oder wie er das nennt) anfing und
2. das im Gegensatz zum 1080 Release (1115 MHz warn zu sehen) gar nix mit Taktraten gezeigt wurde und
3. bleibt 12nm eben 12nm und ohne RTX sieht man an Volta was der Turing kann
 
321 Watt Board Power at it best :bigok:
:bigok:
das sind halt mal eben über 100 watt mehr als so eine ur-alte gtx1080.. die dann auch noch etwas flinker ist..
NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i7-8700 Processor,ASRock Z370 Pro4

nvidia braucht unbedingt mal wieder konkurenz.. vllt irgendwann durch intel..?

amd ist aktuell (zumindest im top-end bereich) wohl bestenfalls als "marktbegleiter" zu betiteln..
100W sind schon viel, allerdings wären die KWh über den Gesamten Benchmark interessanter.
Zudem ist die 1080 mit über 2GHz unterwegs, das ist fast schon nicht mehr Effektiv.

Immerhin gibt es inzwischen die Radeon Pro V340: AMD Announces Dual-Vega Radeon Pro V340 Card With 32GB of ECC HBM Memory
 
Genau davon geh ich aus, die Scheisse wird ziemlich weit fliegen, anders ist diese Kinderkacke mit nur DX 12 Benches und vorgeschriebene Testbedingen nicht zu erklären.

Wie meinen? NVIDIA hat bisher keine derartigen Vorschriften gemacht.
 
Wie meinen? NVIDIA hat bisher keine derartigen Vorschriften gemacht.

Nu bremmst doch die Aluhutfraktion nicht einfach so aus.
Es ist aktuell total Mode gegen alles zu haten und Fakten zu verdrehen als gäbe es kein Morgen.

Lass ihnen den Spaß, solange in den richtigen Reviews dann einfach alle Fakten auf den Tisch gelegt werden ist alles gut.
Habt Ihr ja auch was von. Bei all den falschen Infos die Leute verbreiten, habt Ihr sau viel Potential für eine ganze Reihe an Artikeln zur Aufklärung. ;-)
 
Naja TimeSpy ist DX 12, das können Pascal und Maxwell bekanntlich nicht gut. Der Vergleich von Nvidia ma zwar Zeigen wieviel besser die Karten in DX12 sind, ein Firestrike DX11 Bench wäre aber sehrviel interessanter..
Hier wirds mit Sicherheit deutlich weniger an Vorsprung für die RTXen sein..

@Thrawn
Wie meinst Du das? Warum sollten die RTX-Karten in DX11 schlechter performen, als in DX12, obwohl die aktuelle Generation in DX11 besser arbeitet.
Vielleicht habe ich das ungünstig formuliert. Ich meine, warum sollte die Leistungssteigerung der RTX gegenüber den Pascal in DX12 nicht auch für DX11 gelten? Du vermutest ja, dass Turing in DX11 sich nicht so weit absetzen kann, wie in DX12. Meine eigentliche Frage ist, warum Du das vermutest. Weil Nvidia bis jetzt zu DX11-Leistung von Turing nichts veröffentlichst hat, oder gibt es andere Hinweise?

Les doch mal richtig was ich schreibe.. Nicht die RTXen performen in DX11 schlechter sondern Pascal viel besser(als in TimeSpy), der Unterschied wird also erheblich geringer sein.
Achso... der rechte Turm ist nicht kleiner wie der Linke, sondern der Linke größer als der Rechte. :fresse: Ich weiß aber wie Du es meinst. :)

Ok, jetzt habe ich nochmal drüber gegrübelt ... jetzt hab ich es (glaub ich ;))

Bekannt ist aktuell:
Pascal DX11 -> Turing DX11 = ?
Pascal DX12 -> Turing DX12 = 45% (TimeSpy)

Wenn jetzt die Leistung von Turing DX11 genauso ist, wie Turing DX12, wird die Steigerung Pascal DX11 -> Turing DX11 geringer sein und natürlich nicht so hoch, wie Pascal DX12 -> Turing DX12.

Mal ein Beispiel zum Verständnis:
Pascal DX11 mit 120 FPS -> Turing DX11 mit 145 FPS = 21%
Pascal DX12 mit 100 FPS -> Turing DX12 mit 145 FPS = 45%
 
Genau so meinte ich es, natürlich ist das Spekulation. Ich vermute das weil nvdia bei maxwell und Pascal alles tat um DX 12 kleinzuhalten, und auf einmal AUSSCHLIESLICH ein DX 12 Benchergebnis veröffentlicht. Es wird halt alles getan um die Karten in einem tollen Licht darstehen zu lassen..
aber warum sollst sollte Nvidia einen reinen DX12 Benchmark wählen..


@Don und Rattenschwanz: Das hier meine ich..


So wie es aber zur Zeit aussieht werden die Reviewer von Nvidia personalisiert und zu ausgewählt, bekommen einen eigenen Login für den Test, auch der Treiber zum testen soll wohl nur direkt an diesen Personenkreis ausgeben werden. [H]ardOCP: NVIDIA Controls AIB Launch and Driver Distribution

Das sind ganz neue Testbedingungen zu ganz neuen Karten, mal sehen, bin gespannt was dabei wirklich rum kommt.

PS: Sieht meine sig aus wie die eines AMD Fanboys ? ..
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh