Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Wenn der Timespy der 3070 stimmen sollte gute Nacht. Meine 5700XT macht mit 2104/1900 einen Graphics Score von 10053 @PCIE4
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die ganzen möchtegern Benches sind doch Schall und Rauch, gibt doch noch gar keinen Ampere Treiber von NV..
 
Abgesehen davon isses halt auch mist stark übertaktete mit stock Karten zu vergleichen...
 
habe gelesen, dass Zen 3 am 8. Oktober vorgestellt wird, die 3090 soll am 21. September vorgestellt werden; hoffe auf eine gute Verfügbarkeit im November, wenn auch Cyberpunk rauskommt, länger möchte ich ungern warten
edit: die BN soll am 28. Oktober vorgestellt werden, dann werde ich dieses Datum auch noch abwarten
 
Zuletzt bearbeitet:
Paar Tage bevor das NDA fällt soll es noch keine Treiber geben? Eher unwahrscheinlich... Nicht öffentlich zugänglich aber Treiber kursieren gewiss

Wenn die Zahlen für die 3000er stimmen, wird sie sich die 3070er genau dort einreihen wo es bereits von vielen hier prophezeit wurde... Zwischen 2080S und 2080TI und nur bei DLSS / RT wird die neue Architektur zum Tragen kommen und vermutlich gleich ziehen bzw vielleicht über der (Stock) 2080TI liegen.

Das Bild deckt sich auch mit den Werten die im August bereits die Runde machten.

Edit:

OC Karten mit Stock Karten vergleichen ist natürlich semi optimal. Aber insbesondere OC Ampere vs turing wird mich interessieren. TDP etc legen nahe, dass Ampere näher am Limit kauft als turing ergo weniger OC Reserven bietet. Dann wird es auf jeden Fall interessant
 
Der Treiber 456.16 ist der Treiber, den die Presse vorliegen hat. Das ist bestätigt. Kopite7kimi hat auch die Werte bestätigt. Eben sind Videos auf Youtube online gegangen, die den Vergleich mit der 3070 und 3090 zeigen. Die Werte passen zu dem Leak von TecLab. Das passt alles zusammen.

Die Videos gibt es im Sammelthread.
 
Bei Horizon Zero Dawn sieht es mit einer 2080TI genauso so aus. Ram mit 10420 Mb (bei 4K) belegt, keine Ruckler etc. Das Game liegt allerdings auch auf einer SSD, kann sein das dies auch was ausmacht dabei. :p Ansonsten, dann wären es leider etwas weniger Unterschied zur 2080TI als von mir gedacht, bin aber nicht überzeugt von diesem Vergleich/Video. Weiter abwarten ist angesagt.


Gruß

Heinrich


Die ganzen bekannten Tools zeigen Shice an beim "RAM-Verbrauch", es wird nur der reservierte Bedarf angezeigt, nicht der tatsächliche: https://www.resetera.com/threads/vram-in-2020-2024-why-10gb-is-enough.280976/


We spoke to Nvidia’s Brandon Bell on this topic, who told us the following: “None of the GPU tools on the market report memory usage correctly, whether it’s GPU-Z, Afterburner, Precision, etc. They all report the amount of memory requested by the GPU, not the actual memory usage. Cards will (sic) larger memory will request more memory, but that doesn’t mean that they actually use it. They simply request it because the memory is available.”
 
Der Treiber 456.16 ist der Treiber, den die Presse vorliegen hat. Das ist bestätigt. Kopite7kimi hat auch die Werte bestätigt. Eben sind Videos auf Youtube online gegangen, die den Vergleich mit der 3070 und 3090 zeigen. Die Werte passen zu dem Leak von TecLab. Das passt alles zusammen.

Die Videos gibt es im Sammelthread.

Pass es oder nicht, wer ist Kimi Raikönnen ? Ich weiss es nicht, aber es nervt, einfach ma auf NDA Fall warten und nicht jeden möchtegernbench einer Vietnamesischen Dorfseite posten..
 
Das Game hat leider Gottes einen Memory Leak. Warum die das nicht in den Griff kriegen ist mir schleierhaft. Muss man leider händisch in der Config eingreifen und den Scalar für VRAM festlegen. Der müllt dir sonst einfach komplett den Speicher voll im BR. Bei meiner 5700XT muss ich z.B. angeben, dass er nur 6gb belegen darf, damit ich dann eine Auslastung von knapp 8gb habe (ohne Ruckler). Lass es es Default geht meine VRAM Usage auf über 10gb mit der Zeit (hab nur 8 wohl bemerkt) und dann die Spikes an, die alle paar Sekunden regelmäßig zu Aussetzern führen.

Wie hast du das gesetzt hab mit meiner 5700 XT auch solche laggs das ich denke ich hab einen 1 sek freez
 
BTW: Mein Timespy-Run war mit der Demo am Anfang, was natürlich Punkte kostet, weil die Komponenten aufgewärmt werden.

Das macht nicht viel aus.
Dein Grafikscore ist übrigens gut bei dem run, der CPU Score zieht aber das Gesamtergebnis runter.


Gruß

Heinrich
 
Das mit der Anfrage nach mehr Speicher und dem Allokation von diesem (obwohl dieser nicht verwendet wird) sollte nicht als Nachteil sondern als Vorteil gesehen werden.
Solange DirectStorage erst irgendwann Ende 2021/2022 Einzug hält, gilt immernoch: Vram nur durch mehr Vram zu ersetzen.

Wie sieht es jetzt mit dem GPU-Punktestand in Timespy verglichen mit der rtx 2080/S/ti aus? 10, 20, 30, 40 % vorne?
 
Ja, hier https://www.hardwareluxx.de/communi...2-time-spy-benchmarkthread-rangliste.1127194/
Also um die 12 - 17k Punkte in Timespy für rtx 2080/S/ti, bei > 2 GHz.

Ist dennoch schwierig eine Einschätzung zu geben wie sich dies in Spielen auswirken wird.
Die Leaks und Benchmarks weisen darauf hin dass es auf eine gemischte Situation hinauslaufen wird.
X Spiele werden die vielen FP32 Einheiten nutzen, y Spiele wiederum nicht. Wird wohl erst die Zukunft zeigen wie sich diese Architektur schlägt.
 
Eben, eine Bench sagt dabei nicht viel aus.

Eine 2080TI erreicht @ Stock mit Luftkühlung um die 14000 Punkte beim Grafik Score bei Time Spy. OC Versionen halt etwas mehr.
Da brauchst du nicht groß zu rechnen, ist soweit was die 3080 betrifft im erwarteten Bereich der Leute die sich etwas auskennen damit. Das nvidia gerne etwas übertreibt wissen wir ja schon länger. ;)
 
Eben, eine Bench sagt dabei nicht viel aus.

Eine 2080TI erreicht @ Stock mit Luftkühlung um die 14000 Punkte beim Grafik Score bei Time Spy. OC Versionen halt etwas mehr.
Da brauchst du nicht groß zu rechnen, ist soweit was die 3080 betrifft im erwarteten Bereich der Leute die sich etwas auskennen damit. Das nvidia gerne etwas übertreibt wissen wir ja schon länger. ;)

Wie gut das AMD nie übertreibt ;)
 
Ich springe mal schnell in 'ne Zeitmaschine und die Werte aus Dons Test mitzuteilen^^

Schaut mal auf Seite 24 und 25. https://s3.amazonaws.com/download-aws.futuremark.com/3dmark-technical-guide.pdf
Graphics Test 1 und 2, liest man die unterschiedliche Aufteilung pro Frame, bei Berechnung von Eckpunkten, Tesselation, Shading, Compute.
Das schwankt von Test zu Test.
Wer kann genau sagen wie sich Ampere mit möglichen 128 FP32 Berechnungen/64 FP32 und 64 INT32 pro Takt so macht?
Ist halt anders als bei Turing.
 
Wie hast du das gesetzt hab mit meiner 5700 XT auch solche laggs das ich denke ich hab einen 1 sek freez

Im Dokumente/Warzone Ordner/Player/adv_options.ini -> VideoMemoryScale = 0.55
 
Gibts auch GPU-only-Werte?
Für die 3080 waren das sofern das Video echt ist 17828 Punkte.
Hier nochmal der Link, also wenn beim OC wenigstens so viel drin ist wie bei der 2000ér Serie passt es ja von der Leistung her.
Ansonsten wäre das völlig für´n...., aber ich denke das lohnt schon ordentlich, ich hoffe ja auf 22-23k Timespy mit der 3090@OC.
 
Wie gut das AMD nie übertreibt ;)

Bitte. ;) Hier geht es nicht um AMD gegen NVIDIA. Das ganze Fanboy Gelabber hat mich noch nie interessiert. Das überlasse ich denjenigen, die sonst nichts haben im Leben. :p

Ich springe mal schnell in 'ne Zeitmaschine und die Werte aus Dons Test mitzuteilen^^

Schaut mal auf Seite 24 und 25. https://s3.amazonaws.com/download-aws.futuremark.com/3dmark-technical-guide.pdf
Graphics Test 1 und 2, liest man die unterschiedliche Aufteilung pro Frame, bei Berechnung von Eckpunkten, Tesselation, Shading, Compute.
Das schwankt von Test zu Test.
Wer kann genau sagen wie sich Ampere mit möglichen 128 FP32 Berechnungen/64 FP32 und 64 INT32 pro Takt so macht?
Ist halt anders als bei Turing.

Stimmt soweit, aber Zeitmaschine hin her, das müssen wir wohl abwarten wie gut die "Lastverteilung" dabei funktioniert bei Ampere.
 
  • Danke
Reaktionen: THK
Nein, aber das dauernde Runterbeten von so was auch nicht. ;)
 
Ich wollte damit eigentlich nur sagen da es beide Seiten machen gleicht es sich wieder aus..
 
Zuletzt bearbeitet:
Montag wissen wir etwas mehr 😁
 
Und das jetzt schon...
Hab gestern ein Video gesehen, wo jmd in CoD Modern Warfare regelmäßig Ruckler hatte (Indiz für zu wenig VRAM, wie er sagte)
Afterburner zeigt aber nur max. 7.400MB VRAM an (er hat 8GB VRAM). Kann sein, dass die kurzen Spitzen (VRAM voll) garnicht geloggt werden können. Die regelmäßigen Peaks bei den Frametimes aber schon. Aber seht selbst... Was haltet ihr davon?

Nicht viel.
VRAM ist zu 100% voller als benötigt, nicht andersherum.
Ruckler kommen sicher nicht nur wegen VRAM zustande.

Wenn er noch 600mb frei hatte, war der VRAM nicht das Problem. Zumal COD garantiert keine 8 GB simultan benötigt, eher 3-4.
 
Doch genau daher kommen die Standbilder in CoD, vom zu vollen VRAM. Der versucht halt irgendwann auszulagern, weil der Speicher voll läuft. Wie gesagt... Memory Leak.
Das passiert meistens nicht beim ersten Spiel und häufig auch noch nicht beim zweiten, aber danach wirds unspielbar.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh