[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
Nein, aber 70 oder 120 FPS sind ein Unterschied wie Tag und Nacht.
Ich zocke mit Mods, meine FPS sind daher deutlich niedriger als deren Ergebnisse, 100 FPS schafft meine 2080 Ti im Leben nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bitte um relative/verwertbare Angaben, wir sind hier nicht im AMD Thread.
Was soll die Anmache mit AMD, sind Nvidia Käufer was besseres? Klar, im bornierten 3090er Thread könnte man es meinen! Wie ich geschrieben habe zählen meine Erfahurngen in 4K/UHD, also 3840x2140 und da kommen eben nicht mehr als 10 max ca. 15 Frames in UHD raus, je nach Game und das ist ja auch ganz anständig für in UHD, RTX in UHD ist wie gesagt aber nicht der Rede wert und ne 3090er reist hier eben auch nichts weiter raus. FPS in WQHD interessieren mich nicht zu vergleichen, da ist/war mir die 2080Ti schon schnell genug, in WQHD kann die 3080er natürlich auch mehr als 10 - 15 Frames drauf legen, ist ja immer Auflösungsabhängig.

Zwei Beispiele gemessen jeweils an einer indentischen spezifischen fordender Stelle im Game:

2080Ti@OC Game "Control" 3840x2140 ohne DLSS ohne AA RTX Hoch
270 Watt = 26/27
330 Watt = 28/29

3080@OC Game "Control" 3840x2140 ohne DLSS ohne AA RTX Hoch
270 Watt = 31/32
330 Watt = 36


2080Ti@OC Game "Horizon Zero Dawn" 3840x2140 maxed out
270 Watt = 48/49
330 Watt = 51

3080@OC Game "Horizon Zero Dawn" 3840x2140 maxed out
270 Watt = 59
330 Watt = 62

Dennoch bin ich vollkommen zufrieden, hatte ja auch nicht mehr erwartet und bis Hopper ist die 3080er für meine Zwecke vollkommen ausreichend und Benchmarkpünktchen zeigen, nö, da bin ich schon lange raus, dermaßen langweilig. RTX auf Maximal und in 4K/UHD ist mit 3080er als auch mit der 3090er immer noch nur mit DLSS vernünftig spielbar und hier reicht mir dann auch eine 3080er dicke, also wenn man nicht immer 100 Frames aufwärts haben muss.
 
Zuletzt bearbeitet:
Nein, aber 70 oder 120 FPS sind ein Unterschied wie Tag und Nacht.
Ich zocke mit Mods, meine FPS sind daher deutlich niedriger als deren Ergebnisse, 100 FPS schafft meine 2080 Ti im Leben nicht.

Sollte Cyberpunk 2077 nicht auf der gleichen Engine laufen wie Witcher? Dürfte damit ähnlich gut skalieren.
 
Habe nun meine Gigabyte 3080 Gaming am laufen, nach dem Ärger mit den Stromsteckern, bischen improvisiert und alles bestens.
CSGO Benchmark 5700XT bei 1280x960 ein plus von 30 FPS. Hat sich also gelohnt :-)
 
Nein, aber 70 oder 120 FPS sind ein Unterschied wie Tag und Nacht.
Das wären dann halt über 70% mehr Performance was du mit der 3090 nie nie nie erreichen wirst im Vergleich zur 2080 Ti - deswegen nochmal: absolute fps Gewinne ohne Verhältnis sind so sinnvoll wie Geldmengenangaben ohne Währung:
"Ich verdiene jetzt 10 Millionen mehr, jeden Monat. Wow, geiler Job.
Leider 10 Millionen iranische Rial."
 
Nichts für ungut, aber die 2080Ti immer mit der 3080 zu vergleichen und dann zu sagen "Ja die ist zwar schneller, aber jetzt doch nicht so viel", nervt langsam. Der vergleich einer Vorgänger Karte einer klasse darüber ist halt durchaus legitim, aber es ist nicht verwunderlich, wenn da der Leistungszuwachs nicht so groß ist. Wenn ein Fahrer eines Vorgänger BMW5ers darüber meckert der neue 3er sei nicht hochwertig genug, hinkt und nervt das genau so. Die 3080 ist eben der Nachfolger der 2080(s) und nicht der 2080Ti. Daher auch der Preis von 700-850 Euro und nicht 1300. Der Nachfolger der 2080Ti ist nunmal derzeit eher der 3090. Hier darf legitim gemeckert werden.

Wer zu 1080 Zeit oder 2080 Zeiten eher 500-800 Euro ausgegebenhat, erlebt jetzt durchaus einen Performance boost.
 
Zudem wird jetzt das passieren, was man bei den letzten Generationen immer gesehen hat. nVidia optimiert den Treiber nur für die neueste Karte, wodurch sich der Abstand zwischen 20x0 und 30x0 im Lauf der Zeit vergrößern wird. Es wird dann wieder heißen, dass es an den moderneren Spieleengines liegt. Ich halte es eher für eine Treibergeschichte.

Und da diesmal der Umbau bei FP32 besonders deutlich ist, wird es m.E. diesmal sogar ein stärkeren Effekt geben.
 
Jau, richtig. Konnte ich mit meiner GTX1080 und der RTX2060 gut beobaten über die Jahre. Ist Ampere denn Architektonisch so weit entfernt von Touring wie Touring von Pascal? Sollten Spiele die INT32-Lasting sind, jetzt ein bisschen mehr in Richtung FP32 gehen, könnte da ja vielleicht sogar was passieren. Aber ich hab keine Ahnung :d. die neuen FP32 Only-Kerne könnten jedoch über die Laufzeit noch einmal mehr Abstand zwischen Touring und Ampere bringen.
 
Wartet wa ab was sich noch Treiber/Software mäßig tut.
Wird bestimmt noch einiges optimiert sodass die 3090 noch besser performen kann.
 
Die 3080 ist eben der Nachfolger der 2080(s) und nicht der 2080Ti. Daher auch der Preis von 700-850 Euro und nicht 1300. Der Nachfolger der 2080Ti ist nunmal derzeit eher der 3090. Hier darf legitim gemeckert werden.

Das hier immer wieder mit den Preisen schön gerechnet wird. Die 3080 kann man nicht für unter 800,- EUR vorbestellen. Das Groß der Karten liegt in der Vorbestellung um 850,- EUR. Meine 2080 TI Gaming OC habe ich für 1007,99 EUR am 11.1.2019 bei MF gekauft. Das Pendant dazu kann man zur Zeit für 879,- EUR vorbestellen.
 
Nichts für ungut, aber die 2080Ti immer mit der 3080 zu vergleichen und dann zu sagen "Ja die ist zwar schneller, aber jetzt doch nicht so viel", nervt langsam. Der vergleich einer Vorgänger Karte einer klasse darüber ist halt durchaus legitim, aber es ist nicht verwunderlich, wenn da der Leistungszuwachs nicht so groß ist. Wenn ein Fahrer eines Vorgänger BMW5ers darüber meckert der neue 3er sei nicht hochwertig genug, hinkt und nervt das genau so. Die 3080 ist eben der Nachfolger der 2080(s) und nicht der 2080Ti. Daher auch der Preis von 700-850 Euro und nicht 1300. Der Nachfolger der 2080Ti ist nunmal derzeit eher der 3090. Hier darf legitim gemeckert werden.

Wer zu 1080 Zeit oder 2080 Zeiten eher 500-800 Euro ausgegebenhat, erlebt jetzt durchaus einen Performance boost.
Hier kann ja wohl jeder vergleichen und seine Erfahrungen weiter geben wie er möchte oder bist du der Maßstab der hier sagt was man schreiben/vergleichen darf und was nicht? Ist doch der Ampere Sammelthread hier, oder? Ich mein das Fußvolk mit ner 3080er hat ja im elitären 3090er Sammler nichts zu suchen, dort wird ja regelmäßig so schön denunzierend geschrieben alle anderen sind Hartz 4er! Und wenn es dich nervt, jau, so Antworten nerven mich auch, auch noch vieles andere was hier tagtäglich immer wieder wiederholt wird, ich spare es mir alles aufzuzählen - ich überlese einfach was mich nicht interessiert, fertig die Geschicht, so als Tipp! Und die 3090 ist nicht der Nachfolger der 2080Ti, die kommt erst noch!

Edit: Und an die Mods hier, ein extra Sammler auch für 3070/3080er Besitzer wäre dann auch angebracht, denn es gibt im Grunde überhaupt keinen Grund, dass es einen extra 3090er Sammler gibt, außer das sich dort manche ständig abwertend und denunzierend über Käufer günstigerer Karten lustig machen müssen, was natürlich immer nur im Spaß gemeint ist, is klar!
 
Zuletzt bearbeitet:
Nichts für ungut, aber die 2080Ti immer mit der 3080 zu vergleichen und dann zu sagen "Ja die ist zwar schneller, aber jetzt doch nicht so viel", nervt langsam. Der vergleich einer Vorgänger Karte einer klasse darüber ist halt durchaus legitim, aber es ist nicht verwunderlich, wenn da der Leistungszuwachs nicht so groß ist. Wenn ein Fahrer eines Vorgänger BMW5ers darüber meckert der neue 3er sei nicht hochwertig genug, hinkt und nervt das genau so. Die 3080 ist eben der Nachfolger der 2080(s) und nicht der 2080Ti. Daher auch der Preis von 700-850 Euro und nicht 1300. Der Nachfolger der 2080Ti ist nunmal derzeit eher der 3090. Hier darf legitim gemeckert werden.

Wer zu 1080 Zeit oder 2080 Zeiten eher 500-800 Euro ausgegebenhat, erlebt jetzt durchaus einen Performance boost.


Aber sowas von locker ist die 2080Ti mit der 3080 vergleichbar. Einfach herleitbar: Die 3090 ist so wenig schneller als die 3080 (10-15%), dass man sagen kann: 3080=3090, ohne fps-counter merkt man subjektiv keinen Unterschied.
Vergleiche ich also die 2080Ti mit der 3090, dann ist das auch gleichzeitig ein Vergleich mit der 3080er. Alles qool also. :o (y)


Der beste Vergleich ist aber immer noch: Was habe ich an Hardware verbaut und was can das neue Teil? Und dann ist es hilfreich sich einen Marke zu setzen, zB: "100% Unterschied, darunter gibts keine Kohle von mir."
 
Ok, ich zitiere mich hier mal kurz selber aus meinem Post, da das wohl gekonnt überlesen wird :d :"er vergleich einer Vorgänger Karte einer klasse darüber ist halt durchaus legitim". Mann kann alles vergleichen. Ich spreche das auch niemandem ab. Hier herrscht eine wundervolle Meinungsfreiheit im Forum, sofern die Regeln des Anstands gewahrt werden. Alles wunderbar :d. Ich äußere ja auch nur meine Meinung. Wenn ich von eine GeForce 4 TI4200 komme und auf eine RTX 3090 upgraden will, kann ich auch vergleichen :d (Interessiert mich wirklich mal wie viele Größenordnungen die schneller ist nach über 15 Jahren).

Mir geht es einzig darum, dass es nicht besonders verwunderlich ist, dass eine neue Karte der gehobenen Mittelklasse nicht absurd viel schneller ist, als das alte Top-Modell. Klar, als 2080Ti Besitzer war ich schon getriggert als bei der nVidai PK mit Vorab-Performance-Faktoren um sich geschmissen wurde. Das das in der Praxis jetzt nicht auf jede Situation zutrifft war auch abzusehen.

Was die Thronfolge der 2080Ti angeht.. ja, die 3090 liegt irgendwo zwischen 2080 und Titan. Für die einen ist es eine 2080 mit 24 GB Speicher, für die anderen die derzeitige Profi-Grafikkarte als Titan Nachfolger. Muss ja auch nicht immer einen 1:1 Nachfolger geben.
 
Auch wenn es bei mir evtl. einen anderen Anschein macht, bin ich total zufrieden mit der 3080er bzw. mit dem Wechsel von der 2080Ti zu dieser - hätte die 2080Ti allerdings schon HDMI 2.1 gehabt, hätte ich diese Generation übersprungen, zumal der RTX Leistungszuwachs wirklich nicht berausched ist, egal ob 80er oder 90er. Das Problem ist nämlich durchaus, hat man immer das Top Modell, ist man schlicht gesättigt und der ganze Kram nach ein paar Tagen wieder langweilig as Hell.
 
Trill, noch mal wegen der Spulen:
Ich hatte den Raff von der PCGH gefragt. Die zweite Antwort ist auch von einem PCGH Redakteur:


Das klingt ja eher danach, wie es sich auch in diesem einen Video da anhörte.
 
hat jemand schon was mitbekommen, ob irgendwo auf dieser schönen Welt schon jemand eine der neuen Strixx von Asus (egal ob 3080 oder 3090) geliefert bekommen hat ?
 
Was sind eigentlich so eure UV Sweetspots?
Bei meiner Gigabyte 3080 Gaming OC bin ich momentan bei 1905Mhz @875mv ~295W
Drüber bekomm ich (wenige) Artefakte im Kombustor Test

1601554586851.png


Kann auch auf 2Ghz hoch aber dann bin ich wieder bei Max TDP von 360-370W und das ist mit Luft nicht vernünftig zu bändigen (zumindest leise).
Vielleicht mal mit nem Block irgendwann, aber der Leistungsunterschied zwischen 1900Mhz und 2000Mhz ist ja quasi nicht vorhanden..
 
Was sind eigentlich so eure UV Sweetspots?

Ich bin bei 1950MHz und 0.950V bei max. 300W

Aber ich glaube irgendwas stimmt nicht mit dem Power Draw der über Afterburner angezeigt wird. Selbst wenn ich das Gaming OC Bios mit 370W flashe, komme ich immer nur an diese 350W ran und das obwohl hier rüber 370W angezeigt werden.

nvidia-smi.exe -q -d power
 
Ja die Kurve ist jetzt nicht sonderlich krass getuned.
Bei mir scheint das schon hinzukommen was da angezeigt wird.

1601556074233.png


@Mucho79

Deine Karte zieht bei 950mV 1950Mhz nur 300W??
Hab bei mir mal die gleichen Settings eingestellt und die Gigabyte zieht über 350.....

1601557519662.png
 
Zuletzt bearbeitet:
Ich bin bei 1950MHz und 0.950V bei max. 300W

Aber ich glaube irgendwas stimmt nicht mit dem Power Draw der über Afterburner angezeigt wird. Selbst wenn ich das Gaming OC Bios mit 370W flashe, komme ich immer nur an diese 350W ran und das obwohl hier rüber 370W angezeigt werden.

nvidia-smi.exe -q -d power
Ist es denn sicher das man mit einem anderen Bios das Powerlimit erhöhen kann? Weiss nur bei den ATI's ging es ja nicht so leicht bzw. gar nicht.(Konnte man zwar einstellen aber er hat dann immer das der Karte genommen.)
 
Trill, noch mal wegen der Spulen:
Ich hatte den Raff von der PCGH gefragt. Die zweite Antwort ist auch von einem PCGH Redakteur:


Das klingt ja eher danach, wie es sich auch in diesem einen Video da anhörte.

Ich habe dir mal nen kleines Video aufgenommen. Durch den Zero Fan Modus kann man es ganz gut aufnehmen, auch wenn derzeit noch ohne Wasserkühler drauf - ab Sekunde 12 kannst du die Spulen hören, also wie sie einsetzten, da startet der Superposition Benchmark in 4K mit 320 Watt, musst natürlich die Lautstärke anpassen, Ton ist etwas leise geworden aber direkt neben der Karte abgegriffen.


Ich kann nur sagen die sind vollkommen ok so und nicht lauter als die Magic auf meiner 2080Ti, eher einiges leiser, aber natürlich, man hört sie, mit Abdeckung am Case höre ich fast nichts mehr, wo ich die Magic noch gut raushören kann - und ich bin der letzte der hier nicht sagt was Sache ist, ich bin da mindestens genauso empfindlich wie du. ;) Aber bitte, ich kann weder für die 3090er noch für andere 3080er FE reden, schon gar nicht für die Customs, evtl. hatte ich auch einfach nur Glück - Naennon sagt auch er hört so gut wie nichts bei seiner 3080 FE, sie sind auf jeden Fall kein Vergleich zu denen auf der 2080Ti FE die ich kenne.

Ich kann mir bei der 3090er FE aber durchaus vorstellen, dass sie da lauter sind, zum einen zwei Spulen mehr, dann 350 - 400 Watt, da ziprt es eben auch mehr weil die Dinger eben mehr nuckeln müssen. Ich lasse die 3080er aber wohl so mit 280 Watt laufen, der Unterschied zu 320 Watt ist irgendetwas um 2 - 4 FPS, je nach Taktkurve, kann ich aber erst mit Wakü drauf richtig austesten und bei 280 Watt höre ich so gut wie nichts mehr von den Spulen.
 
Zuletzt bearbeitet:
Bei meiner Gigabyte 3080 Gaming OC bin ich momentan bei 1905Mhz @875mv ~295W
Bin über die 295W verwundert, wo liegt denn die Stock Spannung? Müsste doch bei etwa 1V @ 320W liegen?
Ich hätte bei der Spannung mit weniger als 295W gerechnet :hmm:


Man sieht hier dass man unter Inkaufnahme eines geringen Performanceverlusts (6,5%) die Effizienz um 44% steigern kann, eigentlich ganz normal. Aber AMDler lassen ja keine Möglichkeit aus die "grandiosen untervolting Fähigkeiten" (die nicht besser als die von Nvidia sind) ihres Lieblings anzupreisen...
 
Zuletzt bearbeitet:
Aber AMDler lassen ja keine Möglichkeit die "grandiosen untervolting Fähigkeiten" (die nicht besser als
Jein, war halt nur während der Vega-Zeit der Fall und lag zum einen darin begründet dass die GPU @stock wirklich extrem viel schlechter performte als mit UV.
Vor allem aber war Nvidia da von der Effizient schon so viel viel besser dass Nvidias fps/Watt einfach als Referenz genommen wurde und Vegas Effizienz über UV in annehmbare Regionen geschoben wurde.
Natürlich Milchmädchenrechnung und ändert nichts an der Tatsache dass Nvidia die besseren (aber im Gegenzug teureren) Produkte hatte. Nur durch den direkten Vergleich wurde Nvidia UV quasi obsolet.

Spannend wird nun der Vergleich zwischen Ampere und RDNA2 - diesmal hat ja nun Nvidia den Chip ziemlich am Limit @stock und ist bezüglich Effizienz enttäuschend (im Hinterkopf von 12 auf 8 nm in der Fertigung und neuer Architektur - und nochmal: @stock). RDNA2 weiß man nichts, erste Gerüchte behaupten dort aber Vorteile für AMD. Falls (!!) das so kommt - und das ist ein großes falls - wird es spannend sein zu beobachten wie sich dann die fanlager bezüglich UV positionieren.
 
Bin über die 295W verwundert, wo liegt denn die Stock Spannung? Müsste doch bei etwa 1V @ 320W liegen?
Ich hätte bei der Spannung mit weniger als 295W gerechnet :hmm:


Man sieht hier dass man unter Inkaufnahme eines geringen Performanceverlusts (6,5%) die Effizienz um 44% steigern kann, eigentlich ganz normal. Aber AMDler lassen ja keine Möglichkeit aus die "grandiosen untervolting Fähigkeiten" (die nicht besser als die von Nvidia sind) ihres Lieblings anzupreisen...

Genau das Video hab ich auch gesehn, deswegen wundert es mich auch sehr.
Muss ich die Tage ausgiebig testen, während der Arbeitszeit ist das immer nur begrenzt möglich :fresse2:
 
Erstaunlich wie wenig hier los ist, scheinen ja nur wenige Glück gehabt zu haben eine Karte zu bekommen. Wir warten auf euch! :-)
 
Erstaunlich wie wenig hier los ist, scheinen ja nur wenige Glück gehabt zu haben eine Karte zu bekommen. Wir warten auf euch! :-)
Glaub die meisten sind so "durch" nach der Odyssee eine Karte zu bekommen, dass die sich schon Zwei Wochen im "Der Nvidia Ampere Verfügbarkeits und Laber Thread" verausgabt haben. Die tauchen dann erstmal ne Woche mit der Karte ab und leben in sozialer Isolation, takten, benchen, zocken und verbringen gemeinsame romantische Stunden mit ihrer 3080/3090 🥰. Danach tauchen die dann schon wieder auf hier.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh