[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es kommt halt auf die DLSS Implementierung an. In Control oder Death Stranding ist DLSS super und auf jeden Fall eine Empfehlung vor allem bei 4K. In BF5 ist es absoluter Crap und Metro ist so ein Zwitter, wo es „okay“ ist. Als Stabilitätstest ist es aber super, weil auch die Tensor Cores verwendet werden. In Metro lastet man also sowohl die normalen Unified Cores, als auch die RT Cores und Tensor Cores aus.
 
Ich glaube hier ist meine Frage nicht verkehrt, warum verbraucht die 3080 mehr als eine 3090 im Idle? Sollte die 3080 nicht irgendwie so um die 15W liegen?

Habe hier ein paar Bilder vom Power Draw, verstehe das grade nicht so richtig.. !?


Mfg.
 
Die schlechten Beispiele sind halt auch DLSS 1.0 und damit alter Käse.
Bei Control und Death Stranding ist es 2.0
 
Gibt es hier noch nen Aorus Master/Xtreme Besitzer der RGB Fusion 2.0 ins laufen gebracht hat? Bekomme meine Karte damit nicht angesteuert.
 
Was genau möchtest du wissen bzw. was ist das Problem? Du hast die Aorus Engine installiert und RGB Fusion 2.0 hat er danach mitinstalliert? Dann musst du in der Aorus Software auf die RGB Suite wechseln, dann kannst du nach der Initialisierung die Karte ansteuern.

Mfg.
 
Ich glaube hier ist meine Frage nicht verkehrt, warum verbraucht die 3080 mehr als eine 3090 im Idle? Sollte die 3080 nicht irgendwie so um die 15W liegen?

Ich hab noch niemanden gesehen, der 15W im Idle stemmt. Eventuell ein Bench-System mit 60hz FHD-Monitor.
Aber sobald die HZ steigen geht auch der Idle-Power-Draw hoch.
Ich kann z.b. bei mir zwischen 25 und 35W variieren, einfach indem ich in 4K von 60 auf 144hz hochschalte.
 
Zuletzt bearbeitet:
Aber vergiss dabei eines nicht die AMD Karte läuft da im Rage Mode(mit OC), die Nvidia ist Stock.
Klar, dass die sich die besten Vergleiche herausgesucht haben (könnten).
Wobei die 88FPS in SotTR schon realistisch für eine bessere 3080 sind. Die FE liefert da @Stock nur 77FPS!
Es sei denn, AMD hat mit "Highest" nicht Ultrahoch gemeint...:confused:
Man wird sehen wie gut die AMD Karten unter Wassere gehen, die RTX3080@OC schafft da mit genug Powerlimit an die 20k rum im 24/7.
Das sind dann 15-20% mehr als Stock.
Für mich aktuell zwar kein Thema, aber gut zu wissen...:bigok:
Habe zb 81 FPS mit den Einstellungen mit 400W und 45 Mhz OC und Ram auf 10k.
Also habe es vorhin kurz getestet: Mit VRAM-OC holst nichts raus und der GPU-Takt muss vermutlich schon deutlich höher sein, damit sich da etwas gravierend verändert.
Lande immer wieder zwischen 69 und 71FPS.
oder dein 3700X limitiert :p
Du lachst... Daran habe ich auch schon gedacht!
Wird mit Zen3 dann hoffentlich kein Thema mehr sein...:fresse2:
Apropos: Welche Werte hast denn @4K?

EDIT: Die AMD-Folien sind insgesamt etwas verwirrend... Mal stimmen sie mit einer 3080 bzw. 3090 @Stock überein, dann wieder mit einer OCed! :stupid:
 
Zuletzt bearbeitet:
EDIT: Die AMD-Folien sind insgesamt etwas verwirrend... Mal stimmen sie mit einer 3080 bzw. 3090 @Stock überein, dann wieder mit einer OCed! :stupid:

Nein, die sind nicht verwirrend, die sind komplett Banane.

6800: -Rage Mode +Smart Access Memory
6800 XT: -Rage Mode -Smart Access Memory
6900 XT: +Rage Mode +Smart Access Memory

Du kannst die Karten nicht mal untereinander vergleichen, weil die FPS-Zahlen unter unterschiedlichen Bedingungen entstanden sind - geschweige denn irgendwelche Vergleiche mit der Konkurrenz ziehen!
 
Meine TufOc liegt meist um die 30W.Ich glaube fast HWL hat da den Chip angegeben, PL liegen ja auch keine 375W vor, sondern ca. 355W.

@Eagle1
Dafür brauchst du aber ne "gute" Karte, ist der Chip zu schlecht säuft der zuviel da du mehr Spannung brauchst.Zum anderen muss die Karte guten Speicher drauf haben, also +1000 wenigstens, bei HZD skaliert es z.B. nicht sehr gut mit reinen Takt, erst mit mehr "Bandbreite" kriege ich den Takt 1:1 umgesetzt.

AMD kannst du aber auch noch prügeln,evtl. sollten da 2,4Ghz+ gehen und bestimmt am meisten wird da auch SpeicherOc bringen.
Schwer zu sagen wie das da skaliert, aber 10%+ mehr als der Rage Mode @Wakü sollte bestimmt drin sein.
 
Vielleicht kann @Don etwas dazu sagen denn er hat die Strix 3090 ebenfalls mit 30,1W gemessen was bei mir in etwa auch der Fall war, abgesehen davon erklärt es aber nicht warum meine 3080 deutlich mehr verbraucht wie die 3090. Seine Aussage war ja auch dass die 3090er mehr verbrauchen wie die 3080, bei mir ist ja eher umgekehrt :confused:

Mfg.
 
Zuletzt bearbeitet:
Also habe es vorhin kurz getestet: Mit VRAM-OC holst nichts raus und der GPU-Takt muss vermutlich schon deutlich höher sein, damit sich da etwas gravierend verändert.
Lande immer wieder zwischen 69 und 71FPS.

Du lachst... Daran habe ich auch schon gedacht!
Wird mit Zen3 dann hoffentlich kein Thema mehr sein...:fresse2:
Apropos: Welche Werte hast denn @4K?

EDIT: Die AMD-Folien sind insgesamt etwas verwirrend... Mal stimmen sie mit einer 3080 bzw. 3090 @Stock überein, dann wieder mit einer OCed! :stupid:
Takt bei mir bei der GPU um ^1900, aber im 3090 Fred ist auch einer mit 3700X und deinem Ergebniss, ist definitv die CPU, 4K kann ich nicht einstellen..
Ja Ram oc bringt wenig, hab den nur auf 10k weils so toll aussieht im AB overlay :shot:
 
meine Trio schwankt im idle auch zwischen 15W und 25W Board Power draw. Liegt aber auch daran, dass die gern mal hin und hertaktet. Denke ich.
 
Ich habe jetzt meine Aorus 3090 Master auch mal optimal eingestellt. Zumindest für mein Bedürfnis, beim Zocken auch in leisen Momenten die Karte nicht zu hören. Für mich scheinen 850 mV und 1800 MHz der richtige Punkt zu sein. Nach mehreren Stunden Anno 1800 @4k mit GSYNC wird die Karte zwar 75°C warm, bleibt aber unhörbar (außer man geht sehr nah mit dem Ohr ran). Ca. 320 Watt genehmigt sich die Karte dann.

Auf Stabilität teste ich, wie einige andere hier, ebenfalls mit Metro Exodus. Auch ich kann bestätigen, dass Settings, die sonst stabil waren, bei Metro plötzlich zum Crash geführt haben.

Ich bin weiterhin absolut begeistert von der Aorus! Ist einfach ne tolles Karte, auch wenn mein Chip nicht der allerbeste zu sein scheint. Das macht ja aber das Layout / Design der Karte nicht schlechter.
 
Ich hab noch niemanden gesehen, der 15W im Idle stemmt. Eventuell ein Bench-System mit 60hz FHD-Monitor.
Aber sobald die HZ steigen geht auch der Idle-Power-Draw hoch.
Ich kann z.b. bei mir zwischen 25 und 35W variieren, einfach indem ich in 4K von 60 auf 144hz hochschalte.
Ich seh den jeden Tag...
idle-desktop.jpg

Aber meist ist so zw. 15-21w und einer Voltage > 0.0
Hab nen 1440p @ 144Hz Monitor angeschlossen per DP.
 
Nein, die sind nicht verwirrend, die sind komplett Banane.
Oder so...:d
Du kannst die Karten nicht mal untereinander vergleichen, weil die FPS-Zahlen unter unterschiedlichen Bedingungen entstanden sind - geschweige denn irgendwelche Vergleiche mit der Konkurrenz ziehen!
Yup, den Eindruck habe ich auch! Umso schwerer, da ein realistisches Bild zu bekommen.
Naja, irgendwann werden wir es erfahren...:rolleyes:
@Eagle1
Dafür brauchst du aber ne "gute" Karte, ist der Chip zu schlecht säuft der zuviel da du mehr Spannung brauchst.Zum anderen muss die Karte guten Speicher drauf haben, also +1000 wenigstens
Deine Aussage bezieht sich jetzt auf was? Die Frames in SotTR?
Erreiche da ohne RAM-OC 87FPS...
bei HZD skaliert es z.B. nicht sehr gut mit reinen Takt, erst mit mehr "Bandbreite" kriege ich den Takt 1:1 umgesetzt.
In welcher Auflösung testest du und wieviel FPS konntest du (durch VRAM+Takt-OC) herausholen? Bei mir sind es zwischen 77 (1950/9500MHz) und 80FPS (1965/10045MHz) @4K Ultra.
AMD kannst du aber auch noch prügeln,evtl. sollten da 2,4Ghz+ gehen und bestimmt am meisten wird da auch SpeicherOc bringen.
Das bezweifle ich eben! Wenn AMD die 6900 schon mit "Rage-Mode"-Werten angibt, ist da vermutlich nicht mehr viel Luft.
Und der "Smart Access Memory" ist auch noch ein Mysterium. Warum z.B. gibt man bei der 6800XT, nicht die Werte aller Games aus der Primärfolie an. SotTR fehlt da z.B.! Heißt für mich, da holen sie vermutlich unter 2% raus. :hmm:
Schwer zu sagen wie das da skaliert, aber 10%+ mehr als der Rage Mode @Wakü sollte bestimmt drin sein.
Klar... Doch das erreichst du, wie du schon sagtest, auch mit Ampere. 😉

Versteh mich nicht falsch: Mir ist letztlich egal, wer "gewinnt"! Doch bei AMD bin ich durch vorherige Launches eher skeptisch geworden und die gestrige Präsentation hat daran kaum etwas geändert...
Bei einer CPU hast nicht so viele Bescheißerle-Methoden zur Hand, um die Werte zu schönen. Doch bei GPUs...:hust:
Klar hat Nvidia auch ziemlich dick aufgetragen, doch am Ende stimmt die Leistung... Meistens... Halbwegs... ☺️
Beitrag automatisch zusammengeführt:

Takt bei mir bei der GPU um ^1900, aber im 3090 Fred ist auch einer mit 3700X und deinem Ergebniss, ist definitv die CPU, 4K kann ich nicht einstellen..
Du meinst, der 3700X limitiert bei ihm bzw. bei mir?
Ja Ram oc bringt wenig, hab den nur auf 10k weils so toll aussieht im AB overlay :shot:
Das stimmt allerdings...😆
 
Bei meiner FE mit einem Monitor @120Hz auf dem Dektop um die 12 Watt, mit zusätzlich meinem UHD @60Hz um die 22 Watt - steigt natürlich wenn der Takt hoch geht bzw. schwankt eben.
 

Anhänge

  • Power1.jpg
    Power1.jpg
    142,1 KB · Aufrufe: 82
  • Power2.jpg
    Power2.jpg
    172,9 KB · Aufrufe: 77
Meine Palit macht mit LG38 und Acer X34 beide auf max Refresh Rate um die 38W idle - mit immer wieder Spikes auf 70-100W
 
Die Frage ist hier im Owners-Thread vielleicht besser aufgehoben als im Laber und Verfügbarkeitsthread:
Hat eigentlich irgendjemand, der bei einem Saturn-Drop ne 3080 via Lieferung ergattern konnte, die Spiele-Codes bekommen? Habe am 07.10. ne 3080 TUF bestellt und seither leider nichts mehr von Saturn gehört.

Zum idle-Verbrauch: 2 Monitore (1080p/60 und 1440p/144) macht bei mir knapp 40 Watt... Habe die Hoffnung, das vielleicht noch zu senken, indem ich das System mal neu aufsetze oder zumindest die Treiber komplett neu installiere und davor mit DDU drüber gehe.
 
@Eagle1
Amd war früher sogar mal schneller als NV, für uns Consumer bedeutet das erstmal nur 2 Sachen, ein besseres P/L und wahrscheinlich mehr Performanceschub zur nächsten Gen.

Wegen RamOC, nicht jedes Spiel skaliert gleich, bei HZD bekomme ich z.B. keine 10% mehr FPS bei 10% mehr Takt, mit VRam OC aber schon, da kommen dann die fehlenden 2-3% .
Wirklich was rausholen kannst du eh nur mit Wakü, unter Luft kann man sich das klemmen.
 
Die Vermutung liegt zumindest Nahe wenn gleich 2 User mit merkbar niedrigeren FPS in dem Bench nen 3700X haben..
Yup, so langsam vermute ich das auch...:heul:
In dem Video limitiert ein 3800XT sogar noch die 2080Ti @4K:
@Eagle1
Amd war früher sogar mal schneller als NV, für uns Consumer bedeutet das erstmal nur 2 Sachen, ein besseres P/L und wahrscheinlich mehr Performanceschub zur nächsten Gen.
Abwarten... Bisher sehe ich keinen Preisdrop bei der 3000er Serie.
Eher im Gegenteil! Die 3070 wird schon wieder zu lachhaften Preisen gelistet...
Wegen RamOC, nicht jedes Spiel skaliert gleich, bei HZD bekomme ich z.B. keine 10% mehr FPS bei 10% mehr Takt, mit VRam OC aber schon, da kommen dann die fehlenden 2-3% .
Wirklich was rausholen kannst du eh nur mit Wakü, unter Luft kann man sich das klemmen.
Welches Basis-System bzw. welche CPU hast du im Einsatz?
Wie oben schon geschrieben, vermute ich das die CPU noch etwas (ver)schluckt...:-[
 
Frage...
hab derzeit ja ne 3090 verbaut und heute endlich ein hdmi 2.1 Kabel bekommen "monitor" ist ein 65" LG OLED C9
Wenn ich am Desktop auf 120 hz einstelle läuft es eigentlich gut, manchmal gibts kurze Bildaussetzer

sobald ich aber in einem Game Vollbild auf 120hz stellen will wird der Bildschirm schwarz und es kommt "kein Signal" bei 120hz läuft es
bei 100 hz geht es etwas besser, aber es gibt auch immer wieder die Bildaussetzer

ist das Kabel kaputt? oder hängts sonst wo?
hab auch schon das OC rausgemacht und die Karte auf Stock laufen lassen, änderts nichst
es ist auch egal ob die Karte auf 100% anschlag läuft oder wie in d3 bei 20% auslastung rumdödelt^^

wohlgemerkt nur in 4k
bei 2560x1440 läuft es bei 120hz einwandfrei ?!

*edit*
ok sobald am Desktop auch irgendwas grafischeres abläuft als die Standbilder vom Explorer kickts ihn auch raus ?!?

Kabel ist das hier
 
Hängt am LG OLED - ist bekannt. Google mal - soweit ich mich errinern kann, soll man ein Ticket bei LG aufmachen.
Firmware Update kommt später...

Das ist mein letzter Stand, kann sich inzwischen geändert haben.
 
hm ok -.-
also warten und hoffen^^
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh