[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Von 15000 auf 20000 wäre 33 Prozent schneller. Das wäre bei 20 Prozent mehr Schader von 3080 zu 3090 und der geringen taktbarkeit von Ampere ein träumchen. (y)
 
Die Beta2 vom Afterburner hat ein neues Feature.
Der VRAM-Sensor wurde erweitert. Man kann jetzt nicht nur die gesamte Belegung des VRAMs anzeigen lassen, sondern explizit die, des laufenden Prozesses.
Also genau das, wonach immer so viele Leute beim VRAM verlangt haben.

Afterburner_VRAM_Settings.jpg


Und es gibt deutliche Unterschiede.

ffxv_s_2020_09_23_09_15_57_076.jpg
 
Die Beta2 vom Afterburner hat ein neues Feature.
Der VRAM-Sensor wurde erweitert. Man kann jetzt nicht nur die gesamte Belegung des VRAMs anzeigen lassen, sondern explizit die, des laufenden Prozesses.
Also genau das, wonach immer so viele Leute beim VRAM verlangt haben.
Ab welcher Grafikkarten Gen ist diese Darstellung möglich?
Finde diese Einstellung bei meiner GTX 1070 nicht, wäre interessant gewesen was COD WZ wirklich an VRAM braucht.
 
Gute Frage. Schreibt Unwinder leider nicht.
Aber er erwähnt, das er eine Windows, bzw. MS-API dazu benutzt. Es sollte also unabhängig von der Graka sein.
Hast Du die aktuelle Beta2 installiert?


Ich will Dich ja nicht desillusionieren^^

ModernWarfare_2020_09_23_10_11_06_302.jpg
 
Zuletzt bearbeitet:
@Seba580
Das ist Klickbait von einer Trash-Website, die nur ein bisschen was an Ampere Klicks (Geld) abgrasen will. Wie bei jeder Karte gibt es Modelle, die den Werkstakt nicht stabil halten - das sind defekte Produkte, die man austauschen lassen kann und muss.
 
Nun wechselt das Treiberproblem zu NVidia über ^^
 
Gute Frage. Schreibt Unwinder leider nicht.
Aber er erwähnt, das er eine Windows, bzw. MS-API dazu benutzt. Es sollte also unabhängig von der Graka sein.
Hast Du die aktuelle Beta2 installiert?


Ich will Dich ja nicht desillusionieren^^
Was hast du denn da wieder "Verrücktes" eingestellt? (20GB VRAM in usage) :oops: :d

Eine entsprechende Graka muss für dich noch erfunden werden (mit DIMM-Slots? :fresse: )
 
mod it till it breaks :fresse2:
 
Ich werde auf 4090 warten und :coffee2:,, man muß ja nicht den Wertverlust der Ti realisieren, sondern sollte sie weiter nutzen:coolblue:
 
Damit hat sich das Thema für mich erledigt.



Ist wahrscheinlich auch besser so.
Du hast "heimlich" eine 3080 bestellt? :oops:
Und jetzt auf 3090 warten oder ganz aussetzen?

Ich versuche standhaft zu bleiben, aber es juckt schon sehr... :rolleyes2:
Aber nur für "bissl" mehr Performance quasi eine "zweite 3080" (also eine 3090) kaufen macht irgendwie keinen Sinn :unsure:
 
Du hast "heimlich" eine 3080 bestellt? :oops:

Ich hatte mir direkt eine bestellt, wo ich noch nicht wusste, was mich genau "erwartet". Nachdem ich dann alle möglichen Benchmarks gesehen habe, wollte ich sie zwar nicht mehr wirklich haben, aber trotzdem ausprobieren und ggf. weiterverkaufen. Dann kam die E-Mail von Amazon.

Jetzt juckt mich das eh nicht mehr.

EDIT:

@Dwayne_Johnson

Ich habe mir eine Zotac 3080 bestellt (699,00 Euro), die natürlich nicht Lieferbar ist. Sollte eigentlich schon heute kommen, aber egal. Wenn ich meine 2080TI in Time-Spy mit 3080-Runs vergleiche, dann frage ich mich, ob das wirklich ein Upgrade ist oder ist Time-Spy einfach kein guter Vergleich? Kann die 3080 quasi ihre Muskeln in Time-Spy nicht zeigen?

Habe gerade keinen anderen Benchmark (von meiner 2080TI) zum vergleichen.
 
Zuletzt bearbeitet:
Die "Mehrperformance" zu unseren 2080Ti´s ist wirklich nicht berauschend - stimmt. Aber ich hab nach nur zwei Jahren auch keine +100% im Schnitt erwartet (wäre zu schön gewesen)
 
Kurzer Fun-Fact: In meinem Deepcool steckt nun die Trio, das Ding ist trotz der Halterbracket so schwer, das sich die Rückwand leicht biegt.. erm ja.. krank..

Lösung:
a) so lassen, wayne...
b) GPU Stand kaufen (hmmmm.....)
c) neues Gehäuse (naaaaaaa...)
d) Riser Kabel und GPU quer, aber dann sind die Lüfter halt echt nah oder zu nah am Glas
 
Die "Mehrperformance" zu unseren 2080Ti´s ist wirklich nicht berauschend - stimmt. Aber ich hab nach nur zwei Jahren auch keine +100% im Schnitt erwartet (wäre zu schön gewesen)

Ich hatte auf einen ähnlichen Schritt wie von der 1080TI auf die 2080TI gehofft, aber ~15K bis ~18K Time-Spy-Punkte triggern mich einfach überhaupt nicht.

Mit einer 3080 Super/TI, bin ich wahrscheinlich wieder im Rennen..
 
Eher 17-20k (3080) und 18-22k (3090) ;)
 
Kurzer Fun-Fact: In meinem Deepcool steckt nun die Trio, das Ding ist trotz der Halterbracket so schwer, das sich die Rückwand leicht biegt.. erm ja.. krank..

Lösung:
a) so lassen, wayne...
b) GPU Stand kaufen (hmmmm.....)
c) neues Gehäuse (naaaaaaa...)
d) Riser Kabel und GPU quer, aber dann sind die Lüfter halt echt nah oder zu nah am Glas

Ich hab n Schnapsglas druntergestellt unter die Kante rechts unten, hatte eines in der perfekten Höhe da ^^
 
Frage zu den Referenz PCBs. Bisher sah ich, dass neben Gainward auch KFA2, Palit, Galax und PNY solche PCBs benutzen (QUellle https://www.ekwb.com/configurator/w...ine?height=260&width=530&inline_id=comp_table). Gehe ich richtig der Annahme, dass es für meine geplante Wasserkühlung egal ist, welche dieser Grafikkarten ich am Ende nehme, da die Maße für das PCB bei allen gleich ist?
Ich hatte mich bisher auf die kleineren GRAKAs eingeschränkt, da andere nicht in mein Case passen.
 
Ich hab n Schnapsglas druntergestellt unter die Kante rechts unten, hatte eines in der perfekten Höhe da ^^

Ah das muss ich mal schauen :d
Danke für den Tipp!

Denke ich schau mal nach einem runden Stück Acryl Glas was in die Aufnahme passt für eine etwaige Lüftermontage, da ist aktuell eine Schraube drin. Das sollte vielleicht schon viel helfen mit kleinem Podest. Macht dann das innere Case auch net so hässlich zum anschauen.
 
Kurzer Fun-Fact: In meinem Deepcool steckt nun die Trio, das Ding ist trotz der Halterbracket so schwer, das sich die Rückwand leicht biegt.. erm ja.. krank..
:oops: :ROFLMAO:

Ich hatte auf einen ähnlichen Schritt wie von der 1080TI auf die 2080TI gehofft, aber ~15K bis ~18K Time-Spy-Punkte triggern mich einfach überhaupt nicht.

Mit einer 3080 Super/TI, bin ich wahrscheinlich wieder im Rennen..
Ich benche zwar gerne, aber ich könnte es verschmerzen, wenn sich nur beim Benchen kaum was tut, aber beim Zocken gut was rumkommt
Eine 3080 Super/Ti wäre doch aber noch hinter der 3090. Warum nicht das Flaggschiff, wenn die Perf. stimmt?


btw:
Die Strix ist schon hot :-) Schön viele Spawa´s (y) . Ausserdem finde ich das Kühlerkonzept besser gelöst, wie bei der TUF (<-- deren Konzept "zwei separate Kühler" verstehe ich nicht :rolleyes2:)
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh