[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Katzen wollen ja überall rein, die versuchen alles. Wenn sie sich darin spiegelt ist die Chance wirklich groß das sie mal dagegenläuft.
 
ich bekomm da echt augenschmerzen bei dem Bild
 
also ich hab nicht weiter auf insta geschaut aber dieses grelle ist echt schlimm ;)
 

Schon nicht schlecht was die 3080 da liefert.
Das Game läuft zwar wie Butter aber 4K Max Settings und fast immer über 100 FPS ist schon ne Hausnummer.
Das hat kein Dlss drin oder?
 
die frage ist wie läuft es auf einer 2080/s ? doom rennt doch eh auf ner kartoffel
 
Ja, ich hab es zwar nicht selbst aber das rennt auf allem richtig gut.
So wirklich einschätzen lässt sich das halt erst wenn mal die Typischen Bench Games getestet werden.

Bissel Böse Werbeabsicht ist da halt schon hinter, Boah 120Fps 4K wtf... halt nur in in dem Game das eh rennt wie sau. :d
 
zumindest deckt sich das mit dem DF video. Wenn das bei allen Games stimmt die im DF videosind ist die 3080 65 - 85% schneller als die 2080
 
Doom Eternal war mit meiner 2080S auf 4k/high settings äußerst flüssig spielbar, liefen alle Spiele mit der id-Engine bräuchte ich also keine Ampere. :p
 
Jup, Doom ist halt auch kein Open World Titel.

Aber gut, die Mehrleistung kommt an da gibt's wenig zu Meckern.
 
Wieso sollten sie auch einen Trailer zeigen mit einem Game, was den Nvidia Karten nicht liegt? Ist doch klar, dass sie da diverse Spiele getestet haben werden und das was am besten wirkte, wurde in ein Werbevideo verpackt. Hätte doch jeder so gemacht ^^

Geht aus dem Startpost leider nicht hervor, aber wieviel % ist die 3080 schneller als die 3070? (Ja, ich weiß, wir haben aktuell noch keine echten Benchmarks, aber denke als Indikator reicht das ...)
 
Da gibt es bisher nur die Folie aus dem Stream, so wirklich was mit werten hab ich noch nicht gesehen.
 
doom rennt doch eh auf ner kartoffel
Na toll, dann bin ich unter einer Kartoffel 😢

Hatte mir das Game bei ner Aktion gekauft. Meine 780 TI packt das Game in 4k nicht. 1080p geht sieht aber dann irgendwie seltsam komisch aus.


Kann mich irgendwie nicht entscheiden ob 3070 oder 3080. 800€ waren eigentlich meine Schmerzgrenze und ich wollte gucken, was ich dafür dann maximal bekomme. Jetzt denke ich mir, die 3070 würde für das wenige Spielen was ich noch mache reichen.... aber die Schmerzgrenze war ja 800 :banana: und die 3080 wäre auch echt nice *sfz*

Immerhin bin ich nun ganz froh, dass ich im Feb oder März ka wann genau, doch das 650Watt Netzteil gekauft hatte... damit dürfte ich dann wenigstens hinkommen. Wäre es das 550Watt teil geworden, würde ich mir nun wohl in den Ar.... beißen 🙊
 
Na toll, dann bin ich unter einer Kartoffel 😢

Hatte mir das Game bei ner Aktion gekauft. Meine 780 TI packt das Game in 4k nicht. 1080p geht sieht aber dann irgendwie seltsam komisch aus.


Kann mich irgendwie nicht entscheiden ob 3070 oder 3080. 800€ waren eigentlich meine Schmerzgrenze und ich wollte gucken, was ich dafür dann maximal bekomme. Jetzt denke ich mir, die 3070 würde für das wenige Spielen was ich noch mache reichen.... aber die Schmerzgrenze war ja 800 :banana: und die 3080 wäre auch echt nice *sfz*

Immerhin bin ich nun ganz froh, dass ich im Feb oder März ka wann genau, doch das 650Watt Netzteil gekauft hatte... damit dürfte ich dann wenigstens hinkommen. Wäre es das 550Watt teil geworden, würde ich mir nun wohl in den Ar.... beißen 🙊

3070 verbraucht nur 220W, das ist doch top. Da reicht dann für das System auch ein gescheites 450W NT.

Ich habe ein gescheites 600W SFX NT und hätte 0 Bedenken das mit einer 3080 oder so zu belasten.
 

Schon nicht schlecht was die 3080 da liefert.
Das Game läuft zwar wie Butter aber 4K Max Settings und fast immer über 100 FPS ist schon ne Hausnummer.
Das hat kein Dlss drin oder?
ich weiß garnicht ob ich überhaut mal unter 120FPS bei dem spiel in 4k@alles auf Alptraum gekommen bin 😅
 
OC zähl ich da mal nicht rein :ROFLMAO:

Ich würde jetzt echt gerne echte Benchs sehen, was ne 3090 mit OC liefert und was die Karten grob an Takt können.
Diese Warten nach dem Warten immer :d Sollte die unter Luft ins Temp Limit rennen muss man ja wieder warten... :poop:
 
Hier ein Showcase warum Latenz in Spielen relevant ist (zumindest Shooter).


Ich finde das wurde da sehr gut erklärt und gezeigt.
Als jemand, der keine Shooter spielt und dem die Latenz im normalen Rahmen egal ist, hatte ich vorher keine Ahnung wie viel so ein paar Millisekunden ausmachen können in diesem Genre.
Jetzt ist mir das klar geworden und ich verstehe den massiven Push die Systemlatenz zu drücken von NVidia.

Da werden wohl alle mit NVidia GPUs in Zukunft einen deutlichen Vorteil haben in Valorant, CSGO und Co.
Ein weiterer Softwaregrund NVidia zu kaufen.
 
Ob das den Feierabend Zocker Besser macht wage ich zu bezweifeln. :d
Da muss man schon ne krasse Reaktionszeit haben, im esport aber sicher ne feine Sache.
 
Habt ihr mitbekommen? Die Founders sind diesmal nicht Referenz-PCB.

Snipp von der EK-Seite

This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.
 
Ja, hatten wir im anderen Thread schon das Thema. :d
Gibt da leider noch keine weiteren Infos zu nur das auch ein FE Block kommen wird.
 
Habt ihr mitbekommen? Die Founders sind diesmal nicht Referenz-PCB.

Eigentlich ists schon länger bekannt, dass nVidia 2 Refernzdesigns aufgelegt hat.
Stichwort: PG133 und PG132

Keine Ahnung, warum das für Alphacool und ek was neues ist.

Vielleicht ist ja zur FE nichts rausgegeben worden?
 
Was mein ihr, wird es wieder zwei unterschiedliche Chips geben wie bei der 2080ti?
Einen "A" und "non A" Chip?
 
Hatte irgendwo mal gelesen dass das diesmal nicht der Fall sein soll. Aber wer kann das schon sicher sagen :unsure:
Ich warte jetzt erst Mal auf meine PosterXXL Bestellung von gestern. So ein Leopard macht sich bestimmt gut über meinem Kamin🍷
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh