[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
Kleine Warnung, Gigabyte 3080 Gaming OC. Die hat ja so schön die Stromanschlüsse verlängert, leider taugen die Stecker absolut nichts. Beim einstecken sind 3 Pins nach hinten gerutscht! Keinen Nerv jetzt die Backplate zu entfernen, bin erstmal genervt, werde den Rotz wohl abbauen und mit anständigen Steckern versehen. Also vorsicht beim einstecken der PCI-E Stecker.
Bei sowas würde ich die Karte gleich austauschen lassen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Wird ja immer wie besser.

Ja , dass die erste Charge an Karten teilweise Fehler hat habe ich schon mit Pascal festgestellt.
Total glücklich mit der EVGA 1080 FE bekommen über eine Verlösung bekommen zu haben und hatte schonmal den Lüfterbug^^

Da war die freude rum. 1080 TI 9 Monate gewartet und Turing auch 9 Monate später gekauft.
Halt dann wenn es vernünftige Karten gibt.

Daher versuche ich immer geduldig zu sein und kaufe halt einige Zeit später.

Asus scheint es aber wohl gut gemacht zu haben.

Was da manche Boardpartner mit den Stromanschlüssen einfallen lassen ist meiner Meinung nach eine sauerrei.
Da meint man die Karte kommt aus einer hinterhof Werkstatt
 
Das ist immer besser aber 9 Monate ist doch arg lang. Hoffe, dass in 1-2 Monaten vernünftige Karten erwerbbar sind.

An alle Käufer einer RTX3090 aktuell: Viel Spaß damit :P :d
 
Also ich bin immer noch am Grübeln und Reviews vergleichen, mir will die Performance der 3090 nicht so richtig in den Kopf. Wenn man mal bei Techpowerup schaut:

Unbenannt-1.jpg

Quellen: https://www.techpowerup.com/review/zotac-geforce-rtx-3090-trinity/27.html, https://www.techpowerup.com/review/gigabyte-geforce-rtx-3090-eagle-oc/27.html, https://www.techpowerup.com/review/msi-geforce-rtx-3090-gaming-x-trio/27.html, https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/27.html

Da drückt die Strix 15-21 FPS (!!) mehr als die Trinity. Wtf? Also in meinen Augen sind 20 FPS eine kleine Welt. Ein Blick auf die Taktraten erklärt vielleicht auch warum:

Unbenannt-3.jpg


Das finde ich aber schon heftig, wann gab es zuletzt solche Varianzen bei den zwischen den Modellen? Früher hat ne Strix gegen eine Referenz vielleicht 5 FPS mehr gemacht, unter Wasser eher noch weniger. Der Unterschied an FPS für gerade mal 156 MHz mehr ist auch ziemlich krass und eher ungewöhnlich. Ist das wirklich alles plausibel was die gemessen haben?

Mich verunsichert das sehr. Wenn die Zotac der Realität dessen entspricht, was man regelmäßig an OC mit der 3090 erwarten kann, dann bin ich mittlerweile ehrlich gesagt eher bei der 3080 (da kommt ja auch ein bisschen OC drauf). Wenn die Strix 3090 das aber reproduzierbar abliefert und es sich nicht um ein Golden Sample handelt, ja kann man ja fast nur diese Karte kaufen und die normalen 3090er vergessen oder wie soll ich das sehen? :eek:
 
Zuletzt bearbeitet:

Wird ja immer wie besser.

Hatte einen Back to Desktop bei Hitman 2 Benchmark und 3DMark (Fire Strike). mit Offset von 30-50 MHz lief es jetzt ohne Probleme. Die Temps mit 79°C im silent Betrieb Meiner lüfter sind OK.

Auf Grund der ganzen Thematik weiss ich jetzt nicht ob Karte behalten oder Back to Alternate. Ohne Offset taktet sie so auf 1960 MHz und fällt dann auf 1835-1875 zurück. Mit Offset dann so dauerhaft 1800-1815 MHz
Stellt sich die auch sie Frage: Garantiefall? Sollte ja.. könnte ich ja dann immernoch über MSI in Zukunft einmelden wenn der run vorbei ist.
 
  • Danke
Reaktionen: SH
wieso? die scheinen eh besser als die der FE zu sein und ohne diese hässlichen 12 pin adpater.
Hässlich ist die Stelle der Buchse... (n)
Da wäre es auch völlig egal, wenn es 2x 8pin-Buchsen wären
Aber ob FE oder Custom - bei so ziemlich allen Karten ist das sehr hässlich (genauso, wie irgendwelche Sticker mit Seriennummern)

Bei der 3090 würde mich das besonders stören, weil es mit Abstand die schönste "Luftkarte" ist, aber die Stelle der Buchse macht die Optik leider kaputt
Ich frage mich, warum noch Keiner darauf gekommen ist die Buchse unten an der Seite (also nahe am MB) zu verbauen? :rolleyes2:
So würden keine blöden Kabel (noch schlimmer - Adapter) rumbaumeln...
 
Also ich bin immer noch am Grübeln und Reviews vergleichen, mir will die Performance der 3090 nicht so richtig in den Kopf. Wenn man mal bei Techpowerup schaut:

Anhang anzeigen 533918
Quellen: https://www.techpowerup.com/review/zotac-geforce-rtx-3090-trinity/37.html, https://www.techpowerup.com/review/gigabyte-geforce-rtx-3090-eagle-oc/27.html, https://www.techpowerup.com/review/msi-geforce-rtx-3090-gaming-x-trio/27.html, https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/37.html

Da drückt die Strix 15-21 FPS (!!) mehr als die Trinity. Wtf? Also in meinen Augen sind 20 FPS eine kleine Welt. Ein Blick auf die Taktraten erklärt vielleicht auch warum:

Anhang anzeigen 533922

Das finde ich aber schon heftig, wann gab es zuletzt solche Varianzen bei den zwischen den Modellen? Früher hat ne Strix gegen eine Referenz vielleicht 5 FPS mehr gemacht, unter Wasser eher noch weniger. Der Unterschied an FPS für gerade mal 156 MHz mehr ist auch ziemlich krass und eher ungewöhnlich. Ist das wirklich alles plausibel was die gemessen haben?

Mich verunsichert das sehr. Wenn die Zotac der Realität dessen entspricht, was man regelmäßig an OC mit der 3090 erwarten kann, dann bin ich mittlerweile ehrlich gesagt eher bei der 3080 (da kommt ja auch ein bisschen OC drauf). Wenn die Strix 3090 das aber reproduzierbar abliefert und es sich nicht um ein Golden Sample handelt, ja kann man ja fast nur diese Karte kaufen und die normalen 3090er vergessen oder wie soll ich das sehen? :eek:
Deshalb kommt mir auch nur die 3090 Strix OC in meinen Rechner! :-)
 
Kleine Warnung, Gigabyte 3080 Gaming OC. Die hat ja so schön die Stromanschlüsse verlängert, leider taugen die Stecker absolut nichts. Beim einstecken sind 3 Pins nach hinten gerutscht! Keinen Nerv jetzt die Backplate zu entfernen, bin erstmal genervt, werde den Rotz wohl abbauen und mit anständigen Steckern versehen. Also vorsicht beim einstecken der PCI-E Stecker.
Ist ja schlimmer, wie von 8auer beschrieben :oops: (n)
Schick den Mist zurück und nehm eine Andere (eine andere Marke, meine ich)...
Gigabyte soll ruhig spüren, dass sie da Mist gebaut haben


@L0rd_Helmchen
Schade, wieder keine 4K-Benches... :rolleyes2:
 
Zuletzt bearbeitet:
LOL, die Gigabyte ist eine der besten Karten zur Zeit. Ich hatte keinerlei Probleme meine Stecker einzustecken.
 
hat die aorus master/xtreme auch diese adapter?

wenn ja wirds klar eine strix
 
Wenn die Strix 3090 das aber reproduzierbar abliefert und es sich nicht um ein Golden Sample handelt, ja kann man ja fast nur diese Karte kaufen und die normalen 3090er vergessen oder wie soll ich das sehen? :eek:

PT Strix 485 Watt
PT Eagle OC 385 Watt

Das BIOS der Strix befreit diese. Der 3x8 Stromanschluss macht es technisch sicher. Die Eagle OC darf nicht mehr Leistung ziehen. Was ist daran verwunderlich?
 
Ein Zeichen :fresse: meine 1080Ti ist gerade gestorben. BF5 gestartet und das Netzteil macht klack und aus. Mit der Graka drin Schutzabschaltung, so ne Scheiße. Ma schauen ob Zotac noch welche hat.
 
PT Strix 485 Watt
PT Eagle OC 385 Watt

Das BIOS der Strix befreit diese. Der 3x8 Stromanschluss macht es technisch sicher. Die Eagle OC darf nicht mehr Leistung ziehen. Was ist daran verwunderlich?
Strixx bleibt meine Nr:1 da kommt nur noch ein Wasserkühler drauf !
 
  • Danke
Reaktionen: THK
Hier noch ein Video von Jayz. Er hat einige Karten auseinandergeschraubt um Igors Angaben zu prüfen.

 
EVGA: https://forums.evga.com/Message-about-EVGA-GeForce-RTX-3080-POSCAPs-m3095238.aspx

„Hi all,

Recently there has been some discussion about the EVGA GeForce RTX 3080 series.

During our mass production QC testing we discovered a full 6 POSCAPs solution cannot pass the real world applications testing. It took almost a week of R&D effort to find the cause and reduce the POSCAPs to 4 and add 20 MLCC caps prior to shipping production boards, this is why the EVGA GeForce RTX 3080 FTW3 series was delayed at launch. There were no 6 POSCAP production EVGA GeForce RTX 3080 FTW3 boards shipped.

But, due to the time crunch, some of the reviewers were sent a pre-production version with 6 POSCAP’s, we are working with those reviewers directly to replace their boards with production versions.
EVGA GeForce RTX 3080 XC3 series with 5 POSCAPs + 10 MLCC solution is matched with the XC3 spec without issues.

Also note that we have updated the product pictures at EVGA.com to reflect the production components that shipped to gamers and enthusiasts since day 1 of product launch.
Once you receive the card you can compare for yourself, EVGA stands behind its Sands

Thanks
EVGA“
 
Wird hier zusammengefasst und weiter ergänzt.

 
tjo.. schätze, genau darum habe ich keine karte bekommen :-) AFAIR hatte ich noch auf die umbauwütigen jungs eingequatscht, dass sie ihre karten erstmal nutzen sollen bevor sie pauschal alles umbauen.. wer weiss, was da diesesmal auseinanderfliegt.. wie anno knips der RAM bei den turings. schön, dass mein bauch wieder den richtigen riecher hatte. irgendwas ist immer..


(..)

mfg
tobi
 
Gestern ist meine 3080 FE angekommen. Sehr ästhetisch. Komisch dass Nvidia als einziges eine elegantes Design auf den Markt bringt. Alle Partnerkarten haben ja leider wieder den Kiddie-Gaming-Look.

War etwas verwundert, musste das CSM im BIOS aktivieren um ein Bild zu bekommen auf meinem Asus B550-I. :unsure:
 

Anhänge

  • IMG_20200926_104342.jpg
    IMG_20200926_104342.jpg
    612,8 KB · Aufrufe: 113
Hatte einen Back to Desktop bei Hitman 2 Benchmark und 3DMark (Fire Strike). mit Offset von 30-50 MHz lief es jetzt ohne Probleme. Die Temps mit 79°C im silent Betrieb Meiner lüfter sind OK.

Auf Grund der ganzen Thematik weiss ich jetzt nicht ob Karte behalten oder Back to Alternate. Ohne Offset taktet sie so auf 1960 MHz und fällt dann auf 1835-1875 zurück. Mit Offset dann so dauerhaft 1800-1815 MHz
Stellt sich die auch sie Frage: Garantiefall? Sollte ja.. könnte ich ja dann immernoch über MSI in Zukunft einmelden wenn der run vorbei ist.

Meine Gainward 3080 verhält sich genauso wie Deine!

Wenn man die Karte richtig fordert fällt der Takt und schwankt zwischen 1770-1845 bei dauerhaft 350 Watt Verbrauch.
Ich habe bisher alles probiert Per Kurve per PT Beschränkung etc. Auch ein normales Offset von +25 ist zu viel.

Beim Speicher sind auch 10300 Mhz kein Problem. Ab 10380 greift die Fehlerkorrektur bei meinem Modell.

Alle Test habe ich bei 100% Lüfter und 62 Grad GPU getestet. Letztendlich kann mein Exemplar einfach nicht mehr.

Wenn ich mit FPS Begrenzung zocke schafft die Karte 1950-1965 bei 350 Watt, dies ist ein indiz für eine schlechte GPU.

Da die Karte nicht meinen Ansprüchen genügend geht sie auf eBay zu einem fairen Kurs.


Ich denke bisher haben die Tuf und Fe am besten abgeschnitten in Sachen Chip Güte.
Allerdings zeigen die Test die Test von Guru3d und Techup die Wahrheit über die Chipgüte.
Hier erreichen die Butter und Brot Karten im Boost auch nur 1860 MHz oder 1920 bei 370 Watt.

Die Videos von PCGH kann ich gar nicht nachvollziehen. Die müssen die absoluten Überkarten haben.
2070 bis 2100 ist bei mir undenkbar.
Auch ein Gainward Test Video auf YouTube zum Thema UV ist bei mir unmöglich. Im video zeigen sie Ergebnisse mit 0,806v für 1845 MHz. Dass wäre bei mir ein OC von 300 MHz inkl. UV oder Bregrenzung. Auch dass die beiden Herren 250 Watt dabei verbrauchen. Ich konnte 0,806 mit 1590 MHz stabil bekommen und das bei immer noch 250-310 Watt.

Gut möglich das mein Exemplar etwas für extreme Wasserkühlung und offenem PT ist. Den bei 350 Watt bleibt die vergleichsweise kühl.
 
Ich habe gerade in einer ETH Mining Analyse gesehen, dass die 3080 ihren max Mining Score mit ca 1050-1100 MHz auf dem core erreicht und das bei +750mhz vram oc. Für mich sieht es ganz danach aus, das die Karte voll im vram bandwidth Limit steckt . Jetzt machen die 320 Bit vs 384 bei der 3090 auch Sinn. Sonst wäre die 3080 wohl fast genauso schnell wie die 3090. Dazu das Desaster mit 10gb RAM für 4k zu wenig ,lässt nur drauf hoffen das rdna2 richtig fliegt und die 3080 dann eine Anpassung bekommt.
 
....lässt nur drauf hoffen das rdna2 richtig fliegt und die 3080 dann eine Anpassung bekommt.

Richtig,....nur wenn dann die RDNA2 richtig fliegen sollte, unter besserem Prozess bei TSMC
warum sollte ich dann noch eine 3080 kaufen?

Gruß
 
Zuletzt bearbeitet:
DLSS, RT, NV Software, NV Stream, RTX Voice, G-Sync, Reflex, RTX IO etc..

Hallo,

bis auf zukünftig leistungsfähiges DLSS in der 40XX Generation, interessiert mich keiner dieser „Zusatznutzen“. Das mag für andere anders gelten, hier wäre eine Umfrage interessant. Ich glaube Du wärst überrascht,....oder ich.

Gruß
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh