[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
Ich habe gerade in einer ETH Mining Analyse gesehen, dass die 3080 ihren max Mining Score mit ca 1050-1100 MHz auf dem core erreicht und das bei +750mhz vram oc. Für mich sieht es ganz danach aus, das die Karte voll im vram bandwidth Limit steckt . Jetzt machen die 320 Bit vs 384 bei der 3090 auch Sinn. Sonst wäre die 3080 wohl fast genauso schnell wie die 3090. Dazu das Desaster mit 10gb RAM für 4k zu wenig ,lässt nur drauf hoffen das rdna2 richtig fliegt und die 3080 dann eine Anpassung bekommt.

Nein, das liegt einfach nur daran, dass ETH Mining von hohem Speicherdurchsatz profitiert und man die GPU runtertaktet und undervoltet um Strom zu sparen. Davon auf Speicherbandbreitenlimitierung in Spielen zu schließen ergibt keinen Sinn.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
LOL, die Gigabyte ist eine der besten Karten zur Zeit. Ich hatte keinerlei Probleme meine Stecker einzustecken.
Evtl. liegt es ja auch am Netzteil bzw. dem verwendeten PCIE Steckern, Fakt ist das die Kontakte bei mir sehr lose sind. Geht nach Ebay, die XT5700 muss dann noch reichen bis zur neuen Navi.
 
Nein, das liegt einfach nur daran, dass ETH Mining von hohem Speicherdurchsatz profitiert und man die GPU runtertaktet und undervoltet um Strom zu sparen. Davon auf Speicherbandbreitenlimitierung in Spielen zu schließen ergibt keinen Sinn.

Man könnte es auch anders sehen.
Die Karte wurde in der speicherbandbreite limitiert, damit sie für miner unattraktiv wird.
Was mit offener speicherbandbreite möglich ist sieht man bei der 3090. Wäre schön Mal einen Test zu sehen wie die 3080 in 4k Games und Anwendungen mit Speicher ich skaliert. Ich könnte mir vorstellen, dass es sinnvoller ist als core oc.

Runtertakten zeigt aber auch, dass die GPU mehr könnte, wenn die speicherbandbreite es zulassen würde. Zumindest bei starker Reichenlast wie ETH.

Dennoch finde ich die Ampere Leistung Wahnsinn. Vor allem was da in einige Anwendungen rüber kommt. Das lockt in jedem Fall. Aber erstmal rdna2 abwarten.
 
Zuletzt bearbeitet:
Mal ne Frage ... gibt es funktionierende Pcie 4.0 Riserkabel? :rolleyes:
 
Gestern ist meine 3080 FE angekommen. Sehr ästhetisch. Komisch dass Nvidia als einziges eine elegantes Design auf den Markt bringt. Alle Partnerkarten haben ja leider wieder den Kiddie-Gaming-Look.

War etwas verwundert, musste das CSM im BIOS aktivieren um ein Bild zu bekommen auf meinem Asus B550-I. :unsure:
Zum Release bestellt und erst jetzt angekommen?
 
Ich hab selten solchen ausgemachten Blödsinn gelesen!
Ein bißchen Lektüre dazu:


Laut Brandon Bell, Senior Technical Marketing Manager at Nvidia, nutzen aktuelle Games alles voll aufgedreht in 4k zwischen 4 - 6GB Vram - eben nicht zu verwechseln mit der Allocated Vram Anzeige, die einem z. B. suggeriert das 11GB voll sind und man dadurch denkt man bräuchte mehr Vram:

We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price. In order to do this, you need a very powerful GPU with high speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory. Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance.
 
Zuletzt bearbeitet:
Ich bin gespannt ob die Spikes der 8GB-User in HZD, die sie schon in WQHD haben mit den 10GB der 3080 verschwinden.
Denn auf den 16+GB-Karten sind die nicht zu sehen.

Ups ... dürften ja gar keine Spikes haben, denn 8GB sollten ja in WQHD mehr als genug sein.


Man schaue sich das schöne Bildchen von Igor an. Ich waage es ja gar nicht meine eigenen Erfahrungen zu schildern. Man schaue sich den Spike-Alarm selbst der 11GB Karten an.
Komisch das es bei den 16GB und den 24GB keine Spikes gibt. Also bitte nicht erzählen dass es die Anzahl der Shader, AMD/NVIDIA oder sonstwas ist.
1601135482753.png


Also was irgend ein Manager erzählt, der Karten verkaufen will, und was wir so zocken.
Ich glaube da geht die Schere weiter auseinander.
 
Zuletzt bearbeitet:
^^Ist doch vollkommen unerheblich, was da in diesem Bild gezeigt wird - meine persönliche Realworld-Erfahrung mit der RTX Titan, ihren 24GB und in den verschiedensten Games waren eben einfach grottig, weil mich in Games im Grunde nur eines kollossal nervt und das sind NACHLADERUCKLER - und diese haste mit den scheiß 24GB im gleichen Umfang, fertig die Geschichte. Es ist schlicht unfug den Leuten verkaufen zu wollen, sie bräuchten 24GB! Bei 14 - 16GB wäre ich auch dabei und würde auch keine Einwände haben. Aber ich behaupte jetzt einfach mal 48GB Vram ist noch viel geiler, als lächerliche 24GB, die sind so ohne Zukunft, also los, die 48GB RTX 3090 "CEO Edition" kaufen - ach schade, die war ja nur ein Fake.
 
Zuletzt bearbeitet:
Ich bin gespannt ob die Spikes der 8GB-User in HZD, die sie schon in WQHD haben mit den 10GB der 3080 verschwinden.
Denn auf den 16+GB-Karten sind die nicht zu sehen.

Ups ... dürften ja gar keine Spikes haben, denn 8GB sollten ja in WQHD mehr als genug sein.


Man schaue sich das schöne Bildchen von Igor an. Ich waage es ja gar nicht meine eigenen Erfahrungen zu schildern. Man schaue sich den Spike-Alarm selbst der 11GB Karten an.
Komisch das es bei den 16GB und den 24GB keine Spikes gibt. Also bitte nicht erzählen dass es die Anzahl der Shader, AMD/NVIDIA oder sonstwas ist.
Anhang anzeigen 534153

Also was irgend ein Manager erzählt, der Karten verkaufen will, und was wir so zocken.
Ich glaube da geht die Schere weiter auseinander.



Der Spiker 3090

 
Medium Texturen.
Wir reden übers VRAM. Was frisst das meiste VRAM? Ultra-Texturen.
Mit Medium oder Low-Texturen haben auch die 8GB-User kein Problem in WQHD.

Ihr hinterfragt schon die Videos, die ihr postet?
Die ursprüngliche Aussage war doch "wir haben alles reingehauen was geht" und Du zeigst da nen Video Medium-Settings^^

Oder war das der dezente Hinweis: Das VRAM ist nur so lange ein Problem, solange ihr die Regler nicht bedient. Wo Du natürlich recht hast.
 
Zuletzt bearbeitet:
Das aber Treiber seitig, da nvidia ab 456.38 zurzeit einige dx12 Änderungen vornimmt.
Die Spikes haben zurzeit auch Spieler mit der alten RTX gen.
 
Die Vram Diskussion ist müßig, jeder muss seine eigene Erfahrung machen - aber einfach zu behaupten mit 24GB ist alles ganz toll, Games laufen immer wie Butter usw. stimmt so einfach nicht, genauso stimmt es aber auch nicht zu behaupten 10GB reichen immer, was ich auch nicht mache - das ist eben die Sache mit der Ausnahme, die es schlicht immer gibt! Die Frage ist dann eben ob einen die paar Ausnahmen 1000 Euro Aufpreis wert sind, man muss es eben immer an den eigenen Gamingansprüchen festmachen, pauschalisieren hilft meist nicht weiter.
 
Die Vram Diskussion ist müßig, jeder muss seine eigene Erfahrung machen - aber einfach zu behaupten mit 24GB ist alles ganz toll, Games laufen immer wie Butter usw. stimmt so einfach nicht, genauso stimmt es aber auch nicht zu behaupten 10GB reichen immer, was ich auch nicht mache - das ist eben die Sache mit der Ausnahme, die es schlicht immer gibt! Die Frage ist dann eben ob einen die paar Ausnahmen 1000 Euro Aufpreis wert sind, man muss es eben immer an den eigenen Gamingansprüchen festmachen, pauschalisieren hilft meist nicht weiter.

So schauts aus. Wenn man den Anspruch hat, alles und immer auf Ultra-Super-Duper zu zocken, muß man halt rief in die Tasche greifen und brauch selbstverständlich viel VRAM. Aber die Aussage "10 GB-Desaster" läßt mich schlicht kotzen.
 
Beiner neuen 700-800 Euro einer neuen Karte gleich die Regler runterstellen, DAS liesse mich kotzen..
Den Titel Vram Krüppel wirdse netmehr los, egal obde nun kotzt oder nicht..
 
Zuletzt bearbeitet:
Wie gesagt: Dich vielleicht, mich nicht. Ich bin nicht so vermessen, trommel mir auf die Brust und ölke raus: "Für die Kohle will ich alles auf Ultra". :fresse:
 
Gibts schon Erkenntnisse zu den Chips/Binning? Das Tool von NVDIA spuckt bei mir 00000000:2D:00.0 aus. Konnte dazu online nichts finden.
 
Die 3080 10GB is halt ne schöne Karte für 1080p und Leute die gerne die Regler nach links stellen :fresse2:


japp

vorallem für die Masse an Leuten hier im Luxx mit einem 4k Monitor

spielt ja keiner mehr QHD oder UWQHD, ham alle 4K mit 120Hz und mehr

90% der Nutzer kriegen die 3080 nichtmal ausgelastet mit ihrem Unterbau, aber von 10GB zu wenig in 4k brabbeln :d

ja, mehr VRam ist immer besser, nein man braucht nicht immer Unmengen an VRam und da wo es wegen VRam ruckelt sind die FPS sowieso vorher unspielbar
 
Jetzt werden schon defekte Karten bei Ebay verkauft

Cooler Beschreibungstext 😄

Achja, typisch Hobby Experte. Anstatt kurz nachzumessen ob diese krude These stimmen könnte, ballert er erstmal Heißkleber in die brandneue Karte. :ROFLMAO:
Beitrag automatisch zusammengeführt:

Und das Geplapper von wegen zu wenig VRAM ist doch lächerlich. Gibt genug Benchmarks mit Frametimes wo man die 3080 und 3090 in 4K vergleichen kann. :sneaky:
 
Zuletzt bearbeitet:
seid mal ein bisschen realistisch. menge hin oder her.. sobald der markt gesättigt ist und die regale gefüllt mit karten sind, die 10, 16, 20, 24GiB auf den kartons stehen haben, kriegt die 3080 das prädikat speicherkrüppel ganz offiziell. inoffiziell sieht man es, wenn man auf das nackte PCB guckt.. da sind zwei BGA-sockel frei.. kanibalisiert.. rationalisiert.. verkrüppelt.. kann man nennen wie man will. mit 12GiB würde sich niemand beschweren. das PCB wäre voll bestückt und selbst leute mit 11GiB vorgängerkarten würden nicht das gefühl eines downgrades bekommen.

wer was wo an reglern dreht oder drehen muss, ist und war mir schon immer hupe.. was jucken mich fremde regler..?!


(..)

mfg
tobi
 
japp

vorallem für die Masse an Leuten hier im Luxx mit einem 4k Monitor

spielt ja keiner mehr QHD oder UWQHD, ham alle 4K mit 120Hz und mehr

90% der Nutzer kriegen die 3080 nichtmal ausgelastet mit ihrem Unterbau, aber von 10GB zu wenig in 4k brabbeln :d

ja, mehr VRam ist immer besser, nein man braucht nicht immer Unmengen an VRam und da wo es wegen VRam ruckelt sind die FPS sowieso vorher unspielbar

Das ist meiner Meinung nach der entscheidende Punkt.
Es wurde in letzter Zeit oft Ghost Recon Breakpoint als Indiz für VRAM Knappheit genannt.
Guckt man sich die dazugehörigen Benchmarks an, fällt die 3080 dort gegenüber der 3090 tatsächlich etwas stärker ab. Allerdings läuft es auch auf der 3090 nicht flüssig in 4K.
Das Hauptproblem ist dort NICHT VRAM, sondern die Performance an sich. Auch bei einer 3090.
Mehr VRAM wäre sicher schön, realistisch passen die 10 GB in meinen Augen aber eigentlich ganz gut zur Leistung der Karte. Auf jeden Fall aus Kosten/Nutzen Sicht.
 
seid mal ein bisschen realistisch. menge hin oder her.. sobald der markt gesättigt ist und die regale gefüllt mit karten sind, die 10, 16, 20, 24GiB auf den kartons stehen haben, kriegt die 3080 das prädikat speicherkrüppel ganz offiziell. inoffiziell sieht man es, wenn man auf das nackte PCB guckt.. da sind zwei BGA-sockel frei.. kanibalisiert.. rationalisiert.. verkrüppelt.. kann man nennen wie man will. mit 12GiB würde sich niemand beschweren. das PCB wäre voll bestückt und selbst leute mit 11GiB vorgängerkarten würden nicht das gefühl eines downgrades bekommen.

wer was wo an reglern dreht oder drehen muss, ist und war mir schon immer hupe.. was jucken mich fremde regler..?!


(..)

mfg
tobi

So siehts aus, bringt aber hier nix, die machen sich selbst die Taschen voll und glaubens nachher noch..
 
Kleine Warnung, Gigabyte 3080 Gaming OC. Die hat ja so schön die Stromanschlüsse verlängert, leider taugen die Stecker absolut nichts. Beim einstecken sind 3 Pins nach hinten gerutscht! Keinen Nerv jetzt die Backplate zu entfernen, bin erstmal genervt, werde den Rotz wohl abbauen und mit anständigen Steckern versehen. Also vorsicht beim einstecken der PCI-E Stecker.

Hab genau das gleiche Problem mit der Karte. Die Stecker meines BeQuiet NTs wollten irgendwie nicht einrasten (bei meiner Gainward GTX 1080 geht das butterweich!). Nach ein wenig wackeln und sanftem Druck habe ich dann gesehen, dass einer der Pins im Stecker nach unten gedrückt ist. Selten so einen Scheiß gesehen und ich baue mir meine PCs seit 25 Jahren zusammen.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh