[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe erfahren das es bei nvidia einen Datenleck gab und Kundendaten+Kreditnr öffentlich einsehbar waren... da bin echt doch froh keine FE gekauft zu haben uff
 
Guter Release-Treiber für den 2D-Idle Betrieb.
Vergleich Turing - Ampere (ich schätze man sieht was ich sagen möchte).

nvidia_refresh_1441gjkd.jpg
nvidia_refresh_120syk1e.jpg
Ampere_Idle.jpg

Beitrag automatisch zusammengeführt:

DAs game mit der schlechtesten alten Engine Ever.. Wirdma Zeit das die ne neue programmieren..
Sagen nur die Leute, die zu wenig Kerne haben. Die anderen freuen sich, das sie mal 48 Threads ackern sehen^^
Kennst Du ein anderes Game das so viel Last auf so viele Kerne bringt?

Alle heulen immer, das zu wenig Kerne genutzt werden, das ein Game zu wenig Multicore optimiert ist.
Und jetzt gibts ein Game das so viele Kerne beschäftigt, und wieder heulen alle.
Die Entwickler können es einem einfach nicht recht machen^^

70 FPS in 4K im Graka-Limit bei den 1000enden von Einheiten die da rumwuseln ... bei den letzten Versionen von dem Game hatte ich da noch 20 FPS im CPU-Limit.
Die haben RICHTIG RICHTIG Gehirnschmalz investiert.
 
  • Danke
Reaktionen: THK
i see what you did there HisN, is doch ganz nice
 
NEIN
DAs Game sieht extem hässlich aus für die Leistung die es kostet, die Engine ist einfach Uralt. Nurt weil die Engine viele Kerne ausnutzt macht sie das ja nicht zu ner guten Engine. Eine gute Engine zeigt schöne Bilder bei moderatem Performance Verbrauch, wie zb bei Doom Eternal..
Siehe CB Test von Troy

Edit: so hässlich wie die Einheiten sind ist auch keine Leistung das die flüssig sind..


Alte Engine mit CPU-Killer-Option

Troy: A Total War Saga nutzt die hauseigene Technologie TW Engine 3, die bereits seit einigen Jahren Verwendung findet. Trotz der neuesten Ausbaustufe sieht man dem Spiel das Alter an. Es sieht je nach Szene durchaus gut aus. Allerdings gibt es auch Sequenzen, wo die Optik deutlich abfällt. Vor allem Missionen bei Nacht oder im Regen sind im Jahr 2020 keine Augenweide mehr. Durchaus ordentlich sieht der Titel dagegen bei Sonnenschein aus. Allzu nah heranzoomen sollte man an die Einheiten jedoch auch dann nicht. In Summe bietet Troy: A Total War Saga auch für ein Strategiespiel optisch nur Durchschnitt.


Wie die Benchmarks zeigen werden, haben die Entwickler durchaus versucht, die Optik zu verbessern, sind dabei aber technisch über das Ziel hinausgeschossen. Wer die falsche Grafikoption erwischt, kann die Framerate schnell um ein Drittel einbrechen lassen und zugleich selbst eine 12-Kern-CPU fast gänzlich auslasten
 
Zuletzt bearbeitet:
Guter Release-Treiber für den 2D-Idle Betrieb.
Vergleich Turing - Ampere (ich schätze man sieht was ich sagen möchte).
Wie sieht das eig. bei AMD aktuell aus? Zu Polaris Zeiten gabs bei AMD ja kaum einen funktionierenden 2D-/Stromsparmodus. Sobald Youtube/MS Office/Chrometabs mit GPU Beschleunigung offen waren wurde freudig hochgetaktet und der Lüfter angeworfen weil die Karte so heiß wurde. Wie ist da der aktuelle Stand bei Navi?
Ich rede primär von WQHD mit 60 bzw. 120 Hz.

Wenn ich das im AMD Thread frage heißt es wieder AMD Treiber seien zu jeder Zeit perfekt und es gäbe keine Probleme :rolleyes:
 
Meine 5700XT (1440p 144hz) hat im Idle ASIC Draw von 9 Watt. Das ändert sich auch nicht bei Youtube etc.
Wenn die Videos starten taktet die teils kurz auf 12-15 Watt hoch und geht dann wieder auf 9 Watt runter.
 
Keine Ahnung warum hier einige Leute so schwer angefasst sind und persönlich werden.
Ich denke schon das die 3080 nur ein Testballon ist und ein Preisdrücker für AMD. Sobald RDNA2 raus ist und vielleicht auch schneller mit mehr VRAM gibt es eine 3080super oder ti.
Die wird sehr wahrscheinlich dann min 12 GB haben und wenn notwendig für den Wettbewerb eine höhere speicherbandbreite.
Ich wollte nur sagen Ampere ist ein geiles Teil aber es braucht schnelleren Speicher um voll ausgelastet zu werden und hier sind nicht nur spiele gemeint. Vielleicht kann ja Mal jmd FPS / frametimes mit Speicher oc skalieren lassen.
Würde mich Mal interessieren ob es da was bringt den Speicher zu übertakten oder Mal zu schauen wie stark die FPS sinken wenn man den Speichertakt senkt.

Es muss ja nicht immer eine radeon7 sein mit 16gb HBM2 aber geil wäre so eine Ampere Version schon :) würde ich zumindest schwach werden :)
 
Keine Ahnung warum hier einige Leute so schwer angefasst sind und persönlich werden.
Ich denke schon das die 3080 nur ein Testballon ist und ein Preisdrücker für AMD. Sobald RDNA2 raus ist und vielleicht auch schneller mit mehr VRAM gibt es eine 3080super oder ti.
Die wird sehr wahrscheinlich dann min 12 GB haben und wenn notwendig für den Wettbewerb eine höhere speicherbandbreite.
Ich wollte nur sagen Ampere ist ein geiles Teil aber es braucht schnelleren Speicher um voll ausgelastet zu werden und hier sind nicht nur spiele gemeint. Vielleicht kann ja Mal jmd FPS / frametimes mit Speicher oc skalieren lassen.
Würde mich Mal interessieren ob es da was bringt den Speicher zu übertakten oder Mal zu schauen wie stark die FPS sinken wenn man den Speichertakt senkt.

Es muss ja nicht immer eine radeon7 sein mit 16gb HBM2 aber geil wäre so eine Ampere Version schon :) würde ich zumindest schwach werden :)

Respekt, du hast 0,00 Ahnung von was du redest, und dichtest anderen Leuten noch an, dass sie persönlich werden. ^^ Auf wen auch immer du dich beziehst.

1. 12 GB 3080? Es ist schon seit ewigkeiten confirmed, dass eine 20GB Version kommt. Allerdings erst wenn Micron die 2GB Chips iwann 2021 produziert... Nicht 5 min nach der AMD Präsi.
2. Bisher scheinen die 10GB GDDR6X (auch auf Grund des schnellen Durchsatzes) noch kein Problem in irgend einem Game zu sein
3. In einem der letzten Videos von Jayz2Cents sieht man wie die FPS runtergehen wenn man den Memory zu stark übertaktet... weil die komplette Ampere Gen auf Kante genäht ist.
4. Warum? Keine Ahnung, vielleicht zaubert AMD doch noch was aus dem Hut. Oder NV wollte einfach alles abgrasen bis AMD 2021 mit Custom Designs ausm **** kommt.
 
2. Bisher scheinen die 10GB GDDR6X (auch auf Grund des schnellen Durchsatzes) noch kein Problem in irgend einem Game zu sein

Da haste aber so einige Testergebnisse schlciht ignoriert, gibt doch etliche die Zeigen wo die 10GB jetzt schon nichtmehr reichen. Gepostet wurden die auch zu Genüge..
Und Speicherspeed ersetzt oder kompensiert NIEMALS Rammenge, das wollte uns AMD schon bei der Fury verklickern..
 
@Naennon

Da ist aber nur von einer Email-Adresse die Rede, und nicht von einem massiven Daten-Leak mit KK Informationen.

Da könnte einfach eine Session nicht sauber terminiert worden sein.

Daraus jetzt ein Gerücht über einen massiven Daten-Leak zu basteln könnte einfach auch eine Masche sein um die Konkurrenz auszuschalten. :fresse:

Man kann ja bekanntermaßen nur mit KK bestellen.
 
Meine 5700XT (1440p 144hz) hat im Idle ASIC Draw von 9 Watt. Das ändert sich auch nicht bei Youtube etc.
Wenn die Videos starten taktet die teils kurz auf 12-15 Watt hoch und geht dann wieder auf 9 Watt runter.
Danke für die Rückmeldung. Schafft die Karte es denn im Alltag ohne dass ein 3D Game gespielt wird die Lüfter deaktiviert zu lassen? Also ich rede nicht von nem frischen Boot ohne geöffnete Programme (das wird häufig als einziges getestet bei den Reviews 🤦‍♂️) sondern vom normalen Arbeitsalltag mit allen möglichen Programmen im Hintergrund bzw. im Vordergrund. Oder mal anders gefragt:
In welchem (non 3D Game) Szenario gehen vereinzelt die Lüfter an?
 
Respekt, du hast 0,00 Ahnung von was du redest, und dichtest anderen Leuten noch an, dass sie persönlich werden. ^^ Auf wen auch immer du dich beziehst.

Dies ist vollkommen überflüssig.

Btw schau dir doch Mal die pcbs an.
Mir ist schon klar das es auch 20gb Versionen geben wird, nur hier ist nun wirklich fraglich wer 20gb benötigt.

12gb wie es heute schon möglich wäre, ist dennoch bei 4k sinnvoll. Wird die Karte nicht so gross für 4k beworben und die 3090 für 8k?

Und natürlich hat Nvidia die Hosen voll und schnell Ampere rausgehauen bevor rdna2 am Markt ist.
Und natürlich hat man sich am möglichen Preis von AMD orientiert.
Wer glaubt denn Nvidia macht hier freiwillig ein 699 Geschenk.
 
Ja schafft sie, hatte ich anfangs so laufen. Bin allerdings kein Freund von Zero-Fan Modus und hab die Karte permanent bei 700rpm im idle laufen, was ich absolut nicht hören kann (wie meine restlichen Lüfter im System auch). Damit liegt die im idle bei 29°C
 

Na wenn Du das sagst.
Aber wie üblich hast Du meinen Punkt ignoriert, während andere es raffen.

i see what you did there HisN, is doch ganz nice

Ich habe ein Game das alle Kerne benutzt und die Graka ins Graka-Limit drückt.
Das ist maximale Last auf dem Netzteil.

Was Du jetzt an dem Game toll oder nicht so toll findest hat hier nix verloren und ist völlig latte.
 
Ja schafft sie, hatte ich anfangs so laufen. Bin allerdings kein Freund von Zero-Fan Modus und hab die Karte permanent bei 700rpm im idle laufen, was ich absolut nicht hören kann (wie meine restlichen Lüfter im System auch). Damit liegt die im idle bei 29°C
Und du hast keine Bedenken, dass dein auf ZeroFan dimensionierter Lüfter ggf. aufgrund der erheblich gesteigerten Betriebsstunden auf Dauer eher ausfallen könnte?
 
Ich habe ein Game das alle Kerne benutzt und die Graka ins Graka-Limit drückt.
Das ist maximale Last auf dem Netzteil.

Was Du jetzt an dem Game toll oder nicht so toll findest hat hier nix verloren und ist völlig latte.

hö? hab doch gar nix zu de Game gesagt? ;) ich kenn das nichtmal

ich habs nur geantwortet wegen dem idle und wie du auf die Wattage kommst ;)
 
Und du hast keine Bedenken, dass dein auf ZeroFan dimensionierter Lüfter ggf. aufgrund der erheblich gesteigerten Betriebsstunden auf Dauer eher ausfallen könnte?

Ähm... eher nein. Ich hab in den letzten 20 Jahren glaub noch keinen einzigen Lüfter in irgendeinem laufenden System von mir gehabt, der den Geist aufgegeben hat
 
hö? hab doch gar nix zu de Game gesagt? ;) ich kenn das nichtmal

ich habs nur geantwortet wegen dem idle und wie du auf die Wattage kommst ;)

Deshalb hatte ich auch @Thrawn. zitiert und Dich als Positiv-Beispiel @Naennon :-)
Weil Du es verstanden hast um was es mir ging. Nicht um das Game, sondern was das System aus der Dose zieht, ohne das ich Fur+Prime bemühen muss. Weil das Game so viele Kerne nutzt.
 
Zuletzt bearbeitet:
Da haste aber so einige Testergebnisse schlciht ignoriert, gibt doch etliche die Zeigen wo die 10GB jetzt schon nichtmehr reichen. Gepostet wurden die auch zu Genüge..
Und Speicherspeed ersetzt oder kompensiert NIEMALS Rammenge, das wollte uns AMD schon bei der Fury verklickern..

Dann zeige mir mal einen Test wo der Memory komplett voll war. Und ich rede nicht von der GPU-Z / Afterburner Anzeige.

Natürlich kann man das erzwingen, aber beim normalen zocken in 1440p oder 4K scheint es gerade noch zu reichen.
CB, HWL, Guru3D, Igor, auch PCGH schreiben, dass die 10GB noch reichen, aber man nicht weiß wie es in 2 Jahren ausschaut.
 
Gibt genug posts von mir und anderen die letzten seiten, ich such nicht für jeden ders nicht sehen will alles wieder neu raus sorry..
Ich kauf mir eh ne 3090, kauft was ihr wollt und redet euch ein das alles toll ist, hauptsache glücklich..
 
Dann zeige mir mal einen Test wo der Memory komplett voll war. Und ich rede nicht von der GPU-Z / Afterburner Anzeige.

Von welcher Anzeige redest Du dann? Wie zeigt man denn gefülltes VRAM Deiner Meinung nach "richtig" an?
 
Ich habe mir gestern Mal Battlefield 5 auf UWQHD mit einer Radeon 7 angetan und war da bei ca. 8.5gb Auslastung bin mir gerade aber nicht sicher ob es max Grafik war und es ist eben UWQHD und die frames sind sicher niedriger als bei einer 3080. Wenn Nvidia nicht zaubert mit den Texturen wird es bei 4k knapp. Nichts anderes wurde hier behauptet und nichts anderes habe ich in Videos auch gesehen. 10gb in 4k voll ausgelastet bei der 3080.

Ob das nun gut ist oder egal ist kann ich nicht sagen. Ich habe die Radeon VII der 5700xt genau deshalb den Vortritt gelassen und bei davinci resolve ist es auch gut wenn etwa mehr Platz im vram ist.

Natürlich sind je nach usecase die 10gb nicht verkehrt und nividia würde sich ja noch læcherlicher machen gegenüber den Käufern der 2080ti, wenn die 3080 direkt mit 12gb kommen würde.


Kleines Zitat.
Und ich hatte ja oben schon geschrieben warum dies nividia nicht moechte.

"Re: Zu wenig VRAM.
ms (Golem.de) 16.09.20 - 20:14
Nvidia hätte auf volle 384 Bit und 12GB gehen können ..."


Warum wurde dies nicht gemacht?

Ich denke mit 384bit wuerde die Karte zu nahe an der Performance der 3090 sein. Einen anderen Grund sehe ich nicht.
 
Zuletzt bearbeitet:
Von welcher Anzeige redest Du dann? Wie zeigt man denn gefülltes VRAM Deiner Meinung nach "richtig" an?

Es gibt ein Tool names „Special K“ . Das zeigt in einem Overlay an wieviel Ram wirklich genutzt wird und nicht nur reserviert.


Benutzt oder getestet hab ich es selbst nicht und kann auch nicht sagen ob es zuverlässig ist.
 
Kenn ich. Funktioniert nur eingeschränkt mit DX12 und ist auch ansonsten ein Pain in the Ass :-)
Da lobe ich mir doch die neuen Afterburner-Sensoren "Commit vom Prozess".

Aber @Jedi123 scheint da doch besser informiert zu sein als wir, deshalb warten wir doch mal was er sagt.

modernwarfare_2020_091jknm.jpg
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh