[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
VRAM funktioniert genau so wie RAM von der Speicherverwaltung her.
Wenn ich 20GB Müll ins VRAM schreibe, dann Ruckelt es zum Spielstart kurz, Windows lagert den Müll im RAM und die Spieldaten haben ihren Platz im VRAM. Und einen Weg Windows zu sagen: Diese 20GB Karte hat nur 8GB scheint noch niemand gefunden zu haben.
Wie meinen? :unsure:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Digitale Phasen Controller wie bei der Kingpin :fresse2:

Die hat die TUF auch btw. ^^ Ebenso die Strix. Auf der TUF ist ein UP9512 und laut OCN ist auf der Strix ebenfalls wie bei der 3080/90 FE/2080Ti KPE ein MP2888A. Also bei beiden sollte es auch kein Problem sein, diese via I2C anzusteuern.

Aber ja, sehr schön zu sehen, dass die FE mit hochwertigen Komponenten aufwartet. Die Dichte der Komponenten würde mir trotzdem sorgen machen.
 
Alter. Hört auf die Technik auseinander zu nehmen.
Die Karte macht einfach höllisch FUN.

RDR2 in UHD, alles voll aufgerissen (auch die Wasser-Simulation), nur AA/Renderscale ist aus.

RDR2_2020_09_28_08_50_14_057.jpg
RDR2_2020_09_28_08_49_30_534.jpg
 
Zuletzt bearbeitet:
VRAM funktioniert genau so wie RAM von der Speicherverwaltung her.
Wenn ich 20GB Müll ins VRAM schreibe, dann Ruckelt es zum Spielstart kurz, Windows lagert den Müll im RAM und die Spieldaten haben ihren Platz im VRAM. Und einen Weg Windows zu sagen: Diese 20GB Karte hat nur 8GB scheint noch niemand gefunden zu haben.

Nur das der Code aus dem RAM der Speicherverwaltung nicht genutzt wird. Im Gegensatz zum VRam eines angezeigten Screens.
Man lagert also eine aktiven Screen (siehe meinen 2 Monitoransatz), bei 120 Hz also 120 mal pro Sekunde in das RAM aus und dann wieder zurück in das VRam, damit er dann angezeigt werden kann? Dann kriegen wir die gewünschten Spikes.
 
Zuletzt bearbeitet:
Ich feier gerade ein bisschen.
Wildlands. Das waren mit der 2080TI FPS im 40er Raum wenn man die Settings hochgestellt hat.
Und jetzt?
GRW_2020_09_28_09_44_51_577.jpg
GRW_2020_09_28_09_44_11_932.jpg


Borderlands 3
Mit der 2080TI wenn man Glück hatte 48 FPS an der Stelle. Und jetzt ...
Borderlands3_2020_09_28_09_49_19_848.jpg

Beitrag automatisch zusammengeführt:

Nur das der Code aus dem RAM der Speicherverwaltung nicht genutzt wird. Im Gegensatz zum VRam eines angezeigten Screens.
Man lagert also eine aktiven Screen (siehe meinen 2 Monitoransatz), bei 120 Hz also 120 mal pro Sekunde in das RAM aus und dann wieder zurück in das VRam, damit er dann angezeigt werden kann? Dann kriegen wir die gewünschten Spikes.

D.h. Du möchtest ein Programm, das eine Dir unbekannte Menge an VRAM belegt dazu benutzen, um festzustellen wann die unbekannte Menge von nötigem VRAM eines anderen Programmes erreicht ist?
Eventuell gar nicht so blöd, wenn man die Mengen konkretisieren könnte.
Beitrag automatisch zusammengeführt:

ACO
Da stelle ich mal keine großartige Änderung fest. Mir war so als wären 60 FPS auch mit der 2080TI an der Stelle möglich gewesen.
ACOdyssey_2020_09_28_09_58_49_457.jpg

Beitrag automatisch zusammengeführt:

Metro mit RTX auf Ultra kann man immer noch vergessen in UHD.
MetroExodus_2020_09_28_10_03_13_866.jpg

Beitrag automatisch zusammengeführt:

Auch Division2 bin ich jetzt nicht unbedingt begeistert .. könnte noch nen Tick mehr sein^^

TheDivision2_2020_09_28_10_10_28_849.jpg
TheDivision2_2020_09_28_10_09_04_273.jpg
 
Zuletzt bearbeitet:
D.h. Du möchtest ein Programm, das eine Dir unbekannte Menge an VRAM belegt dazu benutzen, um festzustellen wann die unbekannte Menge von nötigem VRAM eines anderen Programmes erreicht ist?
Eventuell gar nicht so blöd, wenn man die Mengen konkretisieren könnte.

Die tatsächlich benötigte Menge an VRam des Hilfsprogramms, also nicht nur die allokierte, sollte das Programm eigentlich bestimmen können. Ohne die Librarys zu kennen -- das noch nicht belegte Memory, also nicht das allokierte, kann man offensichtlich feststellen. Ansonsten würden manche Programme nicht Bitmaps in kleineren Auflösungen nutzen, wenn der VRam zu Ende geht. Bei solchen Programmen funktioniert das ganze dann natürlich nicht über Spikes, sondern über Bildqualität.

Es gibt dazu schon einen Ansatz: https://www.hardwareluxx.de/community/threads/vramhog-software-zum-finden-des-vram-limits.1277261/
 
Diesen Ansatz hatte ich auch mal verfolgt.


Deshalb ja auch meine Erfahrungen ... ungenutzte Daten werden aus dem VRAM entfernt, wenn genutzte Daten sie benötigen. Genau wie beim RAM.
D.h. man müsste das Programm um einen Refresh erweitern. Fragt sich halt nur was z.b ein Refresh von 10GB Daten 120x die Sekunde an Bandbreite braucht. Ob das überhaupt praktikabel ist. Nicht das der Refresh schon so viel Bandbreite/Leistung braucht, das für das ursprüngliche Programm nix mehr an Graka-Leistung übrig bleibt.
 
Heute das kostenlose MicroFit Kabel von seasonic erhalten. Haben die erst Freitag per DHL Express aus Taiwan geschickt. 👍
 

Anhänge

  • IMG_20200928_104502.jpg
    IMG_20200928_104502.jpg
    764,8 KB · Aufrufe: 133
  • IMG_20200928_104642.jpg
    IMG_20200928_104642.jpg
    869,3 KB · Aufrufe: 137
Top! Gibts da von EVGA mittlerweile auch was?
 
Also immerhin haben sich die meisten Boardpartner jetzt wenigstens mal gemeldet bzgl. der Absturzprobleme. Von Nvidia selbst (und auch deren FE) bisher nur Schweigen im Walde.
Die meisten Boardpartner sagen nun aber dass die Karten im Handel schon angepasst sind, die problematische Bestückung nur Testmuster betrifft. Da die Probleme aber ja trotzdem aktuell sind ist es offensichtlich nicht immer mit der Platinenbestückung getan.
Bezüglich Hilfe war das beste bisher "schreibt eine mail, jeder betroffene bekommt einen Mondkuchen".

Überlegt euch gut die nicht ganz stabilen Karten zu behalten. Im besten Falle kann man sie auch länger als 14 Tage zurückgeben und hoffen ein besseres Austauschexemplar zu bekommen. Im wahrscheinlichsten Fall werden die Karten einfach noch minimal im Takt beschnitten - wenn auch über den Treiber. Ist dann nur wahrscheinlich dass das sämtliche Ampere-Karten betreffen wird.

Ich hätte zumindest keine Idee wie die das Problem sinnvoller (und damit meine ich wirtschaftlich - denn das wird der entscheidende Parameter sein) lösen wollen. Wenn jemand einen anderen Gedanken hat her damit!!
 
Ah, sieht natürlich gleich viel besser aus. Und der Noctua-Lüfter sorgt immer noch für das gewisse Extra in meinem Gehäuse. :fresse2:

Meine vorige GK war laut Spec 295mm lang, die FE soll angeblich 285mm lang sein, trotzdem passte der Noctua-Lüfter mit der FE nicht mehr auf den Radi. Jetzt ist ein Raijintek Aeolus Beta unterwegs, müsste 2-3mm flacher sein und dann hoffentlich passen. :whistle:
 

Anhänge

  • IMG_20200928_112232_1.jpg
    IMG_20200928_112232_1.jpg
    562,2 KB · Aufrufe: 178
Diesen Ansatz hatte ich auch mal verfolgt.


Deshalb ja auch meine Erfahrungen ... ungenutzte Daten werden aus dem VRAM entfernt, wenn genutzte Daten sie benötigen. Genau wie beim RAM.
D.h. man müsste das Programm um einen Refresh erweitern. Fragt sich halt nur was z.b ein Refresh von 10GB Daten 120x die Sekunde an Bandbreite braucht. Ob das überhaupt praktikabel ist. Nicht das der Refresh schon so viel Bandbreite/Leistung braucht, das für das ursprüngliche Programm nix mehr an Graka-Leistung übrig bleibt.

Ah. Vielen Dank erst mal. (y)

Aus dem Thread heraus lese ich erst mal:

Das Tool macht was es soll!

Und nun zu den Einschränkungen:
" Man kann die Ergebnisse mit dem Tool allerdings nicht 1:1 in die Realität übersetzen... Wenn man einen Teil des Grafikspeichers belegt "denken" die Spiele trotzdem, dieser wäre noch frei und belegen den GPU-Speicher auch, als stünde dieser voll zur Verfügung (wenn der dann zu knapp wird, nutzen die Spiele den Hauptspeicher des Systems). "

Okay. Es gibt so blöde Entwickler, die lesen immer den Gesamtspeicher einer Grafikkarte aus, anstatt den freien verfügbaren Speicher. Das führt zu dem gewünschten Ruckeln, zeigt aber unter Umständen nur an, dass das Vorladen von Texturen übertrieben wurde.

Ist die Frage, ob das Allgemein so stümperhaft umgesetzt ist.

Sollte ein Refresh notwendig sein, könnte man ja einen einfachen Fill Befehl absetzen. Der sollte wenig Gesamtperformance kosten. Wir suchen ja Spikes oder schlechtere Texturen. Die FPS sind dabei nicht relevant. Wobei ich den verlinkten Thread so verstehe, das das System an sich funktioniert. Das untermauert für mich auch die Aussage von NV:

"WHen the CUDA kernel is running, the WDDM memory manager will ensure that the needed allocations are physically resident in GPU memory, not "swapped out" to system memory, which is used as a backing store.
However, when a CUDA kernel is running in a WDDM environment, many other GPU activities (including display updates) are "frozen" until the kernel completes.
"

Gruß Thomas
 
Nochmal zur Gigabyte, anscheinend hat auch die Eagle das Steckerproblem. Meine geht nach ebay, glaube nicht das Gigabyte da etwas auf Kulanz macht:
Unglaublich diese Kontaktstifte da sieht einer anders aus als der andere und alle Beweglich wie der gute alte 5 1/4 Stromanschluss.
 

Anhänge

  • s-l1600.jpg
    s-l1600.jpg
    112 KB · Aufrufe: 131
Betreibt hier eine seine Ampere mit einem Riser Kabel?
 
HisN was ist das für ein Overlay?
 
Ja, ich. Siehe Bild weiter oben.

Was genau ist das für ein Kabel bzw. wie lang? Denke PCIe 3.0 oder?

Bekomm nämlich die Ampere nicht ohne Wakü-Block in Rechner, deshalb brauch ich ne Übergangslösung ^^
 
da ist das Ding :love:

jetzt fehlt nur noch die 3090....

reterwtwerd1jru.jpg
 
Hey mal eine Frage. Habe die 3080 FE und da ist der Boost ja 1710 MHz. Bei mir geht sie unter Last aber auch gerne mal bis 1995 MHz hoch. Ist das normal? Im Anhang mal ein Bild mit 1860 MHz.
 

Anhänge

  • 1860.jpg
    1860.jpg
    114,1 KB · Aufrufe: 104
Zuletzt bearbeitet:
Heute das kostenlose MicroFit Kabel von seasonic erhalten. Haben die erst Freitag per DHL Express aus Taiwan geschickt. 👍
Wie lange gilt eig. die Aktion?
Und Rechnung der Graka muss man nachweisen, richtig?
Beitrag automatisch zusammengeführt:

Nochmal zur Gigabyte, anscheinend hat auch die Eagle das Steckerproblem. Meine geht nach ebay, glaube nicht das Gigabyte da etwas auf Kulanz macht:
Unglaublich diese Kontaktstifte da sieht einer anders aus als der andere und alle Beweglich wie der gute alte 5 1/4 Stromanschluss.
Genau der Mist, den 8auer auch hatte
 
Zuletzt bearbeitet:
HisN was ist das für ein Overlay?

In der Regel der Afterburner. Hotwo in meiner Signatur unter Beobachte.

Hey mal eine Frage. Habe die 3080 FE und da ist der Boost ja 1710 MHz. Bei mir geht sie unter Last aber auch gerne mal bis 1995 MHz hoch. Ist das normal? Im Anhang mal ein Bild mit 1860 MHz.


Ganz normal. Ohne Last geht meine bis 2070Mhz hoch.
Je höher der Takt unter Last, desto weniger Anspruchsvoll ist die Aufgabe, die Deine Graka gerade erledigen muss. Denn am Ende ist es immer das Powertarget, dass den Takt begrenzt.
 
Zuletzt bearbeitet:
Hey mal eine Frage. Habe die 3080 FE und da ist der Boost ja 1710 MHz. Bei mir geht sie unter Last aber auch gerne mal bis 1995 MHz hoch. Ist das normal? Im Anhang mal ein Bild mit 1860 MHz.

Wieso sollte das nicht normal sein oder ist das deine erste GPU?
 
Solange nix abschmiert interessieren die Berichte nicht^^
 
wasn issn das fürn Crap?

der Treiber is ja broken as fuck?

For Honor (Steam) starten und nach Loadingscreen Crash > kein Treiber Crash, Game einfach zu
Shadow of the Tombraider > sobald DLSS aktiviert > Freeze (ganzes System)
F1 2019 > jeder Start des Games > Crash


das Windows ist 2 Wochen alt und der Treiber fresh/clean whatever

Metro Exodus macht er jeden 2. Start kein DLSS an, bzw forciert es AUS

ich kann die Hälfte meiner Benches von der 2080ti zum Vergleich nicht starten
 
Hey mal eine Frage. Habe die 3080 FE und da ist der Boost ja 1710 MHz. Bei mir geht sie unter Last aber auch gerne mal bis 1995 MHz hoch. Ist das normal? Im Anhang mal ein Bild mit 1860 MHz.
Nvidias Angabe zum Boosttakt hat leider garnichts mehr mit dem real in Games anliegenden Takt zu tun, der ist sehr viel höher, schwankt aber stark nach Kühler, Game und sogar Szene, so dass es recht schwer ist, dazu eine Angabe zu machen.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh