[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
Mal kurzes Statement hier, was ich schon im Kondensator Thread geschrieben habe:

Also selbst mit DDU Säuberung der alten Treiber, andere Buchsen am 860Watt NT und einfach nur Standard belassen der GPU habe ich CTDs in 3DMark Firestrike und Hitman 2 (das nehme ich zum testen da ich noch die Submissionen erfüllen möchte). Die Karte läuft hier ca. bei 1850-1875 Mhz, also WEIT entfernt von 2 Ghz. Wenn ich nun einen Offset von 50 MHz setze, läuft es ohne CTD.

Jetzt weiterhin meine Frage: behalte ich das Ding oder return to Alternate. In den 14 Tagen bin ich, die Karte hat definitiv Probleme selbst auf Standard Spannung/Takt ordentlich zu funktionieren und das an einem auf jeden Fall ausreichenden Netzteil mit 71.6 A auf der 12V Schiene. Der Ryzen läuft ohne OC, ohne PBO völlig Stock, ebenso die RAMs mit Standard XMP Profil.

Nervt mich derbe an..

-> jemand zufälligerweise hier unterwegs auch mit solch Problem? Lösungsvorschläge oder Ideen bevor ich das Ding nachher ausbaue und an Alternate retouniere und halt paar Wochen/Monate den PC vergammeln lasse? :(
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal kurzes Statement hier, was ich schon im Kondensator Thread geschrieben habe:


Jetzt weiterhin meine Frage: behalte ich das Ding oder return to Alternate. In den 14 Tagen bin ich, die Karte hat definitiv Probleme selbst auf Standard Spannung/Takt ordentlich zu funktioniere

Nervt mich derbe an..

-> jemand zufälligerweise hier unterwegs auch mit solch Problem? Lösungsvorschläge oder Ideen bevor ich das Ding nachher ausbaue und an Alternate retouniere und halt paar Wochen/Monate den PC vergammeln lasse? :(

Schau Mal igors YouTube Channel die letzten beiden Videos an. Da bekommst du deine Antwort.
 
Also habe ich leider einen Kartoffel-Chip erwischt. Dann sollte der Kartoffel-Chip aber mit etwas mehr Power Target oder Spannung ggfs auch manch Taktrate stemmen. Aber wenn der Kartoffel-Chip selbst bei Standard Takt ab Werk schon keine Lust hat, dann sollte er Return to Sender.
 
Gibt genug posts von mir und anderen die letzten seiten, ich such nicht für jeden ders nicht sehen will alles wieder neu raus sorry..
Ich kauf mir eh ne 3090, kauft was ihr wollt und redet euch ein das alles toll ist, hauptsache glücklich..

Denkst du ich lese mir jetzt 130 Seiten durch, auf denen du pro Seite 3x postest? Ich habe wenig Lust hier rumzudiskutieren, Fakt ist nun mal die 10GB reichen heute noch für alle Games.. der normale usecase ist nun mal kein DSR auf 128K. Mit DLSS und der höheren Bandbreite von GDDR6X wird z.B weniger Mem gebraucht als vorher.. Dazu hatte ich einige Tests erwähnt, keiner davon sagt, dass man mit 10GB überall am Limit ist. Und mit schönreden hat das relativ wenig zu tun, da ich noch nichtmal ne 3080 habe.

Da man ja offensichtlich nur schwer bis gar nicht bestimmen kann wie viel Mem ein Game braucht macht es die Sache auch nicht einfacher. Im Zweifelsfall wird dann die Mem "allocation" von Win abgezogen und dem Spiel zugewiesen..
 
Ich hoffe ja das bald meine Gigabyte Eagle OC bei Alternate eintifft und an mich versendet werden kann.
Das ganze POSCAP/MLLC Gedöns is mir wayne. geht dann halt ned über 2000Mhz die 30XX Serie..... 1950Mhz sind ja sooooo viel langsamer..... 2 FPS vielleicht.... Woah Weltuntergang!!!
Und 60FPS @ 4K reizen mich null da mein WQHD 165HZ Monitor teuer genug war und ich leiber hohe smoothe FPS haben will.
Und wenn mich das 699€ kostet bin ich zufrieden.... Trotzdem werde ich natürlich schauen was mit der Karte geht, wenn ich sie den mal bald in den Händen halten darf :fresse:
 
so wayne ist das nicht, hier geht es auch nicht um User OC sondern um Werks OC, Werks OC ist nicht wie XMP Speicher sondern Werks OC Karten MÜSSEN stabil laufen.
Die meisten Karten sind sehr hoch übertaktet diesmal und Takten daher Stock schon auf über 2GHz, auch wenns nur für ein kleinen moment ist.
Und genau da liegt das Problem, wenn du nen schlechten Chip erwischt hast und bad Caps läuft deine Karte nicht stabil.
Die meisten Karten laufen trotz bad Caps aber stabil, einen Medium/High-ASIC Chip machen die vermeintlich falschen Bauteile nichts aus.
Sondern nur die Karten mit low-ASIC brauchen die besseren Bauteile damit sie stabil laufen.

Wenn ich eine Grafikkarte kaufe muss sie 100%tig stabil laufen, tut sie das nicht wird sie Reklamiert.
Wegen der schlechten Verfügbarkeit, falls ich so eine Karte besitzen würde, würde ich Erstmal -50MHz Untertakten und dann bei besserer Verfügbarkeit reklamieren um sofort Austausch zu bekommen.
Demnach ist das auch kein Welt Untergang wie hier oft so getan wird.

50MHz sind in der Ampere Generation sogar nicht mal mehr 2FPS, daher kanns ich auch nicht verstehen warum es ausgerechnet diesmal extrem viele Werks OC Modelle gibt die so hoch übertaktet worden sind.
 
Zuletzt bearbeitet:
Karte muss out of the box rennen wie sie soll. Wenn nicht, retour!

Wenn OC kagge ist, ist das halt pech
 
"Bad Caps" lol, ich fühle mich gerade in die Sockel A Zeiten zurückversetzt...
 
...
Wenn ich eine Grafikkarte kaufe muss sie 100%tig stabil laufen, tut sie das nicht wird sie Reklamiert.
Wegen der schlechten Verfügbarkeit, falls ich so eine Karte besitzen würde, würde ich Erstmal -50MHz Untertakten und dann bei besserer Verfügbarkeit reklamieren um sofort Austausch zu bekommen.
Demnach ist das auch kein Welt Untergang wie hier oft so getan wird.

50MHz sind in der Ampere Generation sogar nicht mal mehr 2FPS, daher kanns ich auch nicht verstehen warum es ausgerechnet diesmal extrem viele Werks OC Modelle gibt die so hoch übertaktet worden sind.

Genau das überlege ich gerade. Behalten, warten bis der Sturm etwas vorbei ist, bei Händler oder MSI reklamieren und schauen was passiert.
 
Fakt ist das mitnichten, aber wenn du das glauben willst nurzu..

Gerade mal BFV angeworfen und der Radeon Monitor zeigt 10.6gbyte vram in use an.
Jo, die Karte kann kein DLSS. Das scheint ja bei NVIDIA jetzt das Allheilmittel zu werden :)
Ist ja auch ein guter Ansatz wie es scheint.
 
Belegen ist nicht brauchen🙄 wie oft Denn noch. Müsstest jetzt ne 2080 super nehmen und gucken wie die frametimes aussehen ;)
 
Gerade mal BFV angeworfen und der Radeon Monitor zeigt 10.6gbyte vram in use an.
Jo, die Karte kann kein DLSS. Das scheint ja bei NVIDIA jetzt das Allheilmittel zu werden :)
Ist ja auch ein guter Ansatz wie es scheint.
MSI Afterburner zeigt mir 7,2GB usage in BFV. Is halt komplexer das Thema und nicht der Tankfüllstand im Auto. Weckt mich, wenn die ersten Titel ruckeln oder schlimm aussehen wenn 10 Gigabyte überlaufen. Und nicht weil ein bekannter eines bekannten der in 8K Zockt Skyrim voll gemoddet hat und deshalb über 20 Gigabyte VRAM für seine 16k Texturen braucht. Das RAM usage nicht gleich RAM usage ist, kennen wir doch schon seit Windows Vista oder vom Menschen die 500 Chrome Tabs gleichzeitig auf haben müssen.
 
MSI Afterburner zeigt mir 7,2GB usage in BFV. Is halt komplexer das Thema und nicht der Tankfüllstand im Auto. Weckt mich, wenn die ersten Titel ruckeln oder schlimm aussehen wenn 10 Gigabyte überlaufen. Und nicht weil ein bekannter eines bekannten der in 8K Zockt Skyrim voll gemoddet hat und deshalb über 20 Gigabyte VRAM für seine 16k Texturen braucht. Das RAM usage nicht gleich RAM usage ist, kennen wir doch schon seit Windows Vista oder vom Menschen die 500 Chrome Tabs gleichzeitig auf haben müssen.

Ich denke der zeigt bei dir 7.2 und nutzt auch weniger weil er weniger zur Verfügung hat. Anderes Management. Die Radeon7 hat bisl mehr und BFV packt sich dann halt noch was in den VRAM. OB es gut ist oder schlecht, dass ist schwierig zu sagen. Ich denke solange man nicht wie bei der Fury mit 4Gb einfach richtig im Limit hängt ist es sicherlich Wurst und Ampere kann ja noch DLSS :)
 
Ich denke der zeigt bei dir 7.2 und nutzt auch weniger weil er weniger zur Verfügung hat. Anderes Management. Die Radeon7 hat bisl mehr und BFV packt sich dann halt noch was in den VRAM. OB es gut ist oder schlecht, dass ist schwierig zu sagen. Ich denke solange man nicht wie bei der Fury mit 4Gb einfach richtig im Limit hängt ist es sicherlich Wurst und Ampere kann ja noch DLSS :)
Jau, genau. Wie windows halt mit dem SystemRAM. Hast 128GB, dann denkt sich das OS auch gerne mal "Och ich nehme mal 20 GB zum cachen". Heißt aber nicht, dass ein OS mit 8 oder 16 GB RAM nicht sauber läuft. Ich selber spiele (noch) keinen Titel der am Anschlag herumkrebst. Kann gut sein, dass Morgen schon Spiele kommen die das tun, oder es auch jetzt schon welche gibt, die ich allerdings nicht spiele zur Zeit.

Spiele auch "nur" in 3440*1440. Mit 4k ist die VRAM allocation natürlich höher, aber das zeigt ja auch wieder die Vielschichtigkeit der Thematik. ne 20GB RTX3080 (zum gleichen Preis) hätte ich natürlich lieber gehabt, aber gibts halt gerade nicht :d. DLSS gibts da leider wenig für die Auflösung. Der ein oder andere "Experte" wird sich sicher noch mal mit der Thematik beschäftigen. Spätestens wenn die ersten NextGen Konsolentitel als PC Port kommen, oder weine 3080/70 mit den 2GB Chips kommen.
 
Meine Palit Gaming Pro OC ist angekommen.
Boostet ohne das ich was mach kurz auf 2050 bevor der Takt abschmiert.
Karte schmiert nicht ab (bis jetzt jedenfalls), ich kann dank Backplate nicht sehen welche Caps hinten verbaut sind.

Und jetzt schnell ein Wasserkühler bitte. Der Fön neben mir ist nicht auszuhalten.
Ich versteh echt die Luftkühler nicht. Perverses Geräusch wenn man die Karte kühl haben möchte, oder die Karte wird arschheiß wenn man das Geräusch nicht möchte. Voll umsonst.

Bei mir gingen die Stecker in die Karte, als hätte ich sie vorher eingefettet. Widerstandslos bis zum klick.
Bin ich der Einzige, der alle Karten (egal welche Marke) nicht ästhetisch perfekt finden? :rolleyes2:
In CB hatte ich einen „Design-Vorschlag“ gepostet und mir wurde unterstellt, ich würde den Aufbau der Karte nicht verstehen.
Aber es ist eher so, dass die nicht wissen, was ich mir vorstelle (obwohl es eindeutig da stand)
 
hihi

CPU-Limit in 4K (nativ, ohne DLSS) bei Death Stranding.
Ich sehe schon wieder die OHGOTTOHGOTT Schnappatmung bei einigen einsetzen.
Und da soll mal wieder jemand sagen das es keine Spiele gibt, die viele Kerne nutzen.

ds_2020_09_27_22_30_54_741.jpg


Same in Control, kann man ja glatt ohne DLSS zocken jetzt^^ (hier ist es an).

Control_DX12_2020_09_27_23_13_19_673.jpg
 
Zuletzt bearbeitet:
Wie sieht’s eigentlich mit deinem idle-Problem aus?
Liegts am MB oder an der CPU?
Würde mir kein Ruhe lassen...
 
Da ich mich da zur Zeit nicht drum kümmere, bleibt das bestehen.
Ich würde auf eine Kombination aus beiden tippen.
Aber ich finde nicht die Zeit um mich wirklich darum zu kümmern.
 
Es gibt ein Tool names „Special K“ . Das zeigt in einem Overlay an wieviel Ram wirklich genutzt wird und nicht nur reserviert.

Wie soll das funktionieren? Nur das Programm selber weiß, welchen Teil des VRAM es jetzt, höchstwahrscheinlich gleich, oder erst später braucht.
Ich kenne nur einen aussagekräftigen Ansatz -- den Vram künstlich so lange begrenzen, bis die Frametimes Spiken.
 
Warum nicht? Bitte um Erklärung oder Link. (y) (y) (y)
Beitrag automatisch zusammengeführt:

Selbst wenn der VRam im aktiven Vollscreen window beim hin und herrschalten geswappt werden sollte, würde ein Window auf einem separaten Monitor immer tatsächlich allokierten VRam auch belegen.
 
Zuletzt bearbeitet:
Warum can eine Graka nicht RAM Slots haben, wie nen Mobo, zum selber Aufrüsten? :o
 
Gab es früher, siehe z.B. Matrox Mystique :fresse2:
 

Digitale Phasen Controller wie bei der Kingpin :fresse2:
 
Warum nicht? Bitte um Erklärung oder Link. (y) (y) (y)
Beitrag automatisch zusammengeführt:

Selbst wenn der VRam im aktiven Vollscreen window beim hin und herrschalten geswappt werden sollte, würde ein Window auf einem separaten Monitor immer tatsächlich allokierten VRam auch belegen.
VRAM funktioniert genau so wie RAM von der Speicherverwaltung her.
Wenn ich 20GB Müll ins VRAM schreibe, dann Ruckelt es zum Spielstart kurz, Windows lagert den Müll im RAM und die Spieldaten haben ihren Platz im VRAM. Und einen Weg Windows zu sagen: Diese 20GB Karte hat nur 8GB scheint noch niemand gefunden zu haben.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh