[Sammelthread] Nvidia Ampere [Sammelthread]

1598982562526.png



Varianten:
  • 3090
    • Cuda-Kerne10496
      Speichermenge24GB GDDR6X
      Breite der Speicherschnittstelle384-bit
      Basis/Boost-Takt1.4/1.7Ghz
  • 3080
    • Cuda-Kerne8704
      Speichermenge10GB GDDR6X
      Breite der Speicherschnittstelle320-bit
      Basis/Boost-Takt1.44/1.71Ghz
  • 3070
    • Cuda-Kerne5888
      Speichermenge8GB GDDR6
      Breite der Speicherschnittstelle256-bit
      Basis/Boost-Takt1.5/1.73Ghz

Nvflash für Ampere





Achtung Wasserkühler: Die Founders sind diesmal nicht Referenz-PCB.
This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.

Overclock.net pflegt eine Liste um Referenz von Custom-PCBs zu trennen. Die Informationen dort bitte unter Vorbehalt genießen.



Schneller Weg wie man UV mit dem Kurve-Editor betreibt:

https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27788642 bzw. https://www.hardwareluxx.de/community/threads/nvidia-ampere-sammelthread.1275880/post-27789066


Dickstes Bios für die Karten mit zwei Anschlüssen bei den 3090ern zur Zeit das Gigabyte Gamer OC 390W
Crossflash zwischen Referenzboards ist möglich. Allerdings werden, dank der unterschiedlichen Graka-Ausgänge gleich mal ein oder zwei DP-Ports nicht mehr benutzbar.
Man kann natürlich auch ein Bios einer 3-Anschluss-Karte auf eine Karte mit zwei Anschlüssen flaschen, bringt aber nix, weil die Karte nun mal keinen Strom über den fehlenden dritten Anschluss aufnehmen kann.
 
Zuletzt bearbeitet:
so ist es. Meiner Meinung nach gibt es CoD nur ab der 3080.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Unter Luft gar nix.
Ich meine man kann natürlich alles mögliche, ich würde es aber nicht machen.
Ich hab über HWINFO die Temperatur Sensoren vom Ram der FTW Ultra eingebunden .
Ingame komme ich Max auf 64 C da sollte doch noch Luft sein für bissel OC???
Beitrag automatisch zusammengeführt:

Hallo, kann mir jemand sagen, woher ich weiß, was ich aktiviere wenn ich den Code von Notebooksbilliger in Geforce Experience eingebe? Es müsste ja COD sein, aber es steht nirgenwo was bei. Bei meiner 3070 hab ich nun doch einen Code bekommen.
Hab meine COD Code heute auch eingelöst man sollte sich auch bei Batle.net anmelden dann!
 
Ich hab über HWINFO die Temperatur Sensoren vom Ram der FTW Ultra eingebunden .
Ingame komme ich Max auf 64 C da sollte doch noch Luft sein für bissel OC???
Beitrag automatisch zusammengeführt:


Hab meine COD Code heute auch eingelöst man sollte sich auch bei Batle.net anmelden dann!
Hast du denn auch eine 3070 gekauft oder eine 80 oder 90?
 
Hier mal ein kleiner Vergleich für Wasserkühler für die 3080Tuf.

Alphacool 145-150L sehr restriktiv, Ek Vector hat 186-189L , die Kühlleistung ist bei gleichen!!! Durchfluß ca. gleich Delta in etwa 13Grad@ 425W bei 200L, ich würde fast sagen vielleicht ist der EK nen Hauch besser 0,5Grad oder gleich.Der EK Kühler hat Out of the Box gepasst, auch die Speicherpad´s haben kontakt.
Beim Alphacool war kein Kontakt zu den Speicherpad´s, es haben 0,5mm gefehlt.
2.jpg


1.jpg
 
Zuletzt bearbeitet:
Hello!

Ich habe mit meiner Zotac 3080 Trinity (kein OC) Probleme mit dem HDR-Output und verzweifle langsam. Wenn ich sie über ein HDMI 2.0a-Kabel mit meinem LG C9 verbinde (HDMI 2.1-Eingang) und im Spiel oder auch schon im Desktop-Betrieb auf HDR schalte, verliert das Fernsehgerät komplett das Signal. Mit meiner 2080Ti lief es reibungslos. Noch seltsamer: Nach wilder Rumprobiererei, also Rechner- und TV-Neustart, klappt es manchmal und das Game startet korrekt im HDR-Modus. Schalte ich dann in-game HDR aus und wieder ein, könnte es wieder zum Signalverlust kommen. Es ist also irgendwie möglich, HDR über diese Konfiguration zu betreiben, aber ständig verliere ich das Signal, sobald ich auf gewöhnlichem Weg HDR einschalte. Es ist also mehr oder weniger Glückssache.

Auch seltsam: Aktiviere ich HDR auf meinem Main-Monitor, einem Acer Nitro XV3 (über DisplayPort), ist das Bild deutlich ungesättigter als ohne HDR, geradezu blass und gräulich. Obwohl auch dieser Monitor einen sehr großen Farbraum abdeckt und im Normalbetrieb schon knackige Farben liefert. HDR-Modus ist jedoch mit der Zotac 3080 völlig unbrauchbar.

Was ist denn hier los? Hardwarefehler der Grafikkarte?

Nachtrag: Gelegentlich gibt es auch Unregelmäßigkeiten unter Win10, meistens dann, wenn in einem Tab Videos laufen. Dann wird für den Bruchteil einer Sekunde das Monitorbild komplett schwarz und anschließend sind schwarze Flächen dort, wo vorher Videos abgespielt worden sind (videocrash). Das ist jedoch eher selten.
 
Zuletzt bearbeitet:
Also eins weis ich die nächste Karte im Step up wird auch ne FTW.
 
HDR ist am Desktop völlig unbrauchbar, das hat nix mit der Fähigkeit der Graka zu tun. Im Game oder im Film gibt sich das dann wieder, aber außerhalb...
 
so, hab jetzt noch mal Precisicion X installiert, um das Quiet Lüfterprofil zu nutzen.
Wenn die 3070 gefordert wird, dann hört man die doch schon ganz gut, obwohl das nicht nötig ist. Mit dem quiet Profil ist es dann nur noch ein leichtes Rauschen, GPU Temp um die 80°, aber das ist ja noch ok.
 
ähm, ich hab da Control gezockt. Die Karte hatte gut zu tun und hat ihre 220W gesaugt. Denke, da sind die 80° schon ok. Sonst, bei weniger anspruchsvollen Spielen ist die Temp auch deutlich niedriger.
Wie meine Gehäusebelüftung ist, solltest eig. wissen. ;)
Und eine Tuf mit einer XC3 zu vergleichen... ist auch nicht so..^^
Die XC3 ist eine 2Slot Karte. Der Kühler entsprechend auch.
 
das Stepup auf die 3080 FTW läuft aber ^^

warum? Neugierde. EVGA, Rechnung auf meinen Namen, mit der 3080 dann 5 Jahre Garantie... reicht das? :d
 
Eben auf die aktive BP umgebaut:





Die Karte wirkt irgendwie zu klein im Case, oder ich muss mich noch dran gewöhnen. 😕
Strix@Luft ist gefühlt doppelt so groß.

20201204_191553.jpg
 
Es kommt ja nicht auf die größe an ;-)
 
Zeigt nur wieviel Material unter Luft notwendig ist für solche Monsterverbräuche!
Wobei das pcb der Strix auchschon riesig is. Der Kühler is Vlt 5-7cm länger als das pcb. Höhe is exakt gleich. Und dabei is das relativ voll :O

Ich musste daher inlet und outlet für die externe wakü umbauen :ugly:
 
Zuletzt bearbeitet:
Hallo

Hab eine Frage bzw. Verständnisproblem:

Meine Karte hat laut Spezifikation 1‎845 MHz. GPU-Z zeigt unter Last (Cyberpunk) 2070 MHz an und HWiNFO 2040-2100MHz.
Wie muss man diese +14% deuten?

rtx3080.gif
 
Ja bis zu 2100MHz. Zocke in 2k (1440p).
Edit: Innerhalb von Gebäuden laut hwinfo 2055MHz aktuell.
RTX alles an und auf Psycho
 
Ja bis zu 2100MHz. Zocke in 2k (1440p).
Edit: Innerhalb von Gebäuden laut hwinfo 2055MHz aktuell.
RTX alles an und auf Psycho
Ja dann hast du einen guten boost . Komme in 4K nur auf 1995 und da muss ich schon 480watt reinhauen
 
Hallo

Hab eine Frage bzw. Verständnisproblem:

Meine Karte hat laut Spezifikation 1‎845 MHz. GPU-Z zeigt unter Last (Cyberpunk) 2070 MHz an und HWiNFO 2040-2100MHz.
Wie muss man diese +14% deuten?

Gar nicht.
Wie schon sehr oft erklärt, ist das ein Mindestwert, der von den Herstellern angegeben wird.
Dir ist schon klar was passieren würde, wenn sie 2100 auf die Packung schreiben, die Karte aber nur 2040 takten würde.
Noch nie drüber nachgedacht was das in den Gehirnen der Kunden auslösen würde? Ich meine hier kloppen sich die User um 15Mhz.
 
Zuletzt bearbeitet:

Das wäre enttäuschend wenig Vorteil der 3080ti gegenüber der 3080. Bei gleichen Cuda cores wie die 3090 nur 3% vor der 3080, aber über 10% hinter der 3090.

Entweder wohl durch die kleinere speicherbandbreite im vgl zur 3090 limitiert, oder niedrigerer takt, da gleiche tgp wie die 3080 für mehr cores und Speicher...

Hab aber die Hoffnung, dass aib Modelle wie die Strix mit mehr Strom da mehr rausholen können...

Ansonsten lohnt das Upgrade bzw der Aufpreis über die 3080 wirklich nur, wenn einem der vram ausgeht. Hatte da eher gehofft, dass sie eher 2-5% hinter der 3090 und 5-10% vor der 3080 liegt...
 
viel Luft zwischen der 3080 und der 3090 is ja auch nicht.
Schade, dass das Kürzel Ti (in meinen Augen!) an Bedeutung verliert. 3060 Ti, 3070 Ti 3080 Ti... was soll das?
 
Klar, viel Luft ist, aber ich hätte erwartet, dass die Karte näher an der 90 als an der 80 is... So wäre es n 300+ Aufpreis fast nur für mehr vram. Das ist es seltenst wert. Wundert mich etwas, dass nvidia dafür den dicken Chip raushaut, der ja doch schlechtere yields haben dürfte als der 68sm 3080 Chip.

Denke ja nich, dass die Speicheranbindung den Chip teuer/komplex macht, das sind schon die sm. Die Anbindung wird nur zur segmentierung genutzt.

Da hätten sie direkt den 3080 Chip nehmen können, und dafür dann 799 oder 899€
 
Zuletzt bearbeitet:
Hab mir gerade so eine 3080 ftw ultra bestellt.
Nur mein altes 650er Netzteil dürfte knapp werden. In welchem Bereich läuft die Karte mit leichtem OC/UV. Muss eh warten bist es einen GPU Block gibt.
Der Preis ist zwar irre, aber da es auf der Roten Seite auch nichts gibt und die Radeon VII in Cyberpunk abkackt, gab es nicht viele Optionen.
 
Hab mir gerade so eine 3080 ftw ultra bestellt.
Nur mein altes 650er Netzteil dürfte knapp werden. In welchem Bereich läuft die Karte mit leichtem OC/UV. Muss eh warten bist es einen GPU Block gibt.
Der Preis ist zwar irre, aber da es auf der Roten Seite auch nichts gibt und die Radeon VII in Cyberpunk abkackt, gab es nicht viele Optionen.
Mit etwas (5%, ~1800Mhz) Leistungsverlust gehen 250W ganz gut, meine Strix bekomm ich quasi ohne Leistungsverlust auf 300W statt 370. Hängt aber auch immer vom jeweiligen Chip ab, musst du daher ausloten
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh