[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
ich habe gerade noch einmal das Speicherthema angeschaut und das skalliert so bis ca. +950 in Timespy.
die 950mv sind bei mir auch ganz gut und gehen so bis 2040-2080 in cyberpunk.

teste mal Superposition 4k extreme, bitte.
Das mache ich nun auch noch.

Gesagt getan. Das gleiche Ergebnis wie in Timespy. +1400 läuft bei mir am besten.

4k_2010_+1400.JPG


MemorySuperposition 4k Score
+50015496
+130015687
+140015728
+150015715
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@mgr R.O.G. Während dem Zocken sollten Speicherzugriffe auf SSDs sehr minimal sein. Meine m.2 schläft beim Zocken die meiste Zeit.
Zum Beispiel schonmal StarCitizen gezockt mit Ampere? ;)
Geht ja nicht nur um Zugriffe, sondern die generelle (Ausgangs)Temperatur. Wenn deine M.2 durch die enorme Abwärme von Ampere bereits mit 65°C rumdümpelt und dann zupacken muss, hat sie vielleicht ganz schnell die Throttletemp erreicht.
KA, nur eine Vermutung meinerseits.
 
Kurze Zugriffe sollten die Kühlkörper eigentlich ohne Probleme abfedernn können. Aber gut, bin halt auch nur mit externer Wakü unterwegs - m.2s kennen nicht mehr als 50 Grad ;)
 
@Thrawn. und @andi0138

Auch wenn das schon öfter vorgeschlagen wurde, versucht es einfach mal! Raus mit all euren M.2 NVMe SSDs!
Zu Testzwecken nur mal eine normale SATA-SSD ONLY mit Win + den Problemgames drauf. Oder noch besser 1x SATA-SSD nur Win drauf machen und eine 2. SATA-SSD mit nur den "Problemgames"!

Beides mit Wakü wohlgemerkt. Möchte nicht wissen, wie eure NVMe M.2 SSD(s) ins schwitzen kommen wenn die 3090 ihre Abwärme/Luft im Gehäuse munter u.a. auf die M.2 verteilt!
Vielleicht wird dann irgendeine so heiss, da sie richtig weit runter throttlen muss und zack gibts den "Ruckelkram"!?
Hm... :unsure:
Wakü-Blöcke für unsere M.2 einbauen? :ROFLMAO:
Beitrag automatisch zusammengeführt:

Zum Beispiel schonmal StarCitizen gezockt mit Ampere? ;)
Geht ja nicht nur um Zugriffe, sondern die generelle (Ausgangs)Temperatur. Wenn deine M.2 durch die enorme Abwärme von Ampere bereits mit 65°C rumdümpelt und dann zupacken muss, hat sie vielleicht ganz schnell die Throttletemp erreicht.
KA, nur eine Vermutung meinerseits.
Könnte man ja leicht überprüfen/provozieren...
Wenn die M.2 zb 50°C hat, diese dann mit nem Fön auf 70°C bringen. Betrifft aber hoffentlich nur Luft-Karten. Aber wenn die BP, wie in #12.239 genauso heiss wird und darüber eine M.2 werkelt...? :oops:
Ach Mist, ich brauche den "kryographics" mit aktiver BP, dann wäre hoffentlich Ruhe. Passive BPs stellen mich nicht zufrieden, wenn das die Verursacher für Ruckler sind :rolleyes2:

Kennt zufällig jmd einen, der diese Kombi hat? Mich würde interessieren, wie warm die aktive BP noch wird
Beitrag automatisch zusammengeführt:

Ja, schaut so aus. Diesmal ist die BP ja nicht nur wegen der Optik dran, sondern sie soll halt auch Wärme aufsammeln und abgeben.
Kein Witz: Wakühler rauf auf die BP oder halt Kühlflächenvergrößerer (so wie das Teil von Amazon^^) wäre keine schlechte Idee^^.
Ich hätte noch 4x dieser massiven Kupferblöcke vom "SilentStar HD Dual". Sähe dann aber echt sch... aus :cry:
!behind.jpg
 
Zuletzt bearbeitet:
@Thrawn. und @andi0138

Auch wenn das schon öfter vorgeschlagen wurde, versucht es einfach mal! Raus mit all euren M.2 NVMe SSDs!
Zu Testzwecken nur mal eine normale SATA-SSD ONLY mit Win + den Problemgames drauf. Oder noch besser 1x SATA-SSD nur Win drauf machen und eine 2. SATA-SSD mit nur den "Problemgames"!

Ich bin nämlich bei meinem Durchflusstest über die Temperatur meiner "NVMe - M.2 MP600" gestolpert. Hier guckt selber:
mit 1080Ti:


mit 3090:


Beides mit Wakü wohlgemerkt. Möchte nicht wissen, wie eure NVMe M.2 SSD(s) ins schwitzen kommen wenn die 3090 ihre Abwärme/Luft im Gehäuse munter u.a. auf die M.2 verteilt!
Vielleicht wird dann irgendeine so heiss, da sie richtig weit runter throttlen muss und zack gibts den "Ruckelkram"!?

Du aber das macht 0 Sinn, selbst wenn Sei throtteln würden, wären Sei immernoch schneller als jede Sata SSD..
Das sie nicht throtteln ist dank Passivkühlern und sehr guter Casebelüftung gesichert.

Werde das natürlich trotzdem mal überprüfen, die SSD Temp kann ich im AB Overlay anzeigen lassen wies aussieht ?
Wenn da was zu hoch sein sollte optimier ichs.

Ganz ehrlich, hab die Schnauze voll, bau da nixmehr um und gucke, das Thema ist für mich beendet (ich weiss war gut gemeint).

PS: Was isn das für Bench ? Dein CPU Takt geht ja ganz schön in die Knie.. ? EVtl ma Powerlimit im Bios erhöhen ?
 
@Thrawn. und @andi0138

Auch wenn das schon öfter vorgeschlagen wurde, versucht es einfach mal! Raus mit all euren M.2 NVMe SSDs!
Zu Testzwecken nur mal eine normale SATA-SSD ONLY mit Win + den Problemgames drauf. Oder noch besser 1x SATA-SSD nur Win drauf machen und eine 2. SATA-SSD mit nur den "Problemgames"!

Ich bin nämlich bei meinem Durchflusstest über die Temperatur meiner "NVMe - M.2 MP600" gestolpert. Hier guckt selber:
mit 1080Ti:


mit 3090:


Beides mit Wakü wohlgemerkt. Möchte nicht wissen, wie eure NVMe M.2 SSD(s) ins schwitzen kommen wenn die 3090 ihre Abwärme/Luft im Gehäuse munter u.a. auf die M.2 verteilt!
Vielleicht wird dann irgendeine so heiss, da sie richtig weit runter throttlen muss und zack gibts den "Ruckelkram"!?
da könnte was dran sein. Wenn ich mich recht erinnere haben bei meiner 2080 ti die Ruckler aufgehört als ich auf wasser umgestiegen bin, hatte jedoch nie eine zu heisse m2 SSD in Verdacht und war damals einfach froh dass die Ruckler weg waren
 
Heaven habe ich schon vermutet, aber war mir nicht ganz sicher. Bildausschnitte waren schon verdammt klein. Ich vermutete auch dads es einfach ein Kombibench war der beides auslastet bzw. wollte einfach Klarheit.
Nicht destotrotz läuft der Ryzen wie schon erwähnt mit angezogener Handbremse, auf 100% Last läuft meiner immernoch 5 Ghz.. ;)

Kurze Zugriffe sollten die Kühlkörper eigentlich ohne Probleme abfedernn können. Aber gut, bin halt auch nur mit externer Wakü unterwegs - m.2s kennen nicht mehr als 50 Grad ;)

Keine oder wenig CAsefans heizen die M.2 mehr auf als ne Graka oder GPU die die Hitze im Case verteilt..
 
Zuletzt bearbeitet:
@Dwayne_Johnson

Wegen M2 SSD´s braucht man sich keine gedanken machen , wenn man Graka und CPU unter Wasser hat.

Meine M2 sieht max. 40°C .

Backplates wurden auch bei Turing schon richtig warm .

Ich mache mir auch keinen Kopf wegen der passiven BP und den Vram.
Hab ja noch Airflow im Case .

Alles bisschen übertrieben.

Wäre natürlich besser , wenn Vram nur einseitig bestückt wäre mit 2GB Chips ,
aber ist halt nicht so .

Schätze der Vram wird auf der BP seite so 80-90°C warm .
Werden sicher irgendwann mal paar Test´s dazu geben.
 

Anhänge

  • ....jpg
    ....jpg
    490,3 KB · Aufrufe: 53
Zuletzt bearbeitet:
Der 5950x ist ein Monster...

Ich habe überhaupt nicht mit einem so massiven Boost in Games gerechnet. Dachte, der 5950x würde sich für Lightroom / Photoshop auszahlen :fresse:
Nix mehr Intel-Fanboy, wa? :fresse: (y)
Ich hoffe ja im Januar auf unter 800€ für den 5950X. Ansonsten warte ich noch
Beitrag automatisch zusammengeführt:

@Dwayne_Johnson

Wegen M2 SSD´s braucht man sich keine gedanken machen , wenn man Graka und CPU unter Wasser hat.

Meine M2 sieht max. 40°C .

Backplates wurden auch bei Turing schon richtig warm .

Ich mache mir auch keinen Kopf wegen der passiven BP und den Vram.
Hab ja noch Airflow im Case .

Alles bisschen übertrieben.

Wäre natürlich besser , wenn Vram nur einseitig bestückt wäre mit 2GB Chips ,
aber ist halt nicht so .

Schätze der Vram wird auf der BP seite so 80-90°C warm .
Werden sicher irgendwann mal paar Test´s dazu geben.
Wäre halt nett zu wissen, ob noch was am VRAM-Takt ginge, wenn die Rückseite schön kühl wäre.
Besonders nett wäre ja, wenn der ein oder andere Hersteller auch mit einer aktiven BP nachziehen würde.
Aber vorher friert die Hölle zu... :rolleyes2:
 
@*****
Tarkov hab ich nie ausprobiert, wenn der AMD zu deinem 9900k Setting den Performance Schub bringt hat sich das für dich gelohnt.

Im großen und ganzen ist man mal mit nen voll optimierten Intel schneller und mal mit nen optimierten AMD, um aus dem Intel die Leistung brauchst du aber halt wesentlich mehr, das bedarf wesentlich mehr Arbeit.

Von daher wird für 99% der Leute eher der AMD die bessere Wahl sein.Wenn die rohe Rechenleistung auch mal zum Einsatz kommt, dann zieht der AMD gnadenlos aber davon, aber selten beim zocken.
Ist auch der Grund wieso ich den 5900x sofort wieder verkauft hab, obwohl der schon top ist, es ist etwas durchwachsen.

Zum benchen wäre aber der 5950X wieder die beste Wahl.
 
Zuletzt bearbeitet:
Hat zufällig jmd "This Land is my Land"? Habe vor lauter ACO vergessen das nochmal zu testen (bin erst am Mo. wieder zuhause)
Aber wahrscheinlich spielt sowas keiner ausser mir... :rolleyes2:
 
Von daher wird für 99% der Leute eher der AMD die bessere Wahl sein.Wenn die rohe Rechenleistung auch mal zum Einsatz kommt, dann zieht der AMD gnadenlos aber davon, aber selten beim zocken.
Ist auch der Grund wieso ich den 5900x sofort wieder verkauft hab, obwohl der schon top ist, es ist etwas durchwachsen.
Inwiefern?
 
Von daher wird für 99% der Leute eher der AMD die bessere Wahl sein.Wenn die rohe Rechenleistung auch mal zum Einsatz kommt, dann zieht der AMD gnadenlos aber davon, aber selten beim zocken.

Eher nicht wenn der swie bei MGR ROG auf 3,6 Ghz rumdümpelt, die 5 Ghz dauerhaft hatte ich in 2 Min via Bios..
Beitrag automatisch zusammengeführt:

Sry, aber der 9900k sieht einfach alt gegen den 5950x aus. Was aber aufgrund des Alters und Preises auch verständlich ist und für jedermann nachvollziehbar sein sollte.
9900KF mit 5 GHz RAM auf 4000 MHz mit geringen Timings sollte ausreichend sein. Mit mehr kann man höchstens Punkte in Benchmarks jagen. Ich bin aber Zocker - nix Benchmark.

Der 5950x dagegen war Stock (nix PBO etc.) - nur FCKL auf 1900 und RAM auf 3800 mit 16-15-15-28 und restliche Timings vom DRAM Calculator (FAST Preset).
Der 5950x ist ein Monster...
Bei Tarkov habe ich an meiner Stelle (die ich nach jedem Patch teste) nun 100+ FPS. Mit dem 9900KF hatte ich unter 65 FPS. Allerdings ist Tarkov alles andere als Hardware optimiert :fresse: Also keine Referenz.
Hunt Showdown läuft deutlich besser. Metro Exodus ebenfalls.
Cyberbunk läuft um Welten besser...
RDR2 ebenfalls.

Ich habe überhaupt nicht mit einem so massiven Boost in Games gerechnet. Dachte, der 5950x würde sich für Lightroom / Photoshop auszahlen :fresse:



Überlege gerade, ob ich den Noctua NH-D15 in Rente schicken soll und dafür ne AiO 360er holen soll.
Was meint Ihr? Lohnt sich eine 360er AiO? Die Tests im Inet sind oft totaler Murks, da man 120 Watt abführt. Ineteressant wird es aber bei 200+ Watt.

Also die Gametests sind da deutlcih differtenzierter und deer 9900k kann mehr als gut mithalten, ich versteh aber deine Euphorie.

Habs damals getestet, ne 280er AUIO kühlt minmal Besser als nen NH-D15(und sieht um Welten besser aus). Also besser 420er AIO..
 
@Dwayne_Johnson
Ganz einfach ich hatte die Wahl zwischen den AMD oder dem 10900k mit Apex.
Da wo es auf Latenz und Bandbreite ankommt liegst du mit dem 10900k besser, das sind auch meist diese 1-4Kern Games wo du wenig FPS hast.
Die Fälle wo der AMD sich dafür wirklich massiv absetzt, da ist man meist eh jenseits von gut und böse mit den FPS.
Ich hab lieber auf gute Leistung in allen Gaming Fällen gesetzt, die Frametime ist perfekt.
Wie gesagt wir reden hier aber von nen Voll optimierten System, das kann man nicht mit nen "Standard" Setting vergleichen.

Der 5950x ist denke ich da auch die beste Wahl bei AMD, da du 2 volle CCX hast mit je 8Kernen.
Sobald er beide CCX fürs Game nutzt geht die Latenz ja anscheinend etwas runter.
 
Zuletzt bearbeitet:
Aufrüsten vom 9900k macht für mich keinen Sinn, sys ist gut optimiert. Aufn Toten AM4 Sockel setzen nö, Intel ohne
PCIE 4.0 auch nö. Dann lieber auf AM5 oder den nächsten Intel Sockel setzen mit DDR5, solange hält der gute 9900k problemlos mit :)
Du der reicht auch völlig aus, aber zwecks Frametime etc. sollten Ram Takt und vor allem sämtliche Sub´s optimiert sein, dann hat man auch ne super Performance.
Ich bin mit dem 10900K quasi eigtl. nicht schneller als mit meinen 9900K, da wo er mehr FPS stemmt hatte ich eh schon mehr als genug.

Die Frametime bei meinen 9900K war nahezu perfekt, der 10900K legt noch ne Hauch drauf, aber im wirklich unwesentlichen Bereich, solche Probleme wie öfters Ruckler hatte ich auf beiden Systemen nicht.
Die laufen beide wie Butter.Ich wollte mir aber auch noch die Möglichkeit für den Rocket Lake lassen, wobei ich da mittlerweile schwanke ob nicht 2Kerne mehr besser sind für Nebenprozesse,
anstatt noch mehr FPS.
Ja PCI-E 4.0 naja brauch ich es gute Frage eigtl. nicht, aber das resizable Bar nehme ich auf jeden Fall mit.
 
Da wo mein i9 9900k@5ghz über 50% Auslastung hatte hab ich jetzt keine 25% mehr mit 5950x und dass macht sich gerade bei Cyberpunk schon bemerkbar.
Was noch gut ist weniger Auslastung weniger Wärme, Cpu läuft deutlich Kühler.
Ob es ein Sinn macht oder nicht sei mal dahingestellt, ich denke eher nicht, aber wir sind nun mal Hardware süchtig.
Heisst ja nicht umsonst Hardwareluxx hier :fresse2: :fresse2:
Beitrag automatisch zusammengeführt:

Hat zufällig jmd "This Land is my Land"? Habe vor lauter ACO vergessen das nochmal zu testen (bin erst am Mo. wieder zuhause)
Aber wahrscheinlich spielt sowas keiner ausser mir... :rolleyes2:
Das Spiel wollt ich immer mal ausprobieren ich werds mir morgen mal anschauen.
 
Zuletzt bearbeitet:
@Dwayne_Johnson
Ganz einfach ich hatte die Wahl zwischen den AMD oder dem 10900k mit Apex.
Da wo es auf Latenz und Bandbreite ankommt liegst du mit dem 10900k besser, das sind auch meist diese 1-4Kern Games wo du wenig FPS hast.
Die Fälle wo der AMD sich dafür wirklich massiv absetzt, da ist man meist eh jenseits von gut und böse mit den FPS.
Ich hab lieber auf gute Leistung in allen Gaming Fällen gesetzt, die Frametime ist perfekt.
Wie gesagt wir reden hier aber von nen Voll optimierten System, das kann man nicht mit nen "Standard" Setting vergleichen.

Der 5950x ist denke ich da auch die beste Wahl bei AMD, da du 2 volle CCX hast mit je 8Kernen.
Sobald er beide CCX fürs Game nutzt geht die Latenz ja anscheinend etwas runter.
Bei Problemen mit SMT oder zuvielen Cores kann man ja SMT abschalten oder ein ganzes Chiplet (8 Cores) und von da aus auf 6, 4 oder 2 Cores
Ist halt nen Haufen Arbeit das bei jedem Spiel durchzutesten
 
Da wo mein i9 9900k@5ghz über 50% Auslastung hatte hab ich jetzt keine 25% mehr mit 5950x und dass macht sich gerade bei Cyberpunk schon bemerkbar.
Was noch gut ist weniger Auslastung weniger Wärme, Cpu läuft deutlich Kühler.
Ob es ein Sinn macht oder nicht sei mal dahingestellt, ich denke eher nicht, aber wir sind nun mal Hardware süchtig.
Heisst ja nicht umsonst Hardwareluxx hier :fresse2: :fresse2:
Das ist klar das du weniger Auslastung hast, du brauchst ja auch nicht alle Kerne, ich sag mal so beide Systeme sind sau schnell, das ist kein Vergleich mehr zu Zen2.
Ich selber hab auch mehr Freude am Einstellen beim Intel, da kannst du halt mehr machen, die min FPS sind gnadenlos gut und die Plattform ist halt ausgereift,
auch kein Wunder bei 14nm die x.te.^^
Aber dafür brauchst du erstmal passenden Speicher und nen Apex, allein das selektieren von Speicher ist schon so ne Sache, out of the Box wirst du nur schwer Speicher finden,
der 4500CL16-17 stable macht, um wirklich das max. rauszuholen.
Ich fahre die Hütte auch grade mal mit UV bei 5,2/4,8Ghz wie hier bei TombRaider, einfach weils reicht.Dafür können sich die FPS echt sehen lassen.Der AMD hätte es aber genauso getan der liegt nahe dran an den FPS, der Intel ist halt meistens noch nen Tacken schneller und die min FPS etwas besser, aber halt nur mit passender HW und Einstellungen.
1.jpg


Bei Problemen mit SMT oder zuvielen Cores kann man ja SMT abschalten oder ein ganzes Chiplet (8 Cores) und von da aus auf 6, 4 oder 2 Cores
Ist halt nen Haufen Arbeit das bei jedem Spiel durchzutesten
Ja gut aber sind ma mal ehrlich ob du nun 200FPS oder 150FPS stemmen kannst ist doch eigtl. völlig egal, gut ist das der neue AMD auch bei Titel wie Anno stärker geworden ist,
so stark das man auch solche Titel vernünftig zocken kann.Das was du sagst war auch das was ich mit den Chiplet´s meinte.
Der größte Vorteil den ich bei AMD sehe ist, das er halt out of the box sehr schnell ist, das ist der Intel halt nicht und man brauch nicht soviel Action betreiben um daraus nen starkes System zu machen,
egal ob nun 6 oder 16Kerner.
Als Unterbau für Ampere tun es beide Systeme hervorragend.
 
Zuletzt bearbeitet:
Bei Problemen mit SMT oder zuvielen Cores kann man ja SMT abschalten oder ein ganzes Chiplet (8 Cores) und von da aus auf 6, 4 oder 2 Cores
Ist halt nen Haufen Arbeit das bei jedem Spiel durchzutesten
Was beim AMD viel bringt ist Prozess Lasso und dann für jedes Spiel paar Einstellungen vornehmen und dann rennt das sau gut.

edit: was man aber festhalten kann, es spielt keine Rolle ob AMD oder Intel beide erreichen nun eine super Leistung
 
Eher nicht wenn der swie bei MGR ROG auf 3,6 Ghz rumdümpelt, die 5 Ghz dauerhaft hatte ich in 2 Min via Bios..
Sowas kommt dann bei raus wenn man nur Bildchen anschaut^^. https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-3090-faq.1277151/post-27985248 Post 12223 bitte mal genau studieren, dort findest du auch die kleinen Bildchen in groß im Link ;).
Welche WLP nutzt Du?
Original Grizzly Kryonaut.

Kurze Zugriffe sollten die Kühlkörper eigentlich ohne Probleme abfedernn können. Aber gut, bin halt auch nur mit externer Wakü unterwegs - m.2s kennen nicht mehr als 50 Grad ;)
Naja, ist wie bei Grakas auch. Gibt Dickschiffe und Beiboote :fresse:. Bei m.2 ähnlich^^.

Zeig mal was deine hier leistet:

:wink:
Hm... :unsure:
Wakü-Blöcke für unsere M.2 einbauen?
Kenne da durchaus Leute die das gemacht haben. https://www.aquatuning.de/wasserkue...hler/28270/bykski-b-nvme-sl-m.2-kuehler?c=265
Das sie nicht throtteln ist dank Passivkühlern und sehr guter Casebelüftung gesichert.
Sicher?
Meine sitzt oberhalb der 3090 und hat nicht das "Boardblech" als Kühler, sondern einen Fläche vergrößernden Kühlblock:

Bildquelle aus HWLuxxtest: www.hardwareluxx.de/index.php/artikel/hardware/storage/52804-corsair-force-series-mp600-im-test-cooler-dank-kuehler.html
Die M.2 wurde trotzdem über 50°C warm in meinem Test - und das mit drunter sitzender WAKÜ-3090!!! Möchte mir nicht ausrechnen, wie es sich mit Lukühler und 400Watt PL verhält.
Verstehst du worauf ich hinaus will?
Schnapp dir mal HW-Info und lasse es einfach unten im Tray mitlaufen. Dann zockst mal ein "Problemgame" eine Weile und danach machst mal Bildschirmfoto von HW-Info.
Vielleicht ist es auch nur eine weitere Idee welche nicht des Rätzels Lösung bringt zum abstellen der Ruckler. Aber dann hast (womöglich) Gewissheit^^.
Überlege gerade, ob ich den Noctua NH-D15 in Rente schicken soll und dafür ne AiO 360er holen soll.
Was meint Ihr? Lohnt sich eine 360er AiO? Die Tests im Inet sind oft totaler Murks, da man 120 Watt abführt. Interessant wird es aber bei 200+ Watt.
Starte HW-Info und/oder Coretemp und werf dann mal Prime95 an und starte "nur" die "Small FFTs" (dort Häkchen rein und OK - sonst NICHTS ändern). Wie schlägt sich der D15?
da könnte was dran sein. Wenn ich mich recht erinnere haben bei meiner 2080 ti die Ruckler aufgehört als ich auf wasser umgestiegen bin, hatte jedoch nie eine zu heisse m2 SSD in Verdacht und war damals einfach froh dass die Ruckler weg waren
Kann halt sein, das (zu) hohe Temps zum throttlen der M.2 führt. Die 3090 wirft nunmal bei den Costums +400Watt "aus". Teste es so, wie ich oben Thrawn bereits vorgeschlagen habe.
Heaven habe ich schon vermutet, aber war mir nicht ganz sicher. Bildausschnitte waren schon verdammt klein. Ich vermutete auch dads es einfach ein Kombibench war der beides auslastet bzw. wollte einfach Klarheit.
Nicht destotrotz läuft der Ryzen wie schon erwähnt mit angezogener Handbremse, auf 100% Last läuft meiner immernoch 5 Ghz.. ;)
Siehe ganz oben. War Heaven (1440p) UND Prime95 MIT AVX2 um die Wassertemp ordentlich nach oben zu bekommen. Kannst gerne nachmachen mit 5GHz (und so nebenbei die M.2-Temps beeinflussen^^).
Beitrag automatisch zusammengeführt:

edit: was man aber festhalten kann, es spielt keine Rolle ob AMD oder Intel beide erreichen nun eine super Leistung
Das sehe ich genauso.
Gerade in Games hat AMD den gefühlten jahrhundertelangen Rückstand endlich wettgemacht. Je nach Game mal Intel vorne, oft AMD vorne. Abstände sind gering. Ich sag immer: "flüssiger wie flüssig = überflüssig".:d In Anwendungen hingegen hat AMD mit Ryzen 5k Intel gut abgehängt.
Für uns ist es doch gut wenn sich die Großen immer mehr hochschaukeln und sich quasi gegenseitig anspornen, denn so haben wir alle wieder eine Auswahl :).
 
Zuletzt bearbeitet:
Sowas kommt dann bei raus wenn man nur Bildchen anschaut^^. https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-3090-faq.1277151/post-27985248 Post 12223 bitte mal genau studieren, dort findest du auch die kleinen Bildchen in groß im Link ;).

Die M.2 wurde trotzdem über 50°C warm in meinem Test - und das mit drunter sitzender WAKÜ-3090!!! Möchte mir nicht ausrechnen, wie es sich mit Lukühler und 400Watt PL verhält.
Verstehst du worauf ich hinaus will?
Schnapp dir mal HW-Info und lasse es einfach unten im Tray mitlaufen. Dann zockst mal ein "Problemgame" eine Weile und danach machst mal

Starte HW-Info und/oder Coretemp und werf dann mal Prime95 an und starte "nur" die "Small FFTs" (dort Häkchen rein und OK - sonst NICHTS ändern). Wie schlägt sich der D15?

Kann halt sein, das (zu) hohe Temps zum throttlen der M.2 führt. Die 3090 wirft nunmal bei den Costums +400Watt "aus". Teste es so, wie ich oben Thrawn bereits vorgeschlagen habe.

Siehe ganz oben. War Heaven (1440p) UND Prime95 MIT AVX2 um die Wassertemp ordentlich nach oben zu bekommen. Kannst gerne nachmachen mit 5GHz (und so nebenbei die M.2-Temps beeinflussen^^).

Dort steht auch 3,6 Ghz ?

50C ist doch ok, die 970 Evo Plus drosselt ab 70 Grad, und ich denke nicht das ich die Erreiche. 200 der 400W der FE gehen schonmal direkt aus dem Case raus.., CPU Hitze geht über den 420er Radi der AIO im Deckel direkt raus..
Und wie auchschon gesagt ist mein Case mit 4x 140er rein und 4x 140er rasu auch excellent belüftet..

Ich teste das mit den M.2 Morgen trotzdem mal
 
Wäre halt nett zu wissen, ob noch was am VRAM-Takt ginge, wenn die Rückseite schön kühl wäre.
Besonders nett wäre ja, wenn der ein oder andere Hersteller auch mit einer aktiven BP nachziehen würde.
Aber vorher friert die Hölle zu... :rolleyes2:
Wie ist das den bei der FTW hat die auch auf der Rückseite bei den Rams Temp Sensoren oder nur auf der Vorderseite?
 
Zuletzt bearbeitet:
So wie ich mitbekommen habe nur auf der Vorderseite.
Das wäre echt schade das wäre echt ein Alleinstellungsmerkmal wen man auf der Rückseite die Temps lesen könnte find das schon gut bei meiner 3080 Ultra!
 
Zuletzt bearbeitet:
Seid kurzem habe ich eine RTX 3090 Founders Edition. An diese ist ein 34 Zoll (UWQHD) Bildschirm mit 120 Hz und G-Sync angeschlossen.
Ich bin grundsätzlich damit auch sehr zufrieden. Mir geht es nicht um maximale Frames, sondern vorallem um Effizienz und geringe Lautstärke.
Nun habe ich in Afterburner die Spannung auf 0,8 gesenkt bei einem Takt von 1750.

Anforderung war in Call of Duty Warzone 116 fps dauerhaft stabil zu halten (Entsprechende fps Begrenzung ist im Spiel aktiviert). Was auch prima funktioniert.

Nun was mir aufgefallen ist:
In der “Aufwärmrunde“ (wenn die Lobby gefüllt wird) geht die Spannung zeitweise auf ca. 1 hoch (die Karte verbraucht dann ca. 300 Watt). Das dürfte doch nicht sein bei einer Kurve mit 0,8. Oder?

Wenn das Spiel dann “richtig“ losgeht ist alles ok bzw. die Spannung maximal bei 0,8 und die Karte verbraucht im Durchschnitt ca. 200 Watt (liegt sicherlich auch an der fps Begrenzung).

Die Temperatur der Karte: Im Durchschnitt bei 60 Grad bei 800 rpm (liegt wahrscheinlich auch an der fps Begrenzung).
Powerlimit ist bei Standard 350 Watt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh