Gigabyte GeForce RTX 3090 Gaming OC 24G im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Don
In Crysis Remastered ist die Speicherbelegung in 8k geringer wie in 4k ?
8k 4k
12,4 GB12,5 GB
?
 
Um 0,1 GB bzw. das liegt im Bereich der Ungenauigkeit wie der VRAM belegt wird.
 
Hier noch mal ein Vergleich mit einer 2,1 GHz TI, da lohnt sich die 3080 noch nicht mal in RTX oder DLSS

1601024770499.png
 
Wo sind denn jetzt eigentlich die ganzen grünen fanboys die 4K 144hz geschrien haben bei der Vorstellung? 🤣🤣🤣
 
Thema X-Box: Soll Leute geben, die können und wollen ihre Shooter nicht mit nem Controler an ner X-Box zocken, sondern aimen besser/lieber mit Maus + Tastatur.
Klingelts jetzt? :wink:

Exakt. Konsolen sind für eher für Leute, die Low Cost und Low Effort Tripple A zocken wollen.
Auf den PC gibts eine riesige Gruppe von Leuten, die einfach CSGo u.ä. auf Full-HD zocken (einfach mal die Steam Top 10 anschauen und mal überlegen für welchen "Grafikracher" man da ne 3090 braucht).
 
@Don
In Crysis Remastered ist die Speicherbelegung in 8k geringer wie in 4k ?
8k 4k
12,4 GB12,5 GB

?

Crysis Remaster ist eh völlig broken.
Tests sind in dem Spiel auch ziemlich nichtssagend weil das einfach ein Haufen Softwaremüll ist den die da abgeliefert haben.
 
Verstehe das Fazit nicht, 10-20% Mehrleistung in Spielen? Sehe nur 1x 13% zur 3080 ansonsten immer 1 stellig.....
 
Falls es nicht schon in dem Thread hier erwähnt worden ist: IgorsLab hat es in seinem aktuellen Video sehr schön herausgestellt:
Die RTX 3080 reicht für alle Gamer vollkommen aus, der Mehrwert in Spielen liegt bei round about 10 %.. Also im Vergleich zum Preis keine Relation vorhanden.
Bei anderen rechenintensiven Aufgaben wie Blender usw. wird der Vorteil des großen VRAM der 3090 deutlich spürbarer (20 % im Vergleich zu 3080) und spart somit bei Solchen Vorgängen Zeit.
Zusammenfassend wer keine Lust auf "nur" 10 Gb VRAM hat soll warten auf RTX3080 Super/Ti/ More VRAM-Edition oder wie auch immer sie heißen wird, der Rest muss sich eben überlegen ob er neben dem Gaming noch andere Bereiche abfrühstückt. Igor sagte es schön und treffend: "Wer mit solch einer Karte Geld verdienen muss greift zur 3090, weil sie im Vergleich zu TITAN RTX oder Quadro 6000 sehr viel günstiger und schneller ist".
So just my opinion8-)
 
Damit ist die 3090 doch der perfekte Titan Nachfolger. Dicker VRAM, fast voll ausgebaute GPU, massiver Aufpreis gegenüber dem nächstkleineren Modell und beim zocken kaum Mehrwert.

Doof ist dass Nvidia keine Karte mehr unterhalb der dicken Quadros / Teslas anbietet die eine ordentliche Double Precision Performance abliefern. Dafür war die alte Titan bei Forschern ja ziemlich beliebt, dadurch konnte sich die Titan früher noch leicht von den reinen Consumerkarten absetzen.

Warum man sich angesichts der 3090 verarscht fühlen muss wie manche es hier rüber bringen verstehe ich allerdings nicht.
Die Zahlen liegen doch jetzt auf dem Tisch und jeder kann seine Kaufentscheidung so treffen wie er will. Sehr viel Aufpreis für wenig Mehrwert ist im High End doch nichts neues.
 
Doof ist dass Nvidia keine Karte mehr unterhalb der dicken Quadros / Teslas anbietet die eine ordentliche Double Precision Performance abliefern. Dafür war die alte Titan bei Forschern ja ziemlich beliebt, dadurch konnte sich die Titan früher noch leicht von den reinen Consumerkarten absetzen.
Sie können nunmal nix liefern, was die Hardware nicht hat.
GA102 kann nunmal FP64 nicht in schnell. GA100 hingegen schon. Das selbe Spiel gab es damals schon mit TU102 vs. GV100 und GP102 vs. GP100. Eine GM200 konnte es auch nicht, GK110/210 schon.
Bis auf die drei Kepler Titanen (alle samt GK110) und der TitanV (GV100 Ableger) können die Titanen auch kein FP64 ;) Maxwell, Pascal, Turing und eben jetzt die 3090 als Ampere Titan ohne Titan im Namen sind FP32 und niedriger ohne entsprechend viele FP64 Einheiten. Also gar nicht können ist nicht ganz richtig, aber es ist halt lahm.

Das einzige was ich mir vllt irgendwo noch vorstellen kann wäre eine Option, dass sie den zweiten Block an FP32 Einheiten irgendwie mit dem ersten zusammen geschaltet bekommen und so anstatt 2xFP32 = 1xFP64 berechnen. Oder halt auf 16er/64er Blöcke gruppiert. Aber bis dato ist dazu meine ich nix bekannt...

Aber die Relevanz von 8K-Gaming geht in der Praxis gegen null.
Native definitiv richtig... Aber wie schauts mit Downsampling aus?
Auf nem 24-27" UHD Mäusekino bestimmt nicht wirklich notwendig. Aber bei 32" und noch viel größer sieht man ohne AA hässliches Aliasing. 8k mit DLSS + 2x2er Downsampling auf UHD sollte optisch hübscher als UHD ausschauen und gar weniger Performance kosten, sofern die native Renderauflösung unterhalb UHD ist. In alten Games mit frei skalierbarer Auflösung wäre aber gar ohne DLSS denkbar. Wenn ihr mal Lust und lange Weile habt, mach gern mal paar Screens oder Videos.
Seinerzeit waren für so manche Leute die damaligen Skyrim Screens in FHD mit 2x2er Downsampling vs. native Auflösung oder Wischi Waschi Weichzeichner "AA" schon Augenöffner. Da konnte man dann auf einmal auch in FHD die Stähnen der Pferdemähne zählen während native nur Pixelbrei zu sehen war. Das sollte sich mit entsprechend skalierten Diagonalen klar wiederholen lassen und natürlich auch auf andere Games anwendbar sein.
 
Zuletzt bearbeitet:
zumal 8k und dann dlss eher fake ist ^^
 
Wer kennt sie nicht. Die tollen 8K Monitore, die es bereits mit einer riesen Auswahl zu kaufen gibt.
jop, und daher natürlich zum Schnäppchenpreis verfügbar ^^
wenn man dafür 30.000€ raushauen kann, ist der Aufpreis zur 3090 eh wumpe...

 

So wie es aussieht ist es ein Bauteil Problem, weshalb die Karten crashen, könnt Ihr das nachstellen @Don ?
 
So wie es aussieht ist es ein Bauteil Problem, weshalb die Karten crashen, könnt Ihr das nachstellen @Don ?

Ich habe bisher noch keine Crashs in der Art reproduzierbar nachstellen können. Crysis Remastered blieb mal hängen und vor dem finalen Treiber hatten wir mit F1 2020 Probleme, die aber eben auf einen Fehler im Treiber zurückzuführen waren.
 
Danke für den Test (y)

Weiß gar nicht was es da zu meckern gibt. :motz:
Ich schnappe mir solch eine Karte wenn diese in ein paar Monaten verfügbar ist, und spiele dann in "So-Called-8-So-Called-K" bei 30 fps, auf dem 3 Jahre alten, 4000 € günstigen Monitor von Dell, den ich noch im Keller stehen habe. Dies sind zwar 33 Million Pixel bei nur 32 Zoll, aber ich habe ja Adleraugen.
Dieser hat zwar nur 60 Hz, aber dies ist immer noch dass Doppelte was die Karte so meist schafft.

Zu Weihnachten gibt es dann den 8k Oled von LG, für den Preis eines neuen Mittelklassewagens.

Bei 03:08 und 06:40.
Der Steve ist so derbe :d
"really fluid console- like experience"
"Strange Brigade: A game that many people play and some enjoy"
 
Hmmm sieht so aus als würde ich meine 2080ti Hybrid doch noch länger behalten wenn ich mir die Zahlen so anschaue.
 
Habe heute die Karte erhalten. Sie brachte weder ein Bild, noch ließen sich die Stromstecker richtig anbringen. Fazit: Nicht empfehlenswert für den Preis!
 
Habe heute die Karte erhalten. Sie brachte weder ein Bild, noch ließen sich die Stromstecker richtig anbringen. Fazit: Nicht empfehlenswert für den Preis!

Kannst du das mit den Stromsteckern erläutern? Andere Display-Ausgänge hast du ausprobiert? Aus dem Karton defekte Karte sind eigentlich sehr selten.
 
Die beiden Stromstecker von meinem Be Quiet Straight Power 11 Platinum 750W gingen nicht hinein in die Buchsen. Mit viel Kraft und "hin und her wackeln" gingen dann Beide hinein.
Es liegt definitiv an den Buchsen der Gigabyte.
An meiner Ersatzkarte, eine MSI GTX 1650 Super, gleitete der Stromstecker ganz leicht hinein. Habe hier im Forum gelesen das auch schon Andere das gleiche Problem mit der Karte hatten.

Wenn ich den Display Port Stecker in einen der Steckplätze der Grafikkarte hinein schob, dann ging der Monitor (Samsung CRG90) vom Stand-By-Modus an, aber das Bild blieb schwarz. Weder der Bootvorgang wurde angezeigt, noch kam das Boot-Logo des Mainboard, noch das Windowsbild wurde angezeigt.

Ohne etwas zu ändern, nach Einbau der MSI GTX 1650 kam sofort ein Bild und alles war bestens.

Hatte alle Display Port Steckplätze durchprobiert, einen anderen Monitor getestet, das Display Port Kabel gegen ein Neues ausgetauscht und das Mainboard BIOS auf aktuellen Stand gebracht, nichts half.
 
Hmpf, das ist ärgerlich ...
 
Vielleicht hilft das jemand. Die Revision der Karte war 1.0
 
Weis einer wofür die Gigabyte-Karten am hinteren Ende der GPU die beiden M3-Gewinde haben? Gibts da zubehör für?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh