[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

Viele Regler haben maximum kaum Einfluss auf die Optik bzw. muss man schon sehr genau hinschauen um einen Unterschied auszumachen kosten aber irre viel Performance

So ist es. Und da mache ich den Unterschied, wenn eine High-End-Karte Dinge wie extremes AO, Schatten oder Multi/Supersampling auf 4K nicht schafft kann man das noch verschmerzen. Gerade das AA ist ja gerade für die niedrigeren Auflösungen gedacht.

10 GB VRAM auf der 3090 / 3080 Ti fände ich absurd. Das wäre ein echtes Downgrade. Von Ti zu Ti waren es ja immerhin weiter 11 GB. Die dürfte die neue Karte mindestens auch wieder haben, falls es beim 352-Bit-Interface bleibt. Der VRAM wird natürlich schneller und dann schätzungsweise um die 850 GB/s liegen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Glauben könnt ihr in der Kirche :ROFLMAO:
 
Der Vergleich geht nur nicht auf da viele PC Games nur Konsolenpots sind und somit mehr Verbrauchen können als nötig.

Vorallem beim 4K.
Hast du vermutlich leider recht. Könnte mir durchaus vorstellen, dass das Textur streaming dann auch auf dem PC Einzug finden wird und für textur settings die mehr vram erfordern eine SSD Pflicht wird
 
Das wird alleine wegen der Treiber schon nicht so sein.
Ich weiß, mein Post bezog sich primär auf die Hardware. Bei unterlegener AMD Hardware oder ggf. gleichwertiger Hardware kaufen die Leute weiterhin Nvidia, weil diese Produkte (auf die letzten 4 Jahre betrachtet) einfach out of the Box rund laufen. Wenn nun AMD jedoch BESSERE Hardware (effizienter und/oder schneller) liefert, dann können sich sicher mehr Leute auf das Abenteuer einlassen.
 
Da gibs nur noch ein Minuspunkt für einige, die Temps die bei AMD höher liegen und so die bude mehr aufheizt.
 
Da gibs nur noch ein Minuspunkt für einige, die Temps die bei AMD höher liegen und so die bude mehr aufheizt.
Hä? Was hat denn eine Höhere ChipTemp mit Bude heizen zutun? Wie warm die Bude wird, entscheidet die Verlustleistung... ich kann eine übertaktete vega64 unter wasser haben mit 35grad GPU temperatur und eine GT 1030 welche 80° Warm wird, dennoch wird man die GT1030 nicht ein bisschen an der Ramtemperatur merken, während die vega schon ordentlich einheitzt...
 
Die Verlustleistung ist entscheidend, ungeachtet der resultierenden Temperatur an der gpu. Die hängt nur davon ab, wie effektiv die Verlustleistung abgeführt werden kann.
 
Da gibs nur noch ein Minuspunkt für einige, die Temps die bei AMD höher liegen und so die bude mehr aufheizt.

Was ist denn das für ein Schwachsinn, außer du meinst alte Generationen. In Sachen Effizienz liegt Navi nämlich nahezu gleichauf zu Turing. Untervolten kann man beide ebenso wie sie am Limit betreiben. Dann kriegst du aber auch eine 2070 Super auf 250 W.

AMD hat leider das Problem, die Karten immer ans Limit takten zu müssen. Das war schon bei der 290>390 so, dann bei der 480>580. Die Karten werden erstaunlich effizient wenn man 150 mV und 50 MHz runternimmt. Bei Navi sieht man es auch wieder gut wenn man die XT mit der Non-XT vergleicht.
 
Was ist denn das für ein Schwachsinn, außer du meinst alte Generationen. In Sachen Effizienz liegt Navi nämlich nahezu gleichauf zu Turing. Untervolten kann man beide ebenso wie sie am Limit betreiben. Dann kriegst du aber auch eine 2070 Super auf 250 W.

AMD hat leider das Problem, die Karten immer ans Limit takten zu müssen. Das war schon bei der 290>390 so, dann bei der 480>580. Die Karten werden erstaunlich effizient wenn man 150 mV und 50 MHz runternimmt. Bei Navi sieht man es auch wieder gut wenn man die XT mit der Non-XT vergleicht.
Kann sein das es mit Navi anders ist oder es liegt an das übertriebene Takt-Limit, was AMD aber eigentlich nicht nötig haben müsste.

Die alten Gens... haben mich jedenfalls ferngehalten. Ich hoffe mit Big Navi lässt AMD etwas Luft und prügelt die Karten nicht bis ans limit. Selbst Optimieren ist für viele keine wirkliche Option.
 
AMD hat leider das Problem, die Karten immer ans Limit takten zu müssen.
AMD und NV GPUs werden gleichermaßen am Limit ausgeliefert.

Das war schon bei der 290>390 so, dann bei der 480>580. Die Karten werden erstaunlich effizient wenn man 150 mV und 50 MHz runternimmt.
50 Mhz reichen oft nicht, Polaris musste man oftmals mit - 160 Mhz betreiben damit die Karte einigermaßen leise blieb. Und "erstaunlich effizient" ist wohl maßlos übertrieben. Hawaii und Polaris haben keine Schnitte gegenüber Maxwell und Pascal gesehen, sowohl stock als auch undervolted waren die NV GPUs erheblich effizienter.
 
Selbst Optimieren ist für viele keine wirkliche Option.

Nein, sondern eher Berufung!
Vega hat es doch hart gezeigt, welches enorme Potential durch die User selber noch frei gesetzt werden konnte.
 
Nein, sondern eher Berufung!
Vega hat es doch hart gezeigt, welches enorme Potential durch die User selber noch frei gesetzt werden konnte.
Aber will das der Nutzer auch? Da liegt doch das Hauptproblem. Die wollen Einbauen und loslegen und nicht noch Stundenlang herumtüfteln.
 
Vega hat es doch hart gezeigt, welches enorme Potential durch die User selber noch frei gesetzt werden konnte.
Wird aber nicht klug sein für einen Hersteller, darauf zu vertrauen.
Bei Reviews wird selten optimiert, sondern out of the box getestet. Und diese Tests sind dann für viele Schrauber relevant.
 
Gute Frage aber, denke auf diese Weise kommt der user erst so richtig in touche mit der Hardware, thing feel play :d

Grundsätzlich ist @Nimrais and @Nozomu aber eher zu zustimmen.
 
Vega hat es doch hart gezeigt, welches enorme Potential [...]
AMD Fans nennen es "enormes Potential", neutrale Leute nennen es das Eintauschen von Stabilitätsreserven + Lebenszeit gegen etwas mehr Effizienz, um näher an das ran zu kommen, was NV out of the box liefert.

Aber solang die Käufer damit glücklich werden...
 
AMD Fans nennen es "enormes Potential", neutrale Leute nennen es das Eintauschen von Stabilitätsreserven + Lebenszeit gegen etwas mehr Effizienz, um näher an das ran zu kommen, was NV out of the box liefert.

Aber solang die Käufer damit glücklich werden...
Gibt ja die und die, der Bastler freut sich wenn er tweaken und benchen kann, der causal user will einbauen und zocken. leben und leben lassen.
 
(...)neutrale Leute nennen es das Eintauschen von Stabilitätsreserven + Lebenszeit gegen etwas mehr Effizienz(...)

... ich wuerde noch silicon lottery hinzufuegen. Meine fluessiggekuehlte Vega 64 hatte ein "enormes Potenzial" von genau Null; bei der VII sah es ein wenig besser aus - aber von leise & sparsam war sie auch dann noch ein ordentliches Stueck entfernt. Wer nun "enormes Potenzial" erwartet, aber eine solche Karte erwischt hat, fuer den duerfte AMD anschliessend ein rotes Tuch (sic!) gewesen sein. Was irgendwie nicht im Sinne von AMD sein kann?
 
Das Potential bei Vega war im wesentlichen auf das Untervolten bezogen, welches auch mit mehr Leistung einhergeht.

Während bei der Radeon7 die Übertaktungsmöglichkeiten overhelming waren.
Ich konnte bei meiner bis zu 2170mhz aus dem Chip kitzeln.
Natürlich aber war das Problem nicht der Kühler an sich, aber die Lautstärke der Karte, das muss man natürlich zu geben. /:
 
Das Potential bei Vega war im wesentlichen auf das Untervolten bezogen, welches auch mit mehr Leistung einhergeht.

Genau darauf habe ich mich auch bezogen: und da ging bei mir praktisch nichts.

Während bei der Radeon7 die Übertaktungsmöglichkeiten overhelming waren.
Ich konnte bei meiner bis zu 2170mhz aus dem Chip kitzeln.

In Blender und mit Lueftern nahe der 4.000 Umdrehungen. Yeah. Welche Taktraten waren denn belegbar game-stable? Denn zumindest ich kenne niemanden, der Blender spielt.
 
och, jetzt bin ich mal gespannt, wieviel Ram die 3090 bekommen wird; hab was von 12 gb als auch von 24 gb gelesen;
wir müssen wirklich abwarten, was Nvidia offiziell vorstellen wird
 
och, jetzt bin ich mal gespannt, wieviel Ram die 3090 bekommen wird; hab was von 12 gb als auch von 24 gb gelesen;
wir müssen wirklich abwarten, was Nvidia offiziell vorstellen wird
Bist Du hier nur um deine Beiträge hoch zu pushen?
 
Bist Du hier nur um deine Beiträge hoch zu pushen?
Schnitzel freut sich halt wie ein Schnitzel auf die neuen Karten ...bei mir könnten die am besten auch schon heute vorgestellt werden.:bigok:
Ich hoffe sehr auf einen Kampf der Titanen:banana:


Der Benchmark ist speziell auf 4K und DirectX 12 ausgelegt und gilt als nicht besonders akkurat was die tatsächliche Leistung in Spielen anbelangt.
58% wäre schon Top in Spielen lass es 50 sein das wäre schon ordentlich.
 
Zuletzt bearbeitet:
Wundert mich ein wenig das nur noch von 3080 und 3090 die rede ist. War doch auch mal ne 3080ti im Gespräch bzw. 3 Karten.
Bei Speicher waren es 10,12 und 24GB die da angedeutet wurden.

50% drauf klingt aber schon mal sehr verlockend, bleibt nur noch die Preisfrage. :d
 
Ich freue mich auch so unglaublich auf die 3900 oder 3800Ti (wie auch immer sie heißen soll). Meine 2080Ti landet dann in meinem zweit System und ich kann dann endlich flüssig 4k spielen. Die Ti schwächelt bei 4k und max. Details schon etwas und unter 100fps empfinde ich alles als ruckelnd :(.
 
Finde ich auch, dass alles unter 100fps ruckelig wirkt.
Naja, jetzt sind wir im August angekommen, lange kann es nicht mehr dauern. Die Messe Ende August abwarten und dann sind wir schlauer.
 
Ach wen man zwischendurch PlayStation zockt mit 30FPS sind 60FPS wie Gold in 4K:bigok:
 
Wer Konsole zockt und meint, dass das schon ein Grafikwunder wäre, der sollte hier nicht schreiben. Ich spreche jetzt keinen an, nur allgemein,
 
Gab es das schonmal, dass NV zwei GPUs gleich breit ausgestattet hat in der gleichen Chipklasse? Das letzte mal wo mir sowas einfällt ist 14 Jahre her -> G80 auf G92...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh