[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

16GB hat niemals Sinn gemacht Leute, Speicherinterface...

Teil des "24GB Leaks" war ja auch, dass es ebenfalls eine Variante mit 12GB geben soll. Insofern ist das noch nicht widerlegt.

Das "3090" muss man auch nicht allzu ernst nehmen, nur weil die Bezeichnung jetzt mal in einer Micron Folie auftaucht. Das Teil kann am Ende auch wieder eine 3080 sein.

So oder so kaufe ich die Karte aber auch mit 12GB.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gerüchte :d
Eher mit Absicht gestreute Falschinformationen, lustiges Ratespiel, oder Lügen.

Mit dem oben geposteten Link und nun diesem hier https://wccftech.com/nvidia-geforce...pecs-leak-2100-mhz-gpu-19-gbps-gddr6x-memory/
wären dies bei dem "Graphic Performance Rating 2020" Balkendiagramm (ich gehe mal davon aus dieser soll übliche Rastergrafik ohne Raytracing und Dlss 2 zeigen), unter 4k uhd zwischen der rtx 3090 (soll ja die rtx 3080 ti mit anderem Namen sein) und der rtx 2080 ti, gerade mal ein 30 % Vorsprung für die erstere.
Obwohl die erstere mit 2,1 GHz gpu-clock laufen soll, deutliche mehr Speicherdatenrate und sich 300 - 350 W genehmigt, und die rtx 2080ti mit nur ~ 1800 MHz und ~ 270 W. Lol
Normiert auf gleichen Vebrauch wären dies (je nach Gpu-Taktrate) 0 - 10 % besserer Leistung/Verbrauch für die rtx 3090, bei 1500 € :haha:

Also entweder krasseste Lüge, Ratespiel etc. oder der Leistungsvergleich ohne Dlss und Raytracing ist wirklich so enttäuschend.
Dann haben sich die Beschäftigten bei nvidia dafür entschieden die Dlss-/Raytracing-Schiene zu fahren.

Generell eh Unglaubwürdig. Bis auf eine handvoll Beschäftigte bei Nvidia, hat wohl niemand (auch nicht die Boardpartner) ein finales Bios und fertige Gpu-Treiber mit denen sich die Spieleleistung evaluieren lässt.
 
Also ich gehe eher davon aus das die RTX3090 im bereich von 300-320 läuft und vom takt wie die RTX2080Ti laufen wird ~1900Mhz und mit OC dann bis zu 2100Mhz möglich sind@360Watt+++
Ich würde auch schätzen das man ca. 35% schneller sein wird im vergleich zur 2080Ti.
Meine 2080Ti @ 2040/8200 zieht je nach spiel auch schon 300-366Watt (The Division 2in 4K am PT Limit)

Ampere ist halt ein RT und Tensor Core Monster.
Ist halt nicht sooo die Gaming karte.
 
Zuletzt bearbeitet:
Dein Beispiel einer am Limit übertakteten rtx 2080 ti zeigt es.
Eine rtx 2080 ti FE erreicht bei 100 % Stromverbrauch (270 W) 1800 - 1850 MHz gpu-Takt. Bei ~ 2 GHz sind es schon 30 - 40 W mehr.
Laut dem Balkendiagramm wäre dies dann eine wirklich mickrige Verbesserung hinsichtlich Leistung/Verbrauch. Ergo sehr Unglaubwürdig.

Die vermutete Erhöhung der Anzahl FP32 Kerne sollte für das Shading und auch die Raytracing-Berechnungen (laut der Analyse was ein Turing-Frame ausmacht) ein deutliches Plus an Leistung ergeben.
Aber nicht nur dafür, sondern auch für das DNN Processing - also Dlss.
Heißt auch wenn das Balkendiagramm irgdendwo in der Nähe der Wahrheit liegt, und die Steigerung der Leistung/Verbrauch wirklich dermaßen ernüchternd ausfällt, sollte die eigentliche Leistung/Verbrauch samt DLss/Raytracing deutlich darüber liegen. Wenn dem Balekndiagramm auch nur ein Fünkchen Wahrheit zugrunde liegt, wurden die Werte ohne Dlss/raytracing erhoben, oder der Benchmark kann die eigentliche Leistung nicht wiedergeben.
Ähnlich wie bei Turing die verschiedenen Recheneinheiten sich gegenseitig aushelfen, könnte es bei Ampere wieder was neues geben was ähnliches macht, und noch von keinem Benchmark/Spiel genutzt wird.
 
Wenn dem Balekndiagramm auch nur ein Fünkchen Wahrheit zugrunde liegt, wurden die Werte ohne Dlss/raytracing erhoben, oder der Benchmark kann die eigentliche Leistung nicht wiedergeben.
Die Werte sollen ja von TimeSpy Extreme sein und der nutzt halt kein RayTracing. (steht auch deutlich als Überschrift im Diagramm dass es TimeSpy Extreme ist)
Dass all diese Werte vor Veröffentlichung sehr mit Vorsicht zu genießen sind sollte eigentlich auch jedem klar sein der hier schon länger dabei ist.
 
Ich gehe davon aus das grade bei Verwendung von DLSS und Raytracing Amper enorm schneller sein als Turing
 
Zuletzt bearbeitet:
Und welches Netzteil hat so einen Anschluss? Dann lieber klassisch 6er/8er Pins, als über irgendwelche Adapter...
 
hmm ob es sich da mal lohnen könnte den OCK am Dark Power Pro 11 zu benutzen ?
 
FE einer 3090 offenbar mit neuem 12pin Stecker und ermöglicht der Karte so einen maximalen Verbrauch von 600Watt:

Kann ich für die jetzige Generation nicht richtig glauben, dazu müssten erstmal Netzteile mit solch einem Strecker verfügbar sein. Auf lange Sicht könnte der schon auftauchen, aber ob der wirklich Vorteile bietet?
 
Es wird wohl dem Design der Founders Edition geschuldet sein. Außerdem wird man sicher Adapter beilegen.
 
Die Founders müsste schon richtig gut sein (und Triple Slot) das ich mir die kaufe..
 
3070 fast 2080ti Leistung 😱
 
30% mehr Effizienz als Pascal? Ernsthaft... nach 4 Jahren? Oh man... dann hätte AMD ja wirklich leichtes Spiel wieder relevant zu werden... da habe ich mir mehr versprochen :shake:

Edit:
Wenn das so kommt warte ich auf Hopper oder wie auch immer die 7nm GPU dann heißen wird.
 
Das wäre genial. Mal schauen, ob das nicht ein Fake ist :d
 
FE einer 3090 offenbar mit neuem 12pin Stecker und ermöglicht der Karte so einen maximalen Verbrauch von 600Watt:
Beitrag 1203 über dir^^
Das wäre genial. Mal schauen, ob das nicht ein Fake ist :d
Genial, lol. Erweisen sich die Angaben zu dem Stromverbrauch der Karten als korrekt, die bis jetzt einheitlich waren (selbst von Igor), samt den ganzen Anzeichen mit dem 12-Pin Stecker sind es vllt. max. 10 % mehr Leistung/Watt gegenüber Turing.

Bis jetzt deutet es doch daraufhin dass entweder Situation 1) eintritt. Die Gerüchte, Lügen und Ratespiele falsch sind, und man es bei Nvidia geschafft hat nicht nur die Dlls- und Raytracing-Leistung zu verdoppeln, sondern auch die normale Raster-/Shading-Leistung. Die Dinger saufen dann vllt. immer noch wie blöd, aber es gibt dick 40 - 50 % mehr Leistung für Raster-/Shading Operation und ganze 100 % für Raytracing und Dlss.
Oder Situation 2) tritt ein. Dann werden es wirklich nur 0 - 10 % bessere Leistung/Verbrauch (variierende Gpu-Taktrate) bei Raster/Shading etc. Operationen und nur doppelt für Raytracing und Dlls; selbst für die rtx 3090 bei 1500 €. Eine rtx 3090 die auch 270 W verbraucht würde dann in non dlss/raytracing Spielen 10 % mehr fps liefern. Wenn es hoch kommt 15 - 20 %.

Die Industrie geht schon seit Jahren den Weg über spezielle Recheneinheiten, Beschleuniger(karten), spezielle Software etc.
Mit Turing haben die Beschäftigten bei Nvidia die Kehrtwende gemacht und auch damit angefangen. Würde mich nicht wundern wenn diese die Richtung mit den Ampere-Karten noch drastischer verfolgen.
Mit Turing hat man verhauen, da die Preise auf Gewinn/Marge getrimmt waren und den meisten somit zu teuer. Mit Dlss hat man vergeigt, nur mit Dlss 2 den Bogen bekommen.
Spiele die auf Raytracing setzten immer noch Mangelware.

Nun mit next-gen sieht die Situation aber anders aus. Dann würde man halt auf alle Spiele pre next-gen und ohne Dlss/Raytracing pfeifen.
Quasi eine Grafikkartengeneration gebaut für die Zukunft :giggle:
Denke eher tritt Situation 2 ein, auch wenn ich es nicht höffe; wird sonst noch schlimmer mit den Preisen.
 
Genial, lol. Erweisen sich die Angaben zu dem Stromverbrauch der Karten als korrekt, die bis jetzt einheitlich waren (selbst von Igor), samt den ganzen Anzeichen mit dem 12-Pin Stecker sind es vllt. max. 10 % mehr Leistung/Watt gegenüber Turing.
Die einzigen Momente in meinem Leben, wo ich mich über den Verbrauch meines PCs Gedanken gemacht hab, war beim Bau einer guten Wasserkühlung (Abwärme muss ja weg). Ansonsten ist das fast so unbedeutend, wenn das Ding nicht 24/7 auf Volllast in Synbenches geht, dass es einfach sch*** egal ist. Und selbst das theoretische Maximum von Verbrauch kriegst du vom ganzen Rechner nie in einem Spiel hin - Nur in synthetischen Benchmarks.
Es geht hier um rohe Performance für mein Hobby (Flugsim in VR) bzw. das Hobby vieler anderer hier im LUXX - Ob das Ding mehr oder weniger Verbraucht, ist selbst bei "viel" Nutzung mal im Urlaub, im Monat nicht einmal 5€ mehr Stromkosten als bei viel besserer Effizienz. Bei den ganzen Posts in den Spekuthreads frage ich mich, ob ihr auch jedes Jahr Stromanbieter vergleicht für bessere Tarife...

Bei 1000+€ Grafikkarten, die mehr Wertverlust in 1-2 Jahren haben, als du jemals Strom mti dem Teil verbrauchen kannst, Gedanken machen :haha::lol::coffee:

PS: Ja, ich sage natürlich auch nichts gegen bessere Effizienz und als Menschheit müssen wir auch schauen, dass wir nicht unnötig viel verbrauchen, selbst bei etwas so geringen vom Gesamtanteil wie ein paar Enthusiasten. Aber manche Diskussion...
 
Verständlich, jeder hat seine Gründe/Begründungen; Flugsimulator VR ist wohl ein großer.
Man kann alles drehen/wenden und argumentieren dass die 350 W next-gen Karte + Flugsim VR weniger verbraucht/umweltschädlicher ist als ein paar reale Flüge mit einem Privatflugzeug. Dann sieht die Sichtweise gleich viel besser aus :d
Mein Post drehte sich generell nicht ums Subjektive, deswegen habe ich dazu jetzt nichts Substantives zu sagen ;)

Jedenfalls stelle ich dar dass es möglich ist, dass die Karten ohne Dlss/Raytracing, bezüglich Leistung/Watt, eine ziemliche Enttäuschung sein könnten.
Der Post aus dem chinesischen Forum behauptet (eher frei erfunden) ja dass die rtx 3090 übertaktet war (340 W bei 2 GHz).
Zieht man die Übertaktung ab, macht 320 W draus, 1900 MHz, zieht 6 % vom Balken in 4k Uhd ab, schon ist die rtx 3090 28 % schneller als die rtx 2080 ti.
Leistung/Watt in 4k Uhd sind es dann genau 10,8 % (1,0527/0,9498).
 
Verständlich, jeder hat seine Gründe/Begründungen; Flugsimulator VR ist wohl ein großer.
Man kann alles drehen/wenden und argumentieren dass die 350 W next-gen Karte + Flugsim VR weniger verbraucht/umweltschädlicher ist als ein paar reale Flüge mit einem Privatflugzeug. Dann sieht die Sichtweise gleich viel besser aus :d
Mein Post drehte sich generell nicht ums Subjektive, deswegen habe ich dazu jetzt nichts Substantives zu sagen ;)

Jedenfalls stelle ich dar dass es möglich ist, dass die Karten ohne Dlss/Raytracing, bezüglich Leistung/Watt, eine ziemliche Enttäuschung sein könnten.
Der Post aus dem chinesischen Forum behauptet (eher frei erfunden) ja dass die rtx 3090 übertaktet war (340 W bei 2 GHz).
Zieht man die Übertaktung ab, macht 320 W draus, 1900 MHz, zieht 6 % vom Balken in 4k Uhd ab, schon ist die rtx 3090 28 % schneller als die rtx 2080 ti.
Leistung/Watt in 4k Uhd sind es dann genau 10,8 % (1,0527/0,9498).
der Heilige Speculatius incoming
 
Die Frage ist immer noch, ob die 3090 nun eine 3080 Ti oder eine Titan ist.
 
@Thrawn.

Oh die Bildzeitung der Computerbranche, die Gamestar. :d
 
Mittlerweile haben die oft interessante GPU News, und gut gemachte. Everything is changing ;)
 
Oder sie ist beides und es gibt keine Titan mehr..
Na wollen wir mal hoffen das es der Titan Ersatz ist und nicht die Ti, sonst haben wir wieder nen ordentlichen anstieg vor uns.

Kommt es zum letzten bin ich zum ersten mal auf seite der AMD'ler, noch nen anstieg dulde ich nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh