Technische Daten zur GeForce RTX 3090 und 3080 durchgesickert

Für mich wäre schon BN nen krasses Upgrade zu meine 1070 :d

Bin gespannt was bis Ende 2021 noch passiert, den da will ich dann Kaufen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
OK mache ich gleich mal

Hier nochmal die liste @4K Gaming
GTX 1080Ti
RTX2080Ti FE
AMD 6900 @2050Mhz
RTX3080 @2100
AMD 6900XT @2200Mhz
RTX3090 FE @2100Mhz
A Plague Tale: Innocence
73%​
100%​
103%​
120%​
122%​
145%​
Anno1800
78%​
100%​
106%​
128%​
126%​
155%​
Battlefield 5
68%​
100%​
127%​
123%​
149%​
149%​
Borderlands 3
75%​
100%​
115%​
118%​
137%​
143%​
COD 2019
66%​
100%​
120%​
123%​
143%​
149%​
Control
59%​
100%​
109%​
119%​
130%​
144%​
F1 2019
88%​
100%​
128%​
132%​
153%​
160%​
Gears 5
77%​
100%​
116%​
125%​
138%​
151%​
Ghost Recon Breakpoint
75%​
100%​
118%​
126%​
141%​
152%​
Grid 2019
74%​
100%​
133%​
124%​
159%​
150%​
Metro Exodus
71%​
100%​
115%​
122%​
137%​
148%​
Planet Zoo
71%​
100%​
115%​
122%​
137%​
148%​
Red Dead Redemption 2
63%​
100%​
121%​
124%​
145%​
150%​
Shadow of the Tomb Raider
71%​
100%​
117%​
126%​
139%​
152%​
Star Wars Jedi : Fallen Order
71%​
100%​
106​
124%​
126%​
150%​
The Division 2
63%​
100%​
106%​
121%​
126%​
146%​
AVG Performence
71%
100%
116%
124%
138%
149%
 
Zuletzt bearbeitet:
@Don habt ihr die 7 nm "wie der A100" selber dazugedichtet oder sagt das der leak aus? Es gibt ja diese Kontroverse Diskussion um Samsung 8 (eigentlich 10) nm vs TSMC 7nm. Sollten die 7 nm aus dem Leak so richtig sein, ist dann TSMC confirmed?

So langsam dürfte es klar sein:

VideoCardz_2020-Aug-29.png


Quelle:
 
Dann würden auch meine 2100Mhz aus der Tabelle hinkommen 😂

wenn die Werte hinterher aus der Tabelle passen, würde ich mich kaputt lachen :lol:
 
Zuletzt bearbeitet:
die 350W sind aber schon recht heftig oder ist das bei "TGB"?? ne andere Berechnung? ich kenne nur TDP ;)....die 2080 Ti hat 250W TDP
oder wird das ding fermi reloaded?
 
Zuletzt bearbeitet:
Naja das kann ja auch das max möglich an TDP mit PT regler sein

EDIT: Angeblich sollen ja die 24Gb ja schon 30Watt mehr verbrauchen als 12Gb und daher braucht man na klar ne menge mehr.
 
Ja 60Watt alleine der Ram. Di wird man es endlich entgültig wissen
 
Mein Tipp wäre ja 300Watt die 3090 und 320Watt die Founders Edition und die 6900XT auch bei 300Watt+
 
OK mache ich gleich mal

Hier nochmal die liste @4K Gaming
GTX 1080Ti
RTX2080Ti FE
RTX3080@2100
AMD 6900XT @2200Mhz
RTX3090 FE@2100Mhz
A Plague Tale: Innocence
73%​
100%​
120%​
122%​
145%​
Anno1800
78%​
100%​
128%​
126%​
155%​
Battlefield 5
68%​
100%​
123%​
149%​
149%​
Borderlands 3
75%​
100%​
118%​
137%​
143%​
COD 2019
66%​
100%​
123%​
143%​
149%​
Control
59%​
100%​
119%​
130%​
144%​
F1 2019
88%​
100%​
132%​
153%​
160%​
Gears 5
77%​
100%​
125%​
138%​
151%​
Ghost Recon Breakpoint
75%​
100%​
126%​
141%​
152%​
Grid 2019
74%​
100%​
124%​
159%​
150%​
Metro Exodus
71%​
100%​
122%​
137%​
148%​
Planet Zoo
71%​
100%​
122%​
137%​
148%​
Red Dead Redemption 2
63%​
100%​
124%​
145%​
150%​
Shadow of the Tomb Raider
71%​
100%​
126%​
139%​
152%​
Star Wars Jedi : Fallen Order
71%​
100%​
124%​
126%​
150%​
The Division 2
63%​
100%​
121%​
126%​
146%​
AVG Performence
71%
100%
124%
138%
149%

schließt die holzkugel auch eine ipc steigerung von möglichen 20% mit ein? (siehe zen3 7nm+)
 
Das glaube ich erst wenn ichs sehe mit den 20% mehr IPC.
ich denke in der Tabelle steht die 6900XT schon verdammt gut da und würde das auch für möglich halten

EDIT: man muss immer bedenken das doppelte shader nicht auch doppelte Leistung bedeutet. IPC+Doppelte Shader gibt dann die 100% mehr Leistung würde ich von ausgehen
wie gesagt ist alles nur eine Einschätzung und Berechnung von mir
 
Wenigstens hat NV kein Nachteil des Prozess beim 7nm.
 
Mein Tipp wäre ja 300Watt die 3090 und 320Watt die Founders Edition und die 6900XT auch bei 300Watt+
was das in der Realität bedeutet werden wir ja sehen aber zumin. lt papier muss ne nicht unerhebliche menge wärme mehr abgeführt werden als zB bei der 2080 Ti
 
Sich in Spekulationen ergehen ist schon irgendwie aufregend. Ich warte eh die ersten Tests ab. Vor allen Dingen Tests von den üblichen Herstellern, die leise Kühler verbauen.
 
Wie immer die üblichen....Asus ROG Strix, Gainward Phoenix GS usw.
Ich bin auch ganz gespannt.....und jeder weiß doch, dass das nur Zeitvertreib ist und sich der reale Nutzen solcher Spekulationen für den Alltag sehr in Grenzen hält.
 
ne kack amd karte kommt mir im leben nicht nochmal in nen pc, die sind einfach zu dumm ihre treiber in den griff zu bekommen, und ja, ich weiß wovon ich rede

10er karten von nvidia auch eher nicht, wenn dann irgendwas das nach den rtx karten ohne rtx released wurde oder dann halt doch ne rtx karte aber da hab ich dann ja die freie auswahl
wieder einer der es schafft seine Treiber zu zerschießen. Error40
 
Wie immer die üblichen....Asus ROG Strix, Gainward Phoenix GS usw.
Ich bin auch ganz gespannt.....und jeder weiß doch, dass das nur Zeitvertreib ist und sich der reale Nutzen solcher Spekulationen für den Alltag sehr in Grenzen hält.

Die finde ich immer relativ "laut" ehrlich gesagt, gerade die Asus mit den kleinen Fans. Nach meinem Geschmack waren die MSI + Palit Jetstream immer die leisesten Karten. Hatte bei der 1000er Generation auch Zotac, MSI, Asus und Palit hier zum testen. Ich denke ich werde wieder bei MSI landen, mal schauen. :)
 

Was fürn fetter Kühler!
Extra mit gelochter Backplate, das werden die nicht ohne Grund so machen.
 
wenn die Werte hinterher aus der Tabelle passen, würde ich mich kaputt lachen :lol:

Ich hab auch so ne Tabelle gemacht als die Timespy Leaks kamen.
So ne Hochrechnung anhand von sythetischen Benchmarks mit Anpassung an RELATIVE Performance von bekannten Benchmarks. Normal will das niemand sehen, aber aus Erfahrung kann ich Dir sagen:
Deine Werte werden nicht so arg weit weg sein von der Realität.

Das einzige Unsichere wird BN sein, weil es da entscheidend ist welchen Faktor man nimmt für die relative Steigerung. Da haben wir halt bisher keinen Anhaltspunkt, daher wird das der einzige "wild geratene" Faktor sein. Die anderen Werte hängen fast nur davon ab, wie real der Timespy leak war.
 
Bei der HD 5870 war es quasi die doppelte leistung. Geh mal einfach von ner 5700xt x2 aus
 
@Tech Enthusiast
Ja bei BN bin ich halt davon ausgegangen das man eben bei der kleinen 4608shader haben wird und die große halt na klar 5120shader.
Ich sage mal wenn es so kommt hätte AMD zwei gute karten die halt preislich gut auf angriff gehen können,
Der Treiber muss halt ok sein und einfach funktionieren und der verbrauch sollte halt auch passen dann ist da eigentlich alles gut.

ist nur die frage wie dann die Preise aussehen werden aber ein 6900 für 699€ kann ich mir vorstellen und die 6900XT dann für 899€ wenn man auf kampfkurs geht weil dann ist das angebot super gut wie ich finden würde
 
Das kommt auch hin, doppeltes Interface, doppelte Shader, vielleicht etwas mehr Takt und minimal Leistung pro Takt (5 - 10 %) - Also 100 - 110 %.

Für unter 1 K wäre das ein echter Knaller, da würde ich kaufen ohne Rücksicht. 2 K für eine 3090 sind echt zu viel, es scheint ja eher Richtung 2300 $ zu gehen laut dem Chinaleak... In Euro wird man also da ankommen wo die aktuelle Titan liegt, was meine Vermutung (dass es sich dabei nur um eine neue Titan handelt) bestätigt wird. Andererseits, kam die Ti bei NVIDIA selten direkt bei Launch. Meist kam erst die X80, dann die X70 und eine Titan als Vorgeschmack auf den Vollausbau, die Ti kam dann erst fast ein Jahr später. Turing war hier die Ausnahme, weil man kaum eine Wahl hatte um Besitzern der alten Ti zumindest einen kleinen Wechselanreiz zu bieten.
 
Also ich kann mir nicht vorstellen das man die 3090 für 2000€ anbieten wird.
1399€ kann ich mir aber vorstellen.
mit DLSS wären die RTX3080&3090 aber auch brachial schneller als AMD das ist auch ein Punkt der womöglich durch DLSS 3.0 mehr in den Fokus rücken wird
 
AMD hatte ja für rdna2 +50% perf/Watt angesagt. Turing und rdna1 hatten nahezu gleiche IPC. Da kann man sich denken was passiert wenn rdna2 mit der doppelten shaderzahl der 5700xt kommt. Denke die oben vermutete Lücke zwischen der 3080 und 3090 wird AMD treffen. Die Frage ist bei welchem Verbrauch...
 
Darfst nicht einfach umrechnen. In China sind die Dinger eh schon unverhältnismäßig teuer. Schau mal die release Preise der letzten Generationen
 
Wenn AMD das innerhalb von 300Watt packt dann wäre das echt gut
 
Also ich kann mir nicht vorstellen das man die 3090 für 2000€ anbieten wird.
1399€ kann ich mir aber vorstellen.
mit DLSS wären die RTX3080&3090 aber auch brachial schneller als AMD das ist auch ein Punkt der womöglich durch DLSS 3.0 mehr in den Fokus rücken wird
Das sind ja auch Chinapreise, die bei Taiwan-Kram immer sehr hoch sind.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh