Technische Daten zur GeForce RTX 3090 und 3080 durchgesickert

@fdsonne
ist mir ja klar.
Ich meinte das eher lustig bezogen. 😜
Mining hat es doch gezeigt was dann passiert.
Die Preise sind dann eben nach oben gegangen.
Wenn man sieht das selbst die teuren Produkte weg gehen wie warme semeln wird man sicherlich nicht mal eben so die preise reduzieren es sei den da kommt ein Konkurrent der mich unterbietet

Wenn es mir im PC bereich zu bunt wird werde ich einfach den PC fallen lassen und auf Konsole gehen das habe ich öffters zu release einer neuen Konsole gemacht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hier mal ein Vergleich in 4K
2020-08-30 14.34.09 www.hardwareluxx.de .jpg

(Ich hab mir jetzt mal nicht den ganzen Thread angetan.)

Wenn es denn so käme, wäre AMD zumindest wieder auf dem gleichen Spielfeld.
Ich sehe deine Berechnungen aber schon eher als Worst Case Scenario.
Ich habe bisher David Chang beim Wort genommen. (50% mehr Leistung per Watt)

Nach dem 3D-Center UHD Index läge eine 6700 XT mit ~225W TBP dann bei einem Indexwert von 234% (+-). 156% x 1,5 = 234. Also in etwa 2080ti Niveau (236).
2020-08-30 14.39.35 www.3dcenter.org .jpg


Das die 6900 dann "nur" 15% über der 6700 liegen sollte, fände ich dann jedoch ein wenig sehr schwach. Wenigstens 5% mehr, wären schon wünschenswert bzw. realistischer.

Ja, ich weiß. Jetzt fassen sich vielleicht einige an den Kopf oder die Lunge tut weh, vom vielen Lachen. :d
Ich weiß aber auch, das AMD in den letzten Jahren keine leeren Versprechungen gemacht hat. Alles was angekündigt wurde, kam so auch.
Wenn ich hier einem Deutungsfehler aufsitze, berichtigt mich bitte.

Wenn es AMD nicht mit der Leistungsaufnahme für eine 6900 (>300W) versaut und der Preis nicht zu abgehoben ist, werden die Karten von mir mal näher unter die Lupe genommen. Ansonsten bleibts halt bei der Mittelklasse. (6700 / 3070)
 
  • Danke
Reaktionen: Tzk
Der unnatürliche Raum besteht aus satten 14 GB an Grafikspeicher! Da ist eigentlich schon direkt klar dass noch etwas kommen muss. Ob man es jetzt "Ti" oder "Super" nennt ist ja egal.

Je nachdem wie man es nennt denke ich nicht dass es nur 5 % sein werden. Ich würde auch mit einem 5700-Refresh rechnen dass dann ungefähr bei 2080-Leistung rauskommt - So viel Abstand ist da selbst jetzt nicht.
 
Der unnatürliche Raum besteht aus satten 14 GB an Grafikspeicher! Da ist eigentlich schon direkt klar dass noch etwas kommen muss. Ob man es jetzt "Ti" oder "Super" nennt ist ja egal.
Was soll da kommen?
Es geht nur 10GB oder 20GB an 320Bit gerade dran. Oder 12/24GB an 384Bit.
Dazwischen ist nichts. Und es sind nicht 14GB, also ja, schon, absolut sind das 14GB. Es sind viel eher einfach nur Faktor 2 mehr Speicher zu bisher. Genau so wie es andere GPUs davor auch schon hatten - wie ich schon aufgezählt habe. Ihr solltet euch mMn angewöhnen mal mit Relationen zu argumentieren. Das macht vieles seeehr viel einfacher. Oder wo soll das noch hingehen?
Vor 10 Jahren waren 512-1024MB mal gängig. Da gabs dann ne HD4870 mit 512MB und ne HD4870 mit 1GB. Es gab ne GTX 260 mit 896MB oder ne GTX 280 mit 1GB. ICH verstehe ehrlich das Problem nicht. Aus damaliger Sicht sind 12 oder 14GB mehr schlapp 24-28x so viel mehr wie die kleine 4870 auf die große draufgelegt hat. Aber was bringt das Argumentieren mit diesen Hyperlativen? Nichts...
Jeder der beim kleinen Modell in ein VRAM Limit rein rennt, freut sich über jedes fitzelchen mehr Speicher, was er bekommt. Ob das dann 1GB, 2GB, 6GB oder 14GB sind, ist völlig irrelevant.
 
12 an 384 wäre wohl das mittel der wahl. 1gb mehr als die 2080ti.
 
Dann müssten sie das 384Bit SI auch auf dem teildeaktivierten Chip voll aktivieren - halte ich für keine sinnige Alternative.

Es scheint doch jetzt schon 10GB bestätigt zu sein? Also 320Bit. Das was da dann kommt wäre ein 20GB Modell der Custom Partner. Oder vllt ne Refresh-Generation auch als FE, wenn Micron die Speicher in der Lage ist, mit doppelter Größe zu liefern. Die Lücke wirkt doch nur deswegen so groß, weil man absolute Mengen gegeneinander stellt.
Ohne die absoluten Angaben hat die 3080 mit 10GB einfach 25% mehr Speicher als die 2080. Und die 3090 verdoppelt den Speicher zur vorherigen Gen. bzw. bekommt bisschen mehr als doppelt so viel. Thats it.
Wie eben in sooo vielen Generationen davor auch schon. 780TI -> 980 waren bspw. 33% mehr. Und 780TI auf 980TI war doppelt so viel.
 
Es wäre zwischen 3080 mit 10/20 GB und 3090 mit 24GB eine auch eine Variante mit einem 352Bit SI denkbar, dann wären wir bei 11 bzw. 22GB Vram. Ich finde die Lücke zwischen 3080 und 3090 aktuell auch zu groß. Ich könnte mir gut vorstellen das NVIDIA genau dort noch was in Form einer 3080Ti nach schiebt.
 
So wie es die Gerüchte sagen wird es 3070 mit 8/16GB, 3080 mit 10/20GB und 3090 mit 24GB. Die jeweils 3070 könnte mit GDDR6 ggf. direkt ab Start als Custom mit 16GB erscheinen (zur Wahl) - die 3080 dann später bei Verfügbarkeit der Chips mit doppelter Größe.

Der Speicher ändert auch nix an der Leistungsfähigkeit der GPU. 4352 zu 5274 ALU sind ~20,5%. Wo will man da bitte noch ne weitere Karte zwischen platzieren? Braucht ihr denn unbedingt alle 5% ne andere Hardware???? Die 3072 ALUs der 3070 mit GA104 Chip, der vllt nicht voll beschalten ist (analog der 2080) liegt dann irgendwo 30% unter der 3080. Und die 3090 wird oben halt zeigen müssen, wie viel das noch weiter skaliert. Den Bildern, die als FE Layout rumgeistern könnte die 3090 vllt einfach auch mit viel höherem Takt aufwarten und deutlich weniger gedrosselt sein. Während die 80er das vllt ist? Das steigert den Abstand nach oben und senkt ihn zum Modell drunter etwas. Ich mein, irgend nen Sinn muss es doch haben, dass man da 50% mehr Bandbreite rein baut... Wegen 20,5% mehr ALUs und bisschen Takt auf Turing 2080TI braucht man das sicher nicht ;)
 
  • Danke
Reaktionen: Tzk
Was ist denn wenn die 3080 nicht mit 20GB Vram kommt? Es sind diesbezüglich nur Gerüchte.
 
Ich hoffe AMD bringt die Karten vor November, ich hätte gerne vor Cyberpunk noch ne gute RTX Karte. Lasst uns mal hoffen das AMD gute Karten parat hat damit Nvidia auch mal etwas die Preise senken muss.
 
Naja, ich bin schon mal keiner dieser Kritiker. Ich habe ne 1080Ti und wenn ich in den nächsten Monaten eine neue Karte kaufe, sollte diese in allen Bereichen ein Upgrade darstellen. Eine 3080 mit 10GB Vram fällt da schon mal komplett raus. Da ich eh genug Kohle auf seite habe wird es wahrscheinlich eh eine 3090.
 
Die leute raffen meist einfach nicht das die lücke bei grade mal 20% liegt und die womöglich garnicht erreicht werden weil die mehr shader nicht so reinhauen wie man denkt.
oder sollen jetzt karten kommen in 10% schritten? dann kommt irgendwer daher und sagt da wäre ne lück von 10% also kann man da ne karte bringen die genau dazwischen passt....
das wird nicht passieren.

Die 3080 kommt mit 10/20GB und das ist mega fett wie ich finde.
 
- 3090 samples have already been received to media and youtuber. but can't measure performance, due to no driver
- 3090 AIB model's power comsumption about 500W
- Final price isn't confirmed yet
- Industry expect 1800~3000 (this include price difference by AIB and lineup)

Quelle:
 
500W? :hmm:
Also kann man auf diese Info allgemein nicht so viel geben.

Oder wird das doch wieder ne Dual GPU Karte? Dann aber mit WaKü...??
 
500W :fresse2:

Kann man sich die Heizung im Winter sparen

Fermi 2.0 incoming
 
500w auf Custom Platinen waren auch bei der 2080 ti nicht ungewöhnlich.
Bei der 2080 ti Kingpin waren sogar bis zu 520w möglich

Was eingestellt werden kann und das was verbraucht wird, wird gerne immer verwechselt/zusammen gewürfelt.
Ohne Treiber kann man denn Stromverbrauch nicht Messen, also hat man die 500w sonst wo raus gelesen warscheinlich aus der Table im BIOS
 
Zuletzt bearbeitet:
Wenn AMD das innerhalb von 300Watt packt dann wäre das echt gut
Kommt wohl darauf an, wie stark das Netzteil ist.
Ich sehe immer mehr Sinn in dem neune 12-Pin PCIe Stecker, da Leistung Grundsätzlich aus Leistung herführt. ;)


360W für eine RTX 2080 TI? Respekt!

P.S. Das wird euer Steckdosen Messgerät nie Anzeigen, da die Lastwechsel zu schnell sind. Wir reden hier von 50ms Messintervall eines Oszilloskope.
 
Zuletzt bearbeitet:
Yo daher waren die BIOS Dateien einiger Partner interessant fürs Overclocken.
Ohne BIOS mit Minimum 350W konnte man sich das Übertakten einer 2080 Ti sparen, weil default das verfügbare powerlimit viel zu niedrig war.
Die 2080ti war selbst mit Stock Takt ständig im Powerlimit


P.S. Das wird euer Steckdosen Messgerät nie Anzeigen, da die Lastwechsel zu schnell sind.

natürlich nicht aber man kann grob einschätzen wie viel seine Grafikkarten in seinem PC verbraucht, vorher CPU messen und anschließend abziehen im Gesamtverbrauch.
Alternativ nimmt man einfach die nv API, die ist +-10% genau.
 
Zuletzt bearbeitet:
- 3090 samples have already been received to media and youtuber. but can't measure performance, due to no driver
- 3090 AIB model's power comsumption about 500W
- Final price isn't confirmed yet
- Industry expect 1800~3000 (this include price difference by AIB and lineup)

Und damit weit jenseits meines Budgets.

500 W vielleicht nicht, aber eine Karte wie meine alte 1080 Ti war problemlos im Stande auf ~380 W zu saugen. Alles eine Frage was man für Spannungen anlegt. Manche Leute machen dann noch einen Shunt-Mod, dann kann das Saugen erst so richtig losgehen... Ich betreibe meine Karten da lieber im Optimum.

Dass eine Big Navi mit 5120 Shadern nur 2080-Ti-Niveau erreicht kann ich mir bei bestem Willen nicht vorstellen. Es ist zwar nicht klar ob Takt oder IPC-Fortschritt erzielt wurde, bei 5120 würde ich aber mit mindestens 20 % (schlechtestenfalls) rechnen. Speicher und Interface werden auch besser. Vielleicht wird das beschnittene Navi-Modell mit ~4300 Shadern (wie bei 2080 Ti) deren Leistung erreichen. Wie ich in anderen Threads immer predige, schaut euch an was die 5700 XT leistet - Es sind im Schnitt 10 % weniger pro Shader. Die Zeiten von Polaris und Vega sind glücklicherweise vorbei.
 
Hoffentlich hat die 3080 30-40% mehr Leistung, als die 2800 Ti, das wäre top.
 
Ohne BIOS mit Minimum 350W konnte man sich das Übertakten einer 2080 Ti sparen, weil default das verfügbare powerlimit viel zu niedrig war.

Je nach Präferenz kann man sich das Übertakten seit Pascal sowieso sparen. Die Brechstange anlegen für überschaubare 10-12% Mehrleistung? Früher hat man 30% mit stock Vcore rausholen können...das waren noch Zeiten :hail:
 
  • Danke
Reaktionen: Tzk
Bei 10-15% kann das Teil aber nicht 1000 kosten, das wäre ein Desaster. Dann wohl wieder eher so 700-800.
 
Yo daher waren die BIOS Dateien einiger Partner interessant fürs Overclocken.
Ohne BIOS mit Minimum 350W konnte man sich das Übertakten einer 2080 Ti sparen, weil default das verfügbare powerlimit viel zu niedrig war.
Die 2080ti war selbst mit Stock Takt ständig im Powerlimit


Natürlich nicht aber man kann grob einschätzen wie viel seine Grafikkarten in seinem PC verbraucht, vorher CPU messen und anschließend abziehen im Gesamtverbrauch.
Alternativ nimmt man einfach die nv API, die ist +-10% genau.
Eben nicht, du kannst nur die Stromkosten abschätzen aber nicht was real an Strom/Ampere gezogen wird.
Dazu braucht man schon Profi Equipment um da Handfeste Werte zu bekommen, Grob das doppelte der TDP!
 
Wie wollen die damit mehr als 1200€ rechtfertigen? 15% sind nichts... dafür rüstet doch niemand auf.

Man wird sich eher daran gewöhnen müssen, das die leistungssprünge in Zukunft nicht mehr so groß ausfallen, obwohl mit mcm könnte doch vielleicht noch was mehr kommen, man wird sehen....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh