Nun wohl doch mit 512 Bit: GeForce RTX 5090 mit 32 GB und dreiteiligem PCB

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.551
Zu NVIDIAs für dieses Jahr erwarteten neuen Gaming-Flaggschiff, der GeForce RTX 5090, gibt es neue Hinweise, die weiterhin als Gerüchte behandelt werden sollten. Nun scheint ein 512-Bit-Speicherinterface für die GeForce RTX 5090 wieder im Gespräch zu sein. Dem GB202-Chip sollen gleich 16 GDDR7-Speicherchips zur Seite gestellt werden. Im Chiphell-Forum kommt nun neu der Hinweis auf ein "dreiteiliges" PCB für die GeForce RTX 5090.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich wäre für einer fullcover vaporchamber 4 slot kupferkühler im blower design. Der blower soll durch das pcb ragen und hinten bei der backplate auch einen luftstrom durchjagen. Das wäre geil.
 
Ach die anderen Möglichkeiten werden auch alle noch "veröffentlicht" werden. Von 256 bis 512 bit.
Vielleicht traut sich noch einer mit HMB raus.

Und irgendwas davon wird dann eintreten: Die einzig wahre Prophezeiung der Quelle "Trust me, bro!"
 
Ach die anderen Möglichkeiten werden auch alle noch "veröffentlicht" werden. Von 256 bis 512 bit.
Vielleicht traut sich noch einer mit HMB raus.

Und irgendwas davon wird dann eintreten: Die einzig wahre Prophezeiung der Quelle "Trust me, bro!"
1. HBM
2. Nope. Damals gegenüber gddr5 hatte HBM vorteile, die sind mir gddrx6 fast alle dahin, zumal der x6er aufgrund einziger nachfrsge zu nvidia sogar teilweisd günstiger war als gddr6. Mit gddr7 ist das alles hinfällig. HBM3e hat zwar wieder vorteile, aber die kommen auf profesionelle karten, weil man da einfach mehr für verlangen kann als beim consumer.

Ich würde mich auch über 24gb HBM3 freuen, aber wird nicht kommen, leider. Zumal amd mit dem infinity cache die jetzigen limitationen sehr gut umgeht.
 
Also ich wäre für einer fullcover vaporchamber 4 slot kupferkühler im blower design. Der blower soll durch das pcb ragen und hinten bei der backplate auch einen luftstrom durchjagen. Das wäre geil.

1. HBM
2. Nope. Damals gegenüber gddr5 hatte HBM vorteile, die sind mir gddrx6 fast alle dahin, zumal der x6er aufgrund einziger nachfrsge zu nvidia sogar teilweisd günstiger war als gddr6. Mit gddr7 ist das alles hinfällig. HBM3e hat zwar wieder vorteile, aber die kommen auf profesionelle karten, weil man da einfach mehr für verlangen kann als beim consumer.

Ich würde mich auch über 24gb HBM3 freuen, aber wird nicht kommen, leider. Zumal amd mit dem infinity cache die jetzigen limitationen sehr gut umgeht.

Freust du dich dann auch über die Preise? :d
 
Der preis ist doch egal, wenn man etwas WILL ist der preis nebensache. Aber das war rein hypothetisch, ich habe mir damals die 6900xt gekauft und die reicht nich die nächsten 5 jahre dicke.
Ich habe die 4090 und die läuft schon ins Limit. Naja vermutlich ist es eher der Arbeitsspeicher... aber irgend wann hat der Goldesel auch mal genug Häufchen gelegt und spuckt nichts mehr aus für eigentlich eher nebensächliche Dinge im Leben. Mal sehen wie lange der gute Vorsatz hält :d
 
Ich habe die 4090 und die läuft schon ins Limit. Naja vermutlich ist es eher der Arbeitsspeicher... aber irgend wann hat der Goldesel auch mal genug Häufchen gelegt und spuckt nichts mehr aus für eigentlich eher nebensächliche Dinge im Leben. Mal sehen wie lange der gute Vorsatz hält :d
Da gebe ich dir recht mit den vorsätzen. Ich spiele aber nicht anspruchsvolle spiele in 2k. Wir haben anscheinend unterschiedliche anforderungsprofile.
 
HBM3e kommt nur auf den Profi karten zum einsatz und es ist ja schon Quasi in stein gemeiselt das das GDDR7 verbaut wird und mit 512bit könnte das gut nach vorne gehen

8k 240hz mit DLSS SuperPerformance incomming 😅
 
Den Fehler mit Speicherchips unter der GPU nahe am PCI E Anschluss haben die bei der 2080TI schon gemacht wo dann sich Lötpunkte beim Vram gelöst haben.
Warten wir mal ab was wirklich kommt.
 
Ich hätte gerne direkt ab Launch eine 1-Slot Lösung ála Alphacool Enterprise

 
16 GB mit 1024 GB/s bei einer 5070/Ti im Frühjahr 2025.
Pah, das hatte ich dann schon 6 Jahre früher mit der Radeon VII (und das vermutlich auch noch günstiger) !! :rolleyes2:
 
HBM3e kommt nur auf den Profi karten zum einsatz und es ist ja schon Quasi in stein gemeiselt das das GDDR7 verbaut wird und mit 512bit könnte das gut nach vorne gehen

8k 240hz mit DLSS SuperPerformance incomming 😅
Bin schon gespannt. Kommt bestimmt FrameGen2,0 mit 2 Zwischenbildern, statt wie bisher einem Zwischenbild.

Damit machste Dir dann aus 60 fps: 180! :P
 
warte, versteh ich das richtig - das sollen drei einzelne PCBs werden, die irgendwie zusammengetüdelt sind? Wer denkt sich so nen Schwachsinn aus?
 
Bin schon gespannt. Kommt bestimmt FrameGen2,0 mit 2 Zwischenbildern, statt wie bisher einem Zwischenbild.

Damit machste Dir dann aus 60 fps: 180! :P
Nee den Inputlag will sich dann echt keiner mehr geben. Ich denke wahrscheinlicher ist Frame Generation auf Treiberbasis, sodass das einfach bei jedem Game funktioniert. Aber ob man das wirklich als RTX 50 exklusives Feature verkaufen kann? Glaube eher nicht...RTX 30 hatte auch kein neues exklusives Gaming Feature also mal sehen ob RTX 50 überhaupt etwas besonderes bekommt.
 
Da bin ich gespannt wie die Wasserblöcke dann aussehen werden :unsure:
 
Die Info mit den drei PCBs muss ja nicht stimmen.
 
Alter was ein Klopper :ROFLMAO: Keine Pause für PCI-E Slots heutzutage
 
Nee den Inputlag will sich dann echt keiner mehr geben. Ich denke wahrscheinlicher ist Frame Generation auf Treiberbasis, sodass das einfach bei jedem Game funktioniert. Aber ob man das wirklich als RTX 50 exklusives Feature verkaufen kann? Glaube eher nicht...RTX 30 hatte auch kein neues exklusives Gaming Feature also mal sehen ob RTX 50 überhaupt etwas besonderes bekommt.
Pro Zeiteinheit wäre es ja bezüglich Lag kein Unterschied, ob Du aus 60 fps 120 oder 180 fps machst. Nur hast halt noch mehr fps. ;)
 
Aber sind wir doch mal ehrlich AMD hat den Kampf/Krieg verloren im High End bereich und das Nvidia jetzt eine 4090ti in der Schublade hatte war doch so abzusehen falls nochmal AMD hätte nachlegen können und das sie darauf jetzt aufbauen weil sie kein TSMC 3NM nutzen ist doch nur logisch es wird eben nur ein Facelift 5NM werden also ist das nur 1+1 zusammen gezählt

Denke uns erwartet jetzt eine lllaaaannnnggggeeee zeit wo Nvidia nur noch das Abliefert was sie müssen und nicht mehr siehe Intel gen 4 bis gen 8 da wurde auch nur das nötigste getan um AMD auf abstand zu halten
 
Alter was ein Klopper :ROFLMAO: Keine Pause für PCI-E Slots heutzutage
Hab ich mir auch gedacht...was verbraucht dann die Karte an Strom? Wird die dann 1x 12V Vhpwr und 2x 8-Pin PCIe haben, oder was? Am besten mit 2 Netzteilen? 1x nur Graka und 1x für alles andere? Ne, also da bin ich raus.....kann von mir aus im Laden vergammeln
 
Bin echt auf die offizielle Bekanntgabe und unabhängige Tests gespannt, was da seitens NVIDIA kommt. Was wohl die Konkurrenz macht? The Battle is open ☺️
 
Was die machen? Nichts. Es sieht nicht so aus als ob AMD und Intel in dem Segment vorhaben sich zu platzieren. So wie bei der letzten Generation auch nicht.
Wird wohl so auch nicht kommen, da es sich finanziell wenig lohnt. Der Einzige der momentan einigermaßen mithalten könnte zumindest von der Raster Performance ist AMD.

Wenn die mit nächster Generation was für ~1000€ mit Raster Performance annähernd einer 5090 bringen und Raytracing Leistung einer 4070 oder schneller werde ich wohl das Lager mal wieder wechseln.
Das reicht mir dann brauchst du auch kein DLSS mehr oder sonstiges für UWQHD @ ULTRA mit 144FPS. Ja ich weiß 4K ist der heiße Scheiß aber an die 60-100FPS in 4K wird mir reichen.
Mich regt an Nvidia immer auf das die am Speicher geizen, dadurch veralten die Grafikkarten schneller als sie müssten. Die RTX 3080 ist immer noch eine super Karte aber die 10 GB werden langsam zum Verhängnis.

Edit: Außerdem sind mir ~500-600 W Verbrauch insgesamt einfach zu viel. irgendwo <=400W ist Schluss bei mir.
 
Die Frage ist ob NVIDIA nicht doch etwas bei der Konkurrenz wittert? Den aus Nächstenliebe verbauen sie kein 512 Bit breite Verbindung. Gehen von ~12000 auf ~16000 Shader, stand zumindest auf einer anderen Folie. Günstig vom Verbrauch und Preis wird es alle mal nicht. Außer es sind irgendwelche Abfälle aus Server / KI Segment.

Die Frage wird sein wie viel sparsamer wird der neue Fertigungsprozess sein, wenn die zusätzlichen ~4000 Shader was zum Arbeiten haben, bleibt das dann noch bei den 450 Watt?
Wie sich das alles mangels Konkurrenz entwickelt ist doch irgendwie doof. 1000er und 2000er Reihe war doch super Effizient, ab der 3000er Reihe sind die echt schluderig geworden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh