Blackwell-GPUs: Kein breiteres Speicherinterface für den Ada-Lovelace-Nachfolger

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.157
Noch immer ist die Datenlage rund um den Ada-Lovelace-Nachfolger bei NVIDIA recht dünn. Es dürften aber auch noch ein paar Monate vergehen, bis die Backwell-Karten das Licht der Welt erblicken werden. In der aktuellen GeForce-RTX-40-Serie sind 384 Bit das Maximum an Breite, über die der GDDR6X angebunden werden kann.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hauptsache die ersten GDDR7 Chips werden nicht so heiß wie die ersten GDDR6X Chips. Ich denke es bleibt beim 384 Bit Interface.
 
„Kritik“ im Sinne von das ein gleich großes oder gar kleineres Speicherinterface automatisch schlechter sein muss?

Ich meine, man schaue sich einfach PCIe 3.0 16x vs. PCIe 4.0 8x an…
 
Wer ernsthaft in der aktuellen Konkurrenzsituation und mit Blick auf die Ankündigungen und Gerüchte zu RDNA4 damit gerechnet hat, dass NV ausgerechnet jetzt das erste 512Bit-Speicherinterfache seit 2008 raushaut, ist komplett ahnungslos und naiv.
 
Allgemein relativ sinnfreie Debatte. Clamshell bzw. pseudo Channel, 2-channel, 4-channel dazu noch mögliche 3GB Chips, solange die 32-byte(2x16bit) Granularität gewahrt bleibt die GDDR7 soweit ich weiß auch hat kann man in der Gesamtkapazität alle möglichen Kombinationen fahren.

Würde eher sogar auf 256bit setzten für die ersten high end, ich hab mir aus seriösen Quellen sagen lassen Jensen möchte ein eckiges Schwein durch ein rundes Loch schieben.
 
Wer ernsthaft in der aktuellen Konkurrenzsituation und mit Blick auf die Ankündigungen und Gerüchte zu RDNA4 damit gerechnet hat, dass NV ausgerechnet jetzt das erste 512Bit-Speicherinterfache seit 2008 raushaut, ist komplett ahnungslos und naiv.
Sehr ich ähnlich, AMD ist high end eh raus und muss es über den Preis machen, auch wenn dieser bei AMD immer noch hoch ist. Die Marktanteile sind halt leider eindeutig.
 
Lovelace wird doch für AI entwickelt. Breiterer speicher macht da mehr sinn. Alles sehr interessant
 
ist aber auch ein hin und her :d
 
So ist es oftmals eben, wenn es zu kommenden Produkten lediglich Gerüchte gibt. ;)
 
3 Balken darunter ist auf der Hauptseite - etwas anderes - passend mit Gerüchte Küche markiert.

Vielleicht sollte man es einheitlich mit Gerüchte Küche markieren? Oder ähnliches passendes.

Es gibt ja diese roten Kästchen mit Test. Vielleicht ein rotes Kästchen mit Gerücht?
 
3 Balken darunter ist auf der Hauptseite - etwas anderes - passend mit Gerüchte Küche markiert.

Vielleicht sollte man es einheitlich mit Gerüchte Küche markieren? Oder ähnliches passendes.

Es gibt ja diese roten Kästchen mit Test. Vielleicht ein rotes Kästchen mit Gerücht?
Tatsache, wenn es an Nvidias Produkte geht ist das schlimmer als bei jedem Kaffee Kränzchen. Gibt es in der Bravo inzwischen eine Nvidia Rubrik?
 
Generell würde ich aus heutiger Sicht jederzeit eine AMD GK Vorziehen wenn ich wählen müsste zwischen AMD und Nvidia.
In der Vergangenheit hat sich Nvidia zu viele Patzer geleistet. Oft mit Speicher gegeizt und den Kunden vorenthalten wie schnell die GK Modelle angebunden waren (VRam) .


Wage schon gar nicht mehr die Probleme der 4XXX Serie aufzuführen.
Man sollte sich selbst mal die Frage stellen wie Blind man sein muss DAS ALLES zu Ignorieren ?
Absicht , Sturheit , Unwissenheit wobei letzteres eher ausgeschlossen werden kann.
Es mag sein das AMD nicht soviel Leistet wie eine Nvidia ,dafür arbeitet Sie Stabiler , und zuverlässiger.
GERADE DIESE BEIDE PUNKTE kann man bei Nvidia Nicht finden.
Mein Focus liegt eher auf Stabilität , gute Treiber und Funktionierende Hardware. Ich muss nicht jedes noch so kleine Fitzelchen FPS aus irgendwelchen Ecken Rausquetschen nur damit ich anstelle 150 FPS dann 200 FPS habe (Beispiel) und 4 Wochen später stehe ich wieder vor dem Computershop und kaufe mir die gleiche dumme GK von Nvidia weil ich es einfach nicht raffen will.
 
Wage schon gar nicht mehr die Probleme der 4XXX Serie aufzuführen.
Man sollte sich selbst mal die Frage stellen wie Blind man sein muss DAS ALLES zu Ignorieren ?
Absicht , Sturheit , Unwissenheit wobei letzteres eher ausgeschlossen werden kann.
Es mag sein das AMD nicht soviel Leistet wie eine Nvidia ,dafür arbeitet Sie Stabiler , und zuverlässiger.
GERADE DIESE BEIDE PUNKTE kann man bei Nvidia Nicht finden.
Mein Focus liegt eher auf Stabilität , gute Treiber und Funktionierende Hardware. Ich muss nicht jedes noch so kleine Fitzelchen FPS aus irgendwelchen Ecken Rausquetschen nur damit ich anstelle 150 FPS dann 200 FPS habe (Beispiel) und 4 Wochen später stehe ich wieder vor dem Computershop und kaufe mir die gleiche dumme GK von Nvidia weil ich es einfach nicht raffen will.
Findest du nicht, dass du dies etwas zu einseitig zusammengefasst hast? ;)
 
Findest du nicht, dass du dies etwas zu einseitig zusammengefasst hast? ;)
Bei Starfield hat man allerdings gemerkt, das Nivida auch ne Blase ist. Haben sie nicht genug Zeit ihre Treiber zu optimieren sind sie sogar leicht hinter AMD.
Nur der Unterschied ist hier auch das es eher 70-80% umgekehrt ist. Nvidia hat immer oder häufig ein Vorrecht mit zu entwickeln und die anderen bekommen gerade mal eine Woche vor Release Zugang.

Intel ex. Nvidia Mitarbeiter der Grafik Divison hat das in einem GamersNexus Beitrag/Interview erwähnt wie es läuft. Weil sauberes Debugging halt Zeitaufwändig ist schafft man das nicht zum Release das die Treiber optimal Performen. Wenn die das schaffen versuchen sie erstmal Bugs auszumerzen. #0 Day Treiber

Jemand der AMD Karten auch schon hatte, weiß aber das spätestens nach 4 Wochen in der Regel alles butterweich läuft. Deshalb auch immer die Argumentation die AMD Treiber sind scheiße etc.

Aber ich teile dene Position der Einseitigkeit, auch bei AMD lief nicht immer alles Rund bezüglich der Hardware. Dort gab es auch technische Probleme die teilweise nur durch Firmware upgrades behoben werden konnte. z. B der VEGA Block vor RDNA hatte seine Probleme.

Der Unterschied ist bei AMD wird immer drauf geritten und bei Nvidia wird das immer relativ schnell vergessen gemacht.
Da kommt Lederjacke um die Ecke und zeigt was für ein toller Bäcker er ist. Dann ist auch alles wieder vergessen :fresse:
 
Der Unterschied ist bei AMD wird immer drauf geritten und bei Nvidia wird das immer relativ schnell vergessen gemacht.
Da kommt Lederjacke um die Ecke und zeigt was für ein toller Bäcker er ist. Dann ist auch alles wieder vergessen :fresse:
Das sehe ICH anders und besonders ist mir das GTX-970-Debakel negativ in Erinnerung geblieben. Klar ist bei NVIDIA auch nicht alles Gold, was glänzt. Für mich persönlich liefern die Karten von NVIDIA jedoch das rundere Produkt ab. Aber das kann und darf jeder unterschiedlich auffassen.
 
Das sehe ICH anders und besonders ist mir das GTX-970-Debakel negativ in Erinnerung geblieben. Klar ist bei NVIDIA auch nicht alles Gold, was glänzt. Für mich persönlich liefern die Karten von NVIDIA jedoch das rundere Produkt ab. Aber das kann und darf jeder unterschiedlich auffassen.
Ja das kommt auch so rüber, aber das ist eben bedingt du durch den einkauften early Access den es seit Jahren bei Nvidia gibt.
Das Partner Programm wurde ja eingestampft, aber es gibt ja noch eins was nur nicht mehr ganz so extrem restriktiv ist.

Ohne early access bei der Großen Titeln, wären auch die Nvidia Karten nicht zum Launch so "super". Hier hat Nvidia halt Markt Vorherrschaft.
Teilweise gibt von Nvidia sogar zu Open Beta releases einen 0-Day Treiber.
Das geht nur wenn du schon lange vor der öffentlichen Beta Zugang hast.
Besonders krass sieht man dieses Problem bei Intel. Das ist nicht nur weil die grundsätzlich neu auf dem Markt und nicht so erfahren sind, die hängen noch tiefer in der Nahrungskette hinten dran bei rechtzeitigem Zugang zu Ressourcen.
 
Bin seit GeForce 2 dabei und keine Probleme mit NVIDIA gehabt. 2x mal ATI und einmal AMD gehabt und nur Probleme.

So macht jeder seine Erfahrung.
Die Sache mit der 970 war nicht fein.
Die RTX 2080 TI betraf die FE oder Karten die daran angelehnt waren , weil der Vram zu nah am PCIE Slot war . Konstruktionsfehler.
Ähm 3000er Serie stehe ich auf dem Schlauch . Hatte ne Ref. Karte unter Wasser und konnte den Speicher noch gut übertakten . Keine Ahnung was da war .

Die Stromstecker Geschichte hier bei der 4090 ist blöd , aber auch hier hab ich ne Karte seit Release und das Corsair Kabel.
Bisher noch nichts passiert . Toi toi toi .

Vom Treiber her waren es wenige die Probleme machten .

Bei AMD hat man nachdem was man liest immer das Gefühl , dass man genau drauf achten muss welchen Treiber man installiert und man nicht einfach immer den neusten nehmen kann.

Zudem finde ich die Sachen die Nvidia bringen interessanter und besser. DLSS , DLDSR, FG , RTX HDR seit neusten. Gsync Module bin ich auch seit Jahren ein Fan von. AMD hat aber nachgeholt , aber vorgelegt hat Nvidia. Vulkan API kam anfangs von AMD und das fand ich gut.
Hoffe das durch Steam OS etc. Irgendwann auch volle Alternativen zu Windows gibt.
 
Bei Starfield hat man allerdings gemerkt, das Nivida auch ne Blase ist. Haben sie nicht genug Zeit ihre Treiber zu optimieren sind sie sogar leicht hinter AMD.
Nur der Unterschied ist hier auch das es eher 70-80% umgekehrt ist. Nvidia hat immer oder häufig ein Vorrecht mit zu entwickeln und die anderen bekommen gerade mal eine Woche vor Release Zugang.

Intel ex. Nvidia Mitarbeiter der Grafik Divison hat das in einem GamersNexus Beitrag/Interview erwähnt wie es läuft. Weil sauberes Debugging halt Zeitaufwändig ist schafft man das nicht zum Release das die Treiber optimal Performen. Wenn die das schaffen versuchen sie erstmal Bugs auszumerzen. #0 Day Treiber

Jemand der AMD Karten auch schon hatte, weiß aber das spätestens nach 4 Wochen in der Regel alles butterweich läuft. Deshalb auch immer die Argumentation die AMD Treiber sind scheiße etc.

Aber ich teile dene Position der Einseitigkeit, auch bei AMD lief nicht immer alles Rund bezüglich der Hardware. Dort gab es auch technische Probleme die teilweise nur durch Firmware upgrades behoben werden konnte. z. B der VEGA Block vor RDNA hatte seine Probleme.

Der Unterschied ist bei AMD wird immer drauf geritten und bei Nvidia wird das immer relativ schnell vergessen gemacht.
Da kommt Lederjacke um die Ecke und zeigt was für ein toller Bäcker er ist. Dann ist auch alles wieder vergessen :fresse:
Zwei Späße, die mir bei AMD einfallen:

- Es hat irgendwas um die vier Jahre gedauert, bis Dolby Atmos über HDMI endlich funktionierte.
- Es gibt separate Grafiktreiber für die aktuellen iGPUs des 7840u. Davon gibt es dann nochmal eigene Treiber für die Z1 Ableger in den Handheld. Mein Legion Go ist Stand heute noch immer auf 2023 Treibern ohne AFMF.

Bei NVIDIA: Ich hatte mal einen GSync-Bug bei Notebook-Grafikkarten in Verbindung mit externen Monitoren entdeckt. Im 3DCenter angesprochen. Wurde ich per PM kontaktiert, habe es an NVIDIA weitergegeben und zwei Treiber später war es gefixt.

Wenn die Preise nicht zu überhöht sind (also wenigtens unter 2.500 EUR) wird nächste Jahr ein schöner 5090 Desktop gebaut.
 
Ein Speicher Interface kostet Geld und das hat Nvidia schlichtweg nicht,
Huangs Jacken sind dafür viel zu teuer. :-)
 
s hat irgendwas um die vier Jahre gedauert, bis Dolby Atmos über HDMI endlich funktionierte.
Wie viele Jahre hat es gedauert bis Nvidia Adaptive Sync akzeptiert/freigeschalten hat?
Was übrigens auch ein Standard bei DP ist.

Es gibt separate Grafiktreiber für die aktuellen iGPUs des 7840u. Davon gibt es dann nochmal eigene Treiber für die Z1 Ableger in den Handheld. Mein Legion Go ist Stand heute noch immer auf 2023 Treibern ohne AFMF.
Ich hab ne Nvidia Shield Pro, seit über einem Jahr 0 updates, Nintendo Switch hat auch einen Nvidia Tegra.
Weil es Nvidia ist wird es wohl nie Upscaling geben erst mit der neuen Switch Edition, weil der ältere Tegra in der Switch wohl keine Tensor Cores hat.

Kann man drehen wie man will.

Wie viele User Betrifft es bei der Switch / Nvidia Shield und wie viele bei einem Legion Go?
 
Der einzigen Grund, den ich mir für 512Bit vorstellen kann, ist, dass GB202 wirklich eher für professionelle Karten, also RTX x000 Blackwell entworfen wurde, um dort das fette Geld zu machen, während wir als 5090 vielleicht nur den Ausschuss in Form eines 3/4-GB202 (144SM in 9GPC und 384Bit) bekommen und glücklich darüber sein dürfen.
 
Wage schon gar nicht mehr die Probleme der 4XXX Serie aufzuführen.
Man sollte sich selbst mal die Frage stellen wie Blind man sein muss DAS ALLES zu Ignorieren ?

Die 4000er Generation von Nvidia (abgesehen vom Preis und Stromstecker) ist doch genial und deutlich besser als die AMD Karten? Gibt es eigentlich auch keine zwei Meinungen zu. So viele Leute hatten lange Probleme beim Stromverbrauch im Idle mit AMD-Karten, ebenso haben lange Features bei AMD gefehlt, die versprochen wurden. Die Nvidia Karten laufen und laufen und das quasi problemlos. Dazu super effizient. Meine 4080 mit 250 Watt Limit läuft bisher ohne einen Fehler oder Absturz und liefert immer 4k + Raytracing Performance.

Bei der 5000er Generation kann ich mir aktuell auch noch alles vorstellen, weil man nicht weiß wie Nvidia mit AI umgehen wird. Ich tippe ja auf normal 5080er und 5090er Karten mit 16-24GB und zusätzlich dann eine 5090 TITAN mit 48GB und 512Bit Interface. Dafür wird diese Karte auch 4999€+ kosten. Eben keine Gamerkarte mehr.

Ich meine aktuell kann Nvidia quasi eine 4090er mit mehr RAM auch für über 5000€ verkaufen. Warum sollte man sich da mit einer 5090 Konkurenz machen und dort für unter 2000€ 32GB+ und 512Bit Interface liefern?
 
Es wird spekuliert das GB202 ein MCM Design mit 512-Bit-Interface wird (GB203 ist laut Gerüchten die hälfte von GB202 mit 256-Bit-Interface). Wenn dem so sein sollte ergibt das durchaus Sinn. Die Frage ist aber ob dieser GB202 Chip dann auch tatsächlich mit diesen vermuteten Specs die RTX5090 wird. Das kann ich mir nähmlich nicht wirklich vorstellen. Wenn man sich die Specs ansieht die zu GB202 im Raum stehen, beschleicht mich das Gefühl dass es sich hierbei um einen Vollausbau handelt. Ich glaube aber nicht das die RTX5090 den Vollausbau bekommt, dass wäre schon ungewöhnlich.
 
vielleicht kommt ja eine 5090ti oder sogar rtx titan rtx :d
ich bringe mal wieder den 4er slot ins spiel :d (war vielleicht garnicht für die 4000er gedacht, sondern schon für die nächste generation, wer weiß)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh