Ada-Testboard: Bis zu 900 W, 48 GB VRAM und mehr als zwei Stromstecker

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.902
h100-gpu.jpg
Es dürfte nur noch die wenigsten wirklich überraschen, dass NVIDIA derzeit mit der letzten Testphase für die nächste GeForce-Generation begonnen hat. Nach Ada Lovelace benannt wird die Mikroarchitektur wohl auf den Namen Ada hören.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
900Watt?
Frag mich, wie das noch unter Luft kühlbar sein soll oder wollen die eine 6 Slot Design bringen?
 
Denke nicht das diese Testboards mit Luft gekühlt werden... daher TESTboard... und nicht das finale Produkt...
 
Also mein Enthusiasten Herz schlägt bei dem Ausblick jetzt schon höher.
Wasserkühlung wird für High-End wahrscheinlich zur Pflicht.
Ich denke nicht, dass Luftkühler mehr als 500Watt gebändigt bekommen. Oder doch?
Obwohl... die 450W von der 3090Ti haben die meisten Kühler auch im Griff oder?
Hängt wohl auch mit der Chipgröße zusammen.
 
Es ist ein Testboard. Natürlich wird da groß bestückt. Kommt mal wieder runter.
 
Das ist höchst wahrscheinlich ein Testboard für HPC.

48GB bei 4000er desktop / consumer... forget it :p
 
900W - jedem Stromanbieter würde das sicherlich freuen xD
48 GB VRam wären für Workstations sicherlich nice. Für große Renderings bietet sich mehr Vram an.
 
Die sollen alle lieber die 3090ti Leistung bei max 200w bringen
 
Wenn NVIDIA ihr Testboard nicht mehr braucht, würde ich es gerne für einen Obligatorischen Euro abkaufen. Mit 48GB VRAM sicherlich geil zum rendern. Nie wieder Speicherprobleme :d
 
900Watt?
Frag mich, wie das noch unter Luft kühlbar sein soll oder wollen die eine 6 Slot Design bringen?
Vielleicht haben die einen Vertrag mit Watercool gemacht und bringen eine AIO mit Mora 🤪
 
Zuletzt bearbeitet:
Vielleicht haben die einen Vertrag mit Watercool gemacht und bringen eine AIO mit Mora 🤪
Ne da gibt es ja schon was viel besseres.

Das hier integrierte Kühlsystem für die CPU:

Das externe Kühlsystem für die GPU:

Und eine Aufnahme für 2 Netzteile gibt ja auch schon:
 
Mal sehen, ob Nvidia im oberen Mittelklasse- bzw. Mittelklassesegment (RTX 4070 bzw. 4060) Grafikkarten mit guter Effizienz hinbekommt. Von den High-End-Modellen dürfte das kaum zu erwarten sein eingedenk dieser Meldung. Mir kommt jedenfalls nur ein Zwei-Slot-Karte mit höchstens 250 Watt TDP in den Rechner.
 
Ne mal im Ernst ich hoffe da jetzt auf AMD mit dem Chipletdesign in 5nm und dem Riesen Infinity Cache von 2*256mb bei 256 Bit.
Anfangs lag die Schätzung bei 425 W nun hab ich auch 450W gelesen was ja wen die Leistung passt sie 5800X3D schon mal ne Spur angenehmer wäre !
Ich komme zwar von SLI und CF Fire Zeiten 600W und mehr muss heute nicht zwingend sein !
Das passt mal gar nicht ins Weltbild!
 
Zuletzt bearbeitet:
hat der raj kodouri damals bei der vega auch gesagt :fresse:
Vega ist optimiert extrem effizient. Das Problem war die Produktpolitik von AMD. Bei NV ist es doch inzwischen auch so. Eine 3090ti kann mit Abstand beide Enden den Effizienzscala anführen. Da wird für 5% Leistung 40% mehr Energie verheizt. Bei Intel der gleiche Unsinn...
 
Was soll daran besser sein? Mehr als 300w kann das ja nicht und da ist man mit 900w weit weg, bei der Abwärme fährt ein MO-RA schlitten mit dem System.
Bei 300 Watt hat das Teil ja - 30°C am Verdampferkopf, also kann das ja mehr Watt kühlen.
Aber ich hatte auch den Sarkasmus Tag vergessen, FALLS eine GPU solche Verbrauchswerte erreichen sollte, wäre es wohl besser vorher einen Fusion Reaktor ins Wohnzimmer zu stellen ( vorausgesetzt es gibt bis dahin schon so kleine Teile ).

Achtung die folgenden Vorschläge einer Kühllösung könnten Spuren von Sarkasmus und schwarzem Humor enthalten und sind nicht ganz ernstgemeint!

Hier mal ein älteres Video von 2015 wo Linus das Case verbaut:


Und dieses Video ist von 2020, da ist diese Kühllösung ein kleines bisschen aber wirklich nur ein bisschen Größer:


Will man aber nur mit Luft solche Monster GPUs kühlen, es wird ja immer von guten Airflow geredet, kein Problem.
Nur ein wenig lauter ist das schon:


Überall wird ja zum sparen angeregt und auch die Politik erlässt immer mehr Regelungen was maximal verbraucht werden darf aber hier muss mal ein Riegel vorgeschoben werden.
Wenn da plötzlich Verkaufsverbote wie ein Damokles Schwert über den Köpfen der Hersteller hängen und die Aktionäre nicht mehr die Rendite einfahren die sie gewohnt sind, wird vielleicht sehr schnell ein umdenken stattfinden.
Aber falls solche Verbrauchswerte kommen ergibt sich auch die Chance für Unternehmen oder auch Einzelpersonen hier günstige kleine Kühllösungen zu erfinden, die werden dann aber auch erstmal fürstlich bezahlt werden müssen.
 
Vega ist optimiert extrem effizient. Das Problem war die Produktpolitik von AMD. Bei NV ist es doch inzwischen auch so. Eine 3090ti kann mit Abstand beide Enden den Effizienzscala anführen. Da wird für 5% Leistung 40% mehr Energie verheizt. Bei Intel der gleiche Unsinn...
Weil Nvidia keiner kauft, wenn sie effizienter und langsamer als die Konkurrenz sind. Der 0815 User kauft, was schnell ist und ins Budget passt, ansonsten würde RDNA2 den Markt dominieren, aber dem ist nicht so.
 
Der 0815 User kauft, was schnell ist und ins Budget passt, ansonsten würde RDNA2 den Markt dominieren, aber dem ist nicht so.

RDNA2 kombiniert Leistung mit Effizienz, während Invidia nur auf Leistung setzt.
Welches Konzept sich am Enden durchsetzt wird man noch sehen müssen.
 
Der Witz ist eher die mangelhafte Optimierung obwohl technisch seit Jahren alles da ist und per Knopfdruck umgesetzt werden könnte. Der Einfluss der Architektur ist doch inzwischen zu vernachlässigen.
 
Bei diesen Verbräuchen sollte es gleich ein Paket mit Stromanbieter-Festpreis geben, totaler Irrsinn diese Entwicklung. Ich würde mir lieber eine Deckelung um die 350W wünschen und eine verbesserte Effizienz, aber solange das Leute kaufen wird das wohl so weitergehen :(
 
der hohe verbrauch ist das was mich am meisten abschreckt. ich habe schon meine 3080 undevolted und spare damit gut 100w bei fast gleicher leistung.
so einen stromfresser werd ich mir nicht mehr einsetzen. da liebäugel ich lieber mit einer rx 7900 xt, welche soweit ich weiss ca. 300w verbauchen wird.
bleibt abzuwarten wie sich die raytracing leistung entwickelt, wobei ich davon bisher kaum gebrauch gemacht habe. lediglich in cyberpunk 2077, nur für die spiegelungen.
bei schatten und licht macht es optisch für mich keinen großen unterschied, für die leistung die es dann frisst.

zumindest kann man sich dann eine elektroheizung im computerzimmer sparen. vielleicht eine alternative bei kommenden gasmangel und steigenden rohstoffpreisen :ROFLMAO:
 

Anhänge

  • NVIDIA RTX 4090.jpg
    NVIDIA RTX 4090.jpg
    171,6 KB · Aufrufe: 74
da liebäugel ich lieber mit einer rx 7900 xt, welche soweit ich weiss ca. 300w verbauchen wird.
Oha da kannst du lange liebäugeln, Das wird eher in Richtung 500W gehen bei 7950/7900.
Mit 300W bekommste ne 7700 oder so
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh