RTX 40 mit 900 W: Bilder sollen massiven Kühler zeigen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
Via Twitter wird auf einen Post im Chiphell-Forum verwiesen, der einige Fotos enthält, die einen Kühler für die GeForce-RTX-40-Serie zeigen sollen. Dieser Kühler wirkt auf den Bildern nicht nur deutlich wuchtiger, als es das aktuelle Modell der GeForce RTX 4090 nicht ohnehin schon ist, im Post ist sogar die Rede davon, dass dieser in der Lage sein soll, bis zu 900 W abzuführen.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Meiner Meinung nach sollte Hardware immer weniger Strom brauchen und immer weniger Abwärme produzieren.
 
Meiner Meinung nach sollte Hardware immer weniger Strom brauchen und immer weniger Abwärme produzieren.


Ja stimme dir zu. Aber grundsätzlich sollte eigendlich MINDESTENS Hardware bei der selben aufnahme eines models, mehr leistung bringen. Bei besseren verfahren. Ich meine wenn sonst nen top model 250 Watt verbraucht. ist es schon strange wenns auf 450 -550 watt auf einmal hoch geht.

Sagt für mich nur das die Karten sehr ineffizent sind.
 
Das Ding gehört ins Torrent :love:
 
 
Früher waren alle stolz drauf einen Motorblock mit 5L Hubraum zu haben, aber sowas will keiner? Da müsste man durch den Kühler mit kleineren 5cm dicken Rohrleitungen durchfahren und könnte das so in einen Wärmetauscher einbinden. ^^
 
Denke das sollte der Kühler einer Titan werden, da diese aber nicht mehr kommen soll, könnte es sein, dass wir ihn auf der 4090ti bekommen.
 
Sieht eher wie ein möglicher Testkühler für eine H100 aus, bzw. Dual H100, weil das DGX H100 System kann ja 8 GPUs aufnehmen - hat aber nur 4 Kühlblöcke- diese werden durch starke Lüfter im Gehäuse durchströmt - wie bei Servern üblich
explore-dgx-h100-1cc-d.jpg
 
Ja stimme dir zu. Aber grundsätzlich sollte eigendlich MINDESTENS Hardware bei der selben aufnahme eines models, mehr leistung bringen. Bei besseren verfahren. Ich meine wenn sonst nen top model 250 Watt verbraucht. ist es schon strange wenns auf 450 -550 watt auf einmal hoch geht.

Sagt für mich nur das die Karten sehr ineffizent sind.
Tatsächlich sind die neuen aber deutlich effizienter.
Langfristig bin ich gespannt wo es hingehen soll. Bei 2nm hat man schon deutliche Herausforderungen mit Teilchen, die sich einen Koffer für Gates und Grenzschichten interessieren.
Da hilft dann nur eine Architekturoptimierung und Leistungsverbessungen durch KI-Software.
 
Meiner Meinung nach sollte Hardware immer weniger Strom brauchen und immer weniger Abwärme produzieren.
Wenn dir ein Generationenwechsel durch Effizienzsteigerung -30% Strombedarf bringt, du gleichzeitig aber +100% mehr Rechenleistung willst sollte klar sein dass der absolute Strombedarf steigt.

Und da wir alle nicht mehr mit 1080p/60 zufrieden sind, sondern 2160p/120 wollen, braucht es eben +700% Power (4x Pixelzahl * 2x FPS= 800% oder +700%)

@Sweetangel1988
Absolute Leistungsaufnahme und relative Effizienz nicht durcheinanderwerfen.

Und undervolting nicht vergessen. -30% Leistungsaufnahme bei -5% Pixel-Power ist für ne 4090 realistisch, und sagt nix anderes als das NV das Brecheisen angesetzt hat.
Das sollte allerdings kein Maßstab zur Beurteilung der Effizienz sein.

Bitte generell nicht Leistungsaufnahme in W und Effizienz in FPS/W durcheinanderwerfen. Danke.
 
Zuletzt bearbeitet:
@Sweetangel1988

Absolute Leistungsaufnahme und relative Effizienz nicht durcheinanderwerfe
n.

Und undervolting nicht vergessen. -30% Leistungsaufnahme bei -5% Pixel-Power ist für ne 4090 realistisch, und sagt nix anderes als das NV das Brecheisen angesetzt hat.
Das sollte allerdings kein Maßstab zur Beurteilung der Effizienz sein.

Bitte generell nicht Leistungsaufnahme in W und Effizienz in FPS/W durcheinanderwerfen. Danke.


Ja trotzdem.. Alles steigt.
Ich meine Strompreise explodieren hier.
Bzw. auch weltweit allgemein. Dann mit karten mti 300-400-500 watt ankommen. Sowie dan noch zu unverschwämten preisen. Wie ne RTX 4070 und 4080 zu 100% Mehr aufpreis , zur vorgänger generation.
Ne 4090 sollte man sich eh nicht kaufenm wenn man was normales will. Ne xx70 sollte ans ich bei ca 200/250 watt liegen.
 
Ja trotzdem.. Alles steigt.
Ich meine Strompreise explodieren hier.
Aus dem Weg Geringverdiener!

Du kannst dir die Zahlen alle sehr genau anschauen. Aber doch bitte keine absurde Diskussion mit verdrehen Begriffen führen.

Und wenn dir alles zu teuer ist kannst du Tetris auf der IGP spielen und deine Grafikkarte verkaufen. Dann machst du sogar plus. Und brauchst keine 1070.
 
Die 4090 wird verbrauchsoptimiert immer deutlich effizienter als der Popelchip einer 4070 sein. Wer am Verbrauch sparen will kann das doch bitte mit der Wahl seiner Hardware tun. Damit hat sich das Thema dann auch erledigt. Mimimi braucht niemand.
 
Sagt für mich nur das die Karten sehr ineffizent sind.
Sind sie nicht.
Die RTX 4090 ist tatsächlich sehr effizient. Aber nVidia schmeißt diese Effizienz ab Werk schlicht und ergreifend in den Müll, indem man die Karte auf 450W aufgeblasen hat.
Die Tests zeigen ja, dass man die Karte auf 300W festnageln kann und dabei lediglich 10% Leistung verliert.
Bei diesen 300W ist die Karte deutlich performanter (ca. 80% mehr FPS im Schnitt bei 4K) als eine RTX 3090Ti bei gleichem Verbrauch. Die Effizienz liegt hier also deutlich höher.

Wenn man nun aber so dämlich ist wie nVidia (oder vielleicht verzweifelt, weil sie evtl. wissen, dass AMDs neue Karten noch deutlich besser werden? ) und die Karten ab Werk massiv über den Sweetspot prügelt, nur um in Benchmark eben noch diese 10% besser zu sein, gibt das Produkt letztlich ein ganz mieses Bild in Sachen Stromverbrauch ab.
 
Die 4090 wird verbrauchsoptimiert immer deutlich effizienter als der Popelchip einer 4070 sein. Wer am Verbrauch sparen will kann das doch bitte mit der Wahl seiner Hardware tun. Damit hat sich das Thema dann auch erledigt. Mimimi braucht niemand.
Deine Aussage ist unsinnig, es ist eben genau der kritische User den man braucht, ansonsten können wir alle auch gleich wie Lemminge die Klippe runterspringen.(auch wenn der aktuelle Hype um Hardware genau dieses Verhalten mutmaßen lässt^^)
Und davon mal abgesehen sollten ALLE verbrauchsorientierte Leben. Ja ich weiß interessiert niemand, nur gibts hier bestimmt auch Leute mit Nachwuchs....ach was rede ich eigentlich nach mir die Sinnflut :fresse2:
Beitrag automatisch zusammengeführt:

Sind sie nicht.
Die RTX 4090 ist tatsächlich sehr effizient. Aber nVidia schmeißt diese Effizienz ab Werk schlicht und ergreifend in den Müll, indem man die Karte auf 450W aufgeblasen hat.
Die Tests zeigen ja, dass man die Karte auf 300W festnageln kann und dabei lediglich 10% Leistung verliert.
Bei diesen 300W ist die Karte deutlich performanter (ca. 80% mehr FPS im Schnitt bei 4K) als eine RTX 3090Ti bei gleichem Verbrauch. Die Effizienz liegt hier also deutlich höher.

Wenn man nun aber so dämlich ist wie nVidia (oder vielleicht verzweifelt, weil sie evtl. wissen, dass AMDs neue Karten noch deutlich besser werden? ) und die Karten ab Werk massiv über den Sweetspot prügelt, nur um in Benchmark eben noch diese 10% besser zu sein, gibt das Produkt letztlich ein ganz mieses Bild in Sachen Stromverbrauch ab.
Die Effizient liegt höher gegenüber einer der ineffizientesten Karten auf dem Markt, fein gemacht :ROFLMAO:
So kann man sich massiv steigenden Stromverbrauch auch Schönreden ^^


Und zum eigentlichen Thema. Der abgebildete Kühler ist definitiv für ein Monster im Server-Bereich, wie ein Vorredner bereits erwähnte
 
Zuletzt bearbeitet:
Genug Tagespolitik.
@Sweetangel1988 musste den Thread leider verlassen
 
Die Effizient liegt höher gegenüber einer der ineffizientesten Karten auf dem Markt, fein gemacht :ROFLMAO:
So kann man sich massiv steigenden Stromverbrauch auch Schönreden ^^
Welche Karte ist denn auch nur annähernd so effizient wie die 4090?

Verstehe das Problem aber auch nicht wirklich: Wenn einem die Karte zu viel verbraucht, kann man ja das Powerlimit runter drehen.
 
Welche Karte ist denn auch nur annähernd so effizient wie die 4090?

Verstehe das Problem aber auch nicht wirklich: Wenn einem die Karte zu viel verbraucht, kann man ja das Powerlimit runter drehen.
Keine! Aber genau das ist es ja die Effizienz war vorher kacke und bessert sich jetzt mal erstmalig nach Jahren(was widerum mit den Samsung Chips nicht der Fall gewesen wäre), das lässt dann die Grafiken schön aussehen :d
und unter der Primisse das du insgesamt, aber mehr Strom brauchst. DENN die Grafikkarte, brauch ja auch nen schnellen Unterbau um entsprechend ihre Perfomance auszuschöpfen und dann sieht das schon wieder anders aus, wenn du verstehst worauf ich hinaus will.

Ich find die 4090 als Hardware toll, das drum herum ist einfach nur zum Kopfschütteln. Seien es die Kosten oder eben blinder Konsum ( es sind nur die FHD-Experten gemeint^^) Die Karte liefert ja auch wirklich BOMBEN-Performance im Produktiv-Bereich. Mein Enthusiasten-Herz wird immer bluten, wenn die Hardware nur zum Schaustellen benutzt wird.
1666269312395.png

Quelle
 
Ist doch klar, dass das Bild den Prototyp einer Noctua-Edition zeigt.
Die muss mindestens im selben Verhältnis grösser sein als die Noctua im Vergleich zu den 3000er Kühlern war. Und da der 4090-Kühler schon riesig ist.... geht halt nicht anders. 😁
 
Noctua Edition könnte mich als einzige Ada schwach werden lassen... oooooof
(sonst wirds eine 5070)
 
Meiner Meinung nach sollte Hardware immer weniger Strom brauchen und immer weniger Abwärme produzieren.
Aha, ist ja toll. Und wie genau möchtest du das physikalisch umsetzen? Die Zeiten, in denen man in der Fertigung alle zwei Jahre drastische Verkleinerungen erreichen konnte, sind für immer vorbei.
 
Ein Traum, mit dem Brummer auch unter Volllast quasi lautlos unterwegs zu sein
 
Früher waren alle stolz drauf einen Motorblock mit 5L Hubraum zu haben, aber sowas will keiner?

Das wollen bestimmt immer noch viele, und die, die so etwas haben, haben dann aber in der Regel auch noch ein Zweitauto mit weniger Verbrauch oder das läuft auf Firmenkosten :) Die Karre läuft dann mal zehn Minuten am Wochenende, um die Nachbarschaft wachzupusten und die restliche Zeit fährt der Prius.
Bei Grafikkarten macht das so natürlich keinen großen Sinn
 
Bei einer GPU mit 900W unter Last braucht man in einer 1-Zimmer-Wohnung ja keine Heizung mehr im Winter. Ist ja dann quasi nur linke Hosentasche, rechte Hosentasche, oder nicht? :d :fresse:

Eine 900W GPU ist in der heutigen Zeit genauso daneben wie ein Monster-SUV mit 600 PS. Absolut dämlich.

(Soll keine SUV Diskussion werden ... fahre selber einen, aber nur wegen der 7 Sitze und meiner hat da nur ein Bruchteil der PS)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh