Blackwell Smalltalk Thread (RTX 5000er Reihe)

  • Ersteller Gelöschtes Mitglied 102156
  • Erstellt am
Mir ist die TDP auch egal. Die 5090 wird gekauft und fertig. Kaum zu glauben, dass die 4090 schon fast zwei Jahre in einem meiner Systeme werkelt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Ich sehe jetzt schon das Geheule und Bashing wenn der Release näher rückt mit den 600W :ROFLMAO: 🤦‍♂️ denke mal Nvidia bzw die Boardpartner werden dann nicht mehr viel zulassen was noch obendrauf kommt so wie bei der 4090 mit extra 150watt

Ich würde mal behaupten 80-100watt geben sie uns vlt noch frei wobei man sagen muss dank DLSS+FG kommt man NIE!!!! im ansatz in solche Bereicht da ist man immer im Bereich von 300-450Watt (Je nach auflösung etc)
 
Nein 1x 16pin ist für 600watt "Offiziell" ausgelegt daher wundert es mich nicht das Nvidia bei der 5090 das auch voll ausreizen tut

Die Realität zeigt aber das selbst 1000watt kein Problem sind
 
53663.jpg
:d:hust:
 
Dann gesellt sich AMD zu einer illustren Runde am Lagerfeuer und im Gebüsch ruft die 5090 ob noch ein Platz frei ist am Lagerfeuer :ROFLMAO:
 

Ich sehe jetzt schon das Geheule und Bashing wenn der Release näher rückt mit den 600W :ROFLMAO: 🤦‍♂️ denke mal Nvidia bzw die Boardpartner werden dann nicht mehr viel zulassen was noch obendrauf kommt so wie bei der 4090 mit extra 150watt

Ich würde mal behaupten 80-100watt geben sie uns vlt noch frei wobei man sagen muss dank DLSS+FG kommt man NIE!!!! im ansatz in solche Bereicht da ist man immer im Bereich von 300-450Watt (Je nach auflösung etc)

Warum sollten die Custom Karten nicht 2 Stromanschlüsse haben? Denke ne strix wird das haben. Wird dann nur schwierig mit Luftkühlung. Die Kühler die wir aktuell haben auf der 4090 waren auf 600 Watt ausgelegt.
Denke die nächsten Karten werden nicht mehr so leise. Naja für manche regelt dann Mora 600…
 
Laut Leaks werden die Kühler bis auf "Anpassungen" als Grundgerüst von der 4090 kommen und da hat man gesehen wie Hervorragend die waren und die kamen mit den 600watt gut zurecht und wenn die 600watt stimmen gibt es keinen bedarf für 2x16pin weil 1x16pin dafür ausgelegt ist "Offiziell" und 2x16pin muss man wieder mit Adaptern arbeiten weil Kaum ein Netzteil 2x 16Pin nativ hat ausser diese 1600watt+ Dinger und das wird nach dem Ganzen abgefackelten 4090 eher die Partner abschrecken 2x 16pin auf 4 Pin adapter bei zu legen oder 2x16pin auf 1x 16pin

Lediglich die 4090 HOF hat 2x16pin aber auch nur weil sie ein XOC BIOS hat bzw man dort die Vcore anheben kann über die Software
Daher ist meine Vermutung das sowas MAXIMAL wieder eine HOF hat oder eine Matrix oder Kingpin (falls die gerüchte stimmen sollten) aber ne Strix und Tuf und co wird denke ich bei 1x 16pin bleiben

Was natürlich auch sein Kann das Nvidia diesmal einen Harten TDP oder Vcore Lock macht um die 600Watt nicht zu übersteigen weil sie es eben schon von Werk aus anheben weil man hat gesehen die 1,1V sind der Absolute Sweetspot gewesen und eine Vcore erhöhung kaum bis garnix gebracht hat und die Effizienz massiv verschlechtert hat

Auch meine zukünftige 5090 freut sich über einen Supernova 1260 xD
 
Zuletzt bearbeitet:
Nein 1x 16pin ist für 600watt "Offiziell" ausgelegt daher wundert es mich nicht das Nvidia bei der 5090 das auch voll ausreizen tut

Die Realität zeigt aber das selbst 1000watt kein Problem sind
Ich weiß ist OT und ich meine das wirklich nur als netten Hinweis: bitte hör auf überall ein "tut" hinten dran zu stellen. Das ist echt übel... ✌️
 
Laut Leaks werden die Kühler bis auf "Anpassungen" als Grundgerüst von der 4090 kommen und da hat man gesehen wie Hervorragend die waren und die kamen mit den 600watt gut zurecht
Also meine 4090 wird bei 600W sehr laut und heiß. Hat dann eher wieder an meine 3090 erinnert von der Lautstärke und wenn die neuen Karten so klingen, wäre das ein massiver Rückschritt. Der Kühler der 4090 ist nur hervorragend weil er überdimensioniert ist, besonders wenn man noch UV betreibt. Wenn da jetzt eine 5090 mit 500W kommt und die die tdp auch ausreizt, werden das wieder Düsenjets wenn der Kühler nicht größer wird. Da braucht man sich dann zumindest über Spulenfiepen keine Gedanken machen wenn man auf Luft bleibt.
 
Es wird keinen gb202 auf dem desktop geben der chip misst 823mm² in n4p node kostet ab 392$

Ein gb203 der halbe chip kostet 171$

Das 512bit Si ist das problem und völlig überzogen aber aufgrund des design nicht abwendbar.
Wieso das nvidai tut liegt am Vorbereitung des mcm den es sollen mehrere Masken verbunden werden und die verbundstelle ist die Trennlinie zwischen den chips diese kann auch planar gekoppelt werden. mittels cowos auf einen Si interposer
Das wird es erst ab a18 node geben. Und somit mt rubin arch 2028
gut möglich das ein gpc dann 36sm sind und es dann 12gpc a36sm werden =432sm davon aktiv 408
ein chip hat dann 2 gpc =72sm 68sm aktiv
Eine Maske hat 144sm zwei Masken ergeben gr203 drei gr202
Am desktop wird es dann nur gr203 geben mit maximal 272sm
 
Also meine 4090 wird bei 600W sehr laut und heiß. Hat dann eher wieder an meine 3090 erinnert von der Lautstärke und wenn die neuen Karten so klingen, wäre das ein massiver Rückschritt. Der Kühler der 4090 ist nur hervorragend weil er überdimensioniert ist, besonders wenn man noch UV betreibt. Wenn da jetzt eine 5090 mit 500W kommt und die die tdp auch ausreizt, werden das wieder Düsenjets wenn der Kühler nicht größer wird. Da braucht man sich dann zumindest über Spulenfiepen keine Gedanken machen wenn man auf Luft bleibt.
Lautstärke ist immer subjektiv und nimmt jeder anders wahr 😅 und einen Tod wird man sterben müssen bei 600watt entweder Lautstärke oder Temperatur

Wenn die Hersteller nur mal paar Cent mehr investieren würden für gute WLP dann wären viele Probleme nicht gegeben und die Temperaturen würde nicht so nach oben schnellen

Ich denke viel größer werden sie nicht werden vlt 1 heatpipe mehr dazu noch eine neue vaper chamber und vlt machen sie die Lüfter einen ticken Größer
 
ist schon sehr witzig, am Anfang hieß es noch von den "Leakern", dass die 5090 FE ein 2 - 2,5 Slot Design wird, jetzt auf einmal wieder 600W, also nichts mit 2 Slots (außer es kommt ne AIO drauf oder es wird sehr laut :d)
 
Naja, der Kühler, den nVidia für die 4090 Ti in der Entwicklung hatte, ist imho mehr als nur einen ticken größer.

Sollte der für die 5090 FE recyclet werden (einen sinnvoll machbaren Umbau auf Wakü kannste bei so einer Karte imho knicken:cry:), weiß man schon, das die Reise eher in Richtung 600W geht als zu weniger TDP (Aussage von dem Heini vor ein paar Wochen zu den Notebook-Chips).
Aber irgendwie auch plausibel, solange der Prozess nicht gewechselt wird und die Einheiten-Anzahl tatsächlich so stark steigt, wie bei der 512Bit-Variante genannt.

@hwk
Ist keine direkte Antwort auf Deinen Post, sondern auf den Post vor Deinem. Bin nur zu langsam gewesen.
 
Wenn da jetzt eine 5090 mit 500W kommt und die die tdp auch ausreizt, werden das wieder Düsenjets wenn der Kühler nicht größer wird. Da braucht man sich dann zumindest über Spulenfiepen keine Gedanken machen wenn man auf Luft bleibt.

Das zieht ja auch noch eine Reihe weiterer Probleme mit sich. Die ganze Abwärme muss ja irgendwo auch hin. Wenn ich da die ganzen beliebten O11 Aquarium Builds denke. Das wird ne heiße Kiste.

Trotzdem denke ich immer noch das man +50% Rohleistung anstreben wird. Beim (fast) gleichen Fertigungsprozess geht das ja wohl eh nur über ein stark steigendes TDP bzw. Sweetspot eher Richtung 450-500W statt etwa 350 Watt wie jetzt bei der 4090.
 
Ja selbst wenn du dann UV betreibst sind es je nach dem 450 Watt im Schnitt was die Karte ggf. Verbraucht. Das ist schon viel Abwärme im Case. Habe ca. bei der 4090 80 Watt weniger im Schnitt , weil ich von 1,05V auf 0,975 V runter bin. Trotzdem heizt es sich gut auf und habe ein Airflow Gehäuse.
So bei 250-300 Watt alles entspannt bei vielen Games, aber bei manchen Games geht’s dann trotzdem Richtung 400 Watt und das ist schon krass. Stock finde so oder so zu heftig. 600 Watt PL einstellen im Alltag und 1,1 V ist viel zu laut und sehr viel Abwärme.
So sehe ich das zumindest. Weiß nicht warum das Benjamin als Sweetspot bezeichnet. Nvidia hat bei den neueren Chips sogar auf 1,07 V Max runter gesetzt.

Also die 5090 wird ein heißes Teil und da muss man mal schauen was da Richtung undervolting geht. Die 4090 hat ja mega viel Potential in der Richtung. Da kannst die Spannung senken und noch übertakten.
Finde da liegt der sweetpoint je nach Güte irgendwo im Bereich 0,95-1V je nach dem was man anstrebt.
 
Weiß nicht warum das Benjamin als Sweetspot bezeichnet
Ganz einfach weil im OC Forum jemand die Voltage auf über 1,2 oder sogar 1,3V gesetzt hat mittels Elmor EVC und das Performance plus nur noch im 1 stelligen % Bereich gewachsen ist aber der Verbrauch jenseits von gut und Böse in die luft gegangen ist glaube bei über 1,2V waren es schon an die 800Watt und mit 1,3V waren es dann knapp 950Watt (Er hatte das mal in einem Diagramm gezeigt)
Daher hat Nvidia die 1,1V als Perfekten Sweetspot gewählt wo Perfomance und Verbrauch im Einklang stehen

Und wo sind den 400Watt heutzutage viel? Wer in 4k Ultra mit Path Tracing Ultra +DLSSQ + FG zocken will muss ganz klar damit leben selbst mit Ultra UV wem das zuviel ist muss bzw darf sich keine XX90 Karte kaufen weil das ist nun mal der Standart geworden (Leider) bloß wir haben mittlerweile viele 4k 240hz Monitore die im Markt angekommen sind und die wollen nun mal Befeuert werden was eben je nach Anspruch zum teils nur eine XX90 Karte kann und da gilt der Leitspruch "Wer High End will muss mit High End verbrauch Leben" war immer so und wird immer so bleiben
Nvidia hat bei den neueren Chips sogar auf 1,07 V Max runter gesetzt
Da streiten sich bis heute die Geister es deutet vieles darauf hin wegen dem 16pin Anschluß das dort keiner mehr abfackelt aber alles nur Spekulation so genau weiß es keiner
 
Zuletzt bearbeitet:
Und wo sind den 400Watt heutzutage viel?

Ist dann viel, wenn sich die Hitze im Gehäuse staut und man durch eine offene Seitenwand deutlich bessere Temps erreiche. Es beeinflusst auch die Temps der CPU.
Bei 250-300 Watt bekomme ich die Abwärme gut abgeführt, dass es weniger ein Unterschied macht. Ich habe schon das Corsair 7000d Airflow. Daher ist das schon viel und 600 Watt unter Luft selbst in einem guten airflow Gehäuse wird geschlossen wirklich nicht ohne sein.

Als ich die letzten Jahre 1080TI, 2080TI, 3090 im Mora 420 Kreislauf hatte, hat das keine Rolle gespielt. So wie es für dich mit dem Supernova weniger ne Rolle spielt.

Was die Sache mit dem Verbrauch angeht hat die Erziehung von Nvidia gut funktioniert bei dir. Sonst waren viele Jahre 250W TDP Highend Karten 👍🏻

Früher hat man Fermi, Thermi genannt .
Heute wäre das nach deiner Ansicht eine Stromspar GPU.
 
Was die Sache mit dem Verbrauch angeht hat die Erziehung von Nvidia gut funktioniert bei dir. Sonst waren viele Jahre 250W TDP Highend Karten 👍🏻
250watt das waren 1080ti Zeiten und die sind soooooo lange vorbei :LOL:
Die Ansprüche haben sich um ein Vielfaches geändert was früher 1080p 144hz waren sind jetzt 4k 240hz und das will eben gefüttert werden da kommst du mit 250watt TDP nicht mehr hin

Und die Technik hat sich so schnell weiter entwickelt aber das geht halt auch mit entsprechenden Verbrauch einher und ist eben der Standart geworden wer das nicht will muss eben eine XX60/70 kaufen weil dort hat man seine 250watt

Heute wäre das nach deiner Ansicht eine Stromspar GPU.
Definitiv wenn ich sehe wo wir jetzt sind aber ich sehe eben auch was heutige GPU Leisten können und teil auch müssen je nach Anspruch
Deswegen kann ich mit den 600watt auch entspannt leben weil ich weiß was die Karten leisten können
 
Zuletzt bearbeitet:
@MS1988 Untervolting mit einer manuellen V/F-Kurve ist beim Thema Verbrauch aber auch nicht immer so eindeutig.

Da kannst du eine low-level Benchmark, wie Heaven aus 2007 nehmen. Der brauch z.B. mit 2800mhz @ 0.975v nur 250 Watt. Anspruchsvollere Anwendungen, gerade wenn es auch Richtung RT geht brauchen für die gleichen Setting (2800mhz @ 0.975v) dann plötzlich viel mehr Leistung. Furmark 2 schon 450 Watt und das Heftigste ist wohl der OCCT Stabilitätstest.

UV_Heaven.jpg 615W.jpg

Eindeutiger ist es da halt mit einem Powerlimit zu arbeiten.
 
Ja schon, aber zwischen Spannung X und Stock ist aber immer ne Differenz vorhanden was den Verbrauch angeht und was ich auch beobachtet habe. Habe zb. Game X 0,975V 350 Watt Leistungsaufnahme und bei Stock 420 Watt. Dann Spiel Y @ 0,975V 250 Watt und Stock 320 Watt . So war bisher immer meine Beobachtung. Man kann dann immernoch hingehen und das PL auf einen Wert setzen wo dieser nicht überschritten wird. Letztendlich schaffe ich durch das UV ein besseres Performance/Watt Verhältnis.
 

Es gibt neues Futter :ROFLMAO: Scheinbar hat die 5090 "nur" 550watt und der 4090 FE Kühler war schon für 600watt ausgelegt und wird nur mit kleinen Änderungen wiederverwendet was komplett abzusehen war daher wird es warscheinlich genauso bei den Custom modellen sein vlt andere optik aber das grundgerüst wird das selbe sein

Was ich nur nicht verstehe warum die von Wasserkühlung reden in dem Artikel :unsure:

Damit sollte Nvidia eine hohe Marge einfahren können weil

1. Kein Dedizierter Gaming Chip entworfen wurde sonderen Workstation Chip wird verwendet (Bzw für die 5090 Teildefekte vollausbauten somit ist die ausbeute noch hoher)
2. Keine neuen Kühler Entworfen / Entwickelt werden müssen
3. Nur ein Facelift TSMC Prozess genommen wird wo die kosten "Quasi" Identisch sein sollten in der Herstellen anstatt den neuen 3NM der bestimmt teurer ist

Dann könnte vlt doch noch das Weihnachtsgeschäft anvisiert werden anstatt Q1 2025
 
Zuletzt bearbeitet:
Ich hoffe Wasserkühlungen sind dann auch früher verfügbar oder muss man dann da wieder Monate warten auf WC
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh