Gerüchte zur GeForce RTX 3090 Super: GA102-Vollausbau und 450 W TDP

eben, der Trend geht eh zum zweit Mora!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die müssen echt mal an der Effizienzschraube drehen..

980 165W
1080 180W
2080 225W
3080 320W
Die 3080 ist trotz des hohen Verbrauchs (in relevanten Auflösungen) mit Abstand die effizienteste Karte in deiner Liste.
 
Zuletzt bearbeitet:
Aber persönlich finde ich performance pro Watt nicht alleine ausschlaggebend. Sonst ist hat man irgendwann 700w. Da hilft die relative Leistung dann auch nicht.

Korrigiert mich, wenn ich falsch liege.
 
Aber persönlich finde ich performance pro Watt nicht alleine ausschlaggebend.

Korrigiert mich, wenn ich falsch liege.
Jo, da liegst Du falsch.
Bei der Effizienz wird immer das Verhältnis zwischen Nutzen und Aufwand betrachtet.

Also bei Grafikkarte FPS/Watt , das passt schon.

Selbstverständlich ist der absolute Verbrauch auch ausschlaggebend. Aber wenn Du die Leistung einer 3090 Super Duper mit 450-500 Watt nicht brauchst, dann nimm halt eine 70er Karte...

...oder verzichte auf 5-10% Performance und betreibe die GPU mit Undervolting.

Wenn man mit der GPU Glück hat, kann man auch quasi Stock Performance mit UV erreichen und trotzdem 50-60 Watt einsparen.

Meine Asus TUT RTX 3080 OC läuft bei 1875Mhz@0.85V im Benchmark genauso schnell wie @Stock, verbraucht dabei zwischen 260-270 Watt, statt 320-340Watt.
 
3090 Super FE dann mit 4 Slots oder wat? :fresse: :poop:
joa.png
 
Der Gedanke hat schon was. Und so spart man sich den Shuntmod und kann die Karte einfach so nehmen.
 
Witzig wie sehr sich hier einige über die möglichen 450W TGP aufregen und gleichzeitig gibt es jetzt schon 3080er Modelle mit 450W BIOS

Dass es ziemlich ineffizient ist die letzten paar Prozent noch rauszuquetschen steht glaub ich ausser Frage, aber das Teil wird sicher nicht die Wald&Wiesen-GPU, also wems Spaß macht und soviel Geld wert ist => have fun
 
Eigentlich gehören Diskussionen um Verbrauch in die Foren der Brigitte oder der Bunte, in diesen schwäbische Hausfrauen Centstücke umdrehen. Hier ist ein Techforum, die Frage die wir uns stellen sollten ist; mit welchem BIOS open Limit OC möglich ist.
Eine 3090 mit 200W ist sicherlich denkbar aber dann hat man nichts weiter als eine kastrierte Karte. Für die man trotzdem 2000,- bezahlt hat.
Wem der Verbrauch zu hoch ist, kann mit Afterburner an der Effizienzschraube drehen.
 
Zuletzt bearbeitet:
Eigentlich gehören Diskussionen um Verbrauch in die Foren der Brigitte oder der Bunte, in diesen schwäbische Hausfrauen Centstücke umdrehen
Mit dieser Aussage disqualifizierst du dich selbst und zwar mehrfach. Selbst mit offenem BIOS im OC ist GPU Power (Verbrauch in Watt) immer noch mit einer der wichtigsten Faktoren. Hohe Temperaturen bzw. allgemein Temperaturen, Leistung, Optimierungen via UV usw. spielt auch der Verbrauch eine zentrale Rolle. Guck dir doch ein HWinfo-Log an. Leistung, Temperaturen und Verbrauch (in Watt) stehen immer im bestimmten Verhältnis.
 
Mit dieser Aussage disqualifizierst du dich selbst und zwar mehrfach. Selbst mit offenem BIOS im OC ist GPU Power (Verbrauch in Watt) immer noch mit einer der wichtigsten Faktoren. Hohe Temperaturen bzw. allgemein Temperaturen, Leistung, Optimierungen via UV usw. spielt auch der Verbrauch eine zentrale Rolle. Guck dir doch ein HWinfo-Log an. Leistung, Temperaturen und Verbrauch (in Watt) stehen immer im bestimmten Verhältnis.
Eindeutige kausale Zusammenhänge über die ich auch gerne rede. Das Thema so angepackt wäre ein Genuss. Bitte mehr davon!
 
Wieso geht der Artikel davon aus die Stromproduktion der Welt würde stagnieren?
Wer sagt das sie weiter steigt?

Es wird zwar viel in Erneuerbare Energien gesteckt, viele alte Kraftwerke werden dafür abgeschaltet. Klar man baut auch neu Kraftwerke, um alte zu ersetzen bzw. die Kapazitäten zu erhöhen. Dies aber nicht mehr in den Massen wie früher.
 
Die EVGA Käufer deren GPU durch New World frittiert wurde, sind sicher froh über die Entscheidung ein 450W Bios Monster gekauft zu haben :)
Klingt doch sehr nach Neid. Neidest den Leuten etwa um ihre rundum_sorglos_3090 mit saftigen 24GB GDDR6 mit dem Zusatz X?
Welche Karte hast du eigentlich?

Meine 3080 zb. läuft am besten mit 260W, 370W zieht sie aber auch im Cyberpunk (ist aber eine Ausnahme(nach 80Std ist die Luft raus(deinstalliert)))
 
Die EVGA Käufer deren GPU durch New World frittiert wurde, sind sicher froh über die Entscheidung ein 450W Bios Monster gekauft zu haben :)
Also ich hab New World gespielt und meine hatte keine Probleme und wenn doch, wen juckts? Gibts halt ne neue von EVGA, völlig problemlos, keine Ahnung wo da dein Problem ist aber iss mir auch wurscht.
 
Eine große oder eine kleine Rohrschelle? :d

Was mich wundert - warum gibt's da keine Titan? Der vollausbau war doch meist nur den Quadro's oder manchen Titan Karten vorbehalten (Vieleicht auch den Tesla's)
Ich finde eher schlimm das vorher gesagt wurde dass die 3090 die stärkste Consumer Ampere Karte ist, und jetzt das?
Ich meine, da müssen sich jetzt alle 3090 Besitzer umsehen wie sie eine 3090 Super bekommen...

Ach, die Gen ist ein Jahr nach Erscheinen doch mental sowieso durch.
Hätte letztens die Chance gehabt, mir eine 3090 Kingpin zu holen, aber wozu noch? Da reicht meine FE mit Block auch noch für die zweite Halbzeit bis zur nächsten Gen. Zum Release hätte ich die definitiv genommen.

Da ärgert mich auch eine 3090 Super mit 2% mehr Einheiten und etwas mehr PL-Slider nicht mehr. Der verbaute Speicher ist ohnehin der selbe und bereits spezifiziert für 21 GB/s, die Dies für die Super werden das nur von Seiten des Controllers dann auch garantiert packen. Wie viel schneller soll das Ding dann final sein, 5%? Lohnt sich...

Das Geheule über den Verbrauch interessiert mich persönlich eher weniger. Im Verhältnis zum GPU-Preis irrelevant und man muss das PL ja nicht dauerhaft ausfahren. Mache ich im Alltag auch selten, aber es ist doch schön, ab Werk mehr Spielraum zum Benchen zur Verfügung zu haben und sich nicht mehr mit Mods beschäftigen zu müssen.
 
Bei den deutschen strompreisen ein Hochgenuss 🤣🤣

Scheint so als wolle man mittlerweile einfach nur Leistung ohne Rücksicht auf Effizienz und Leistungsaufnahme. Nicht unbedingt der optimale Weg.
Bedank dich bei den rot grünen, wegen der Strompreise.
Die mir auch schon zuviel verbrauchen. Wo sind die Karten mit max. 200 Watt?

Mal abgesehen von die Karten RTX 3060 Ti und RTX 3060.

Aber die sind mir keine Horrorsummen wert.
Zumindest bei AMD Karten kann Mann das Power Target doch einstellen.
Mehr Leistung oder weniger Stromverbrauch.
 
Hallo,

die bei einigen Postern neuentdeckte Frömmigkeit betreffend des Stromverbrauchs finde ich befremdlich wenn an anderer Stelle mit heulenden Lüftern gebencht wird das sich die Balken biegen.
Wirklich brauchen wird kaum jemand diese Kisten, die uns so viel Spaß machen, meine Meinung.

Grüsse
 
Die 3090 ist ja auch nicht für Workstations gedacht... sondern für jeden Endanwender. Verstehe nicht wie man sich über 450 Watt aufregt bei einer Karte die einfach für Professionelle zwecke gedacht ist :fresse2:
 
mein neuer 38" Monitor (in Zustellung) kommt auf 50-70W im Idle (wenn ich die Specs richtig verstehe). 3080 schluckt dann auch so um 40-60W für 165Hz @3840x1600, 5900x 35W, dann kommen noch weitere 50-70W der Peripherie hinzu. Zusammen etwas über 200W im Idle. Die paar zusätzlichen W(400-600) on top beim Zocken, fallen dann auch nicht weiter ins Gewicht bei der Jahresabrechnung.
Aber hey, 3080 zog heute @1080p(Ersatzmonitor) bis zu 190W aus der Dose, bei CP77 extreme_maxed_ultra_settings. In anderen Spielen habe ich selten über 100W gesehen. 1080p... die Handyklasse, kommt also auch schon auf 200W @60FPS. Vernünftige Monitore haben zum Glück ein vielfaches an 1080p und Hz. Stromverbrauch ist relativ. Ich bin nicht bereit meinen Anspruch im Keller zu parken.
 
mein neuer 38" Monitor (in Zustellung) kommt auf 50-70W im Idle (wenn ich die Specs richtig verstehe). 3080 schluckt dann auch so um 40-60W für 165Hz @3840x1600, 5900x 35W, dann kommen noch weitere 50-70W der Peripherie hinzu. Zusammen etwas über 200W im Idle. Die paar zusätzlichen W(400-600) on top beim Zocken, fallen dann auch nicht weiter ins Gewicht bei der Jahresabrechnung.
Aber hey, 3080 zog heute @1080p(Ersatzmonitor) bis zu 190W aus der Dose, bei CP77 extreme_maxed_ultra_settings. In anderen Spielen habe ich selten über 100W gesehen. 1080p... die Handyklasse, kommt also auch schon auf 200W @60FPS. Vernünftige Monitore haben zum Glück ein vielfaches an 1080p und Hz. Stromverbrauch ist relativ. Ich bin nicht bereit meinen Anspruch im Keller zu parken.
Mein 38" AW mit 144Hz 3840x1600 verbraucht 30 W im Idle
 
Mein 38" AW mit 144Hz 3840x1600 verbraucht 30 W im Idle
nicenicenice
Es müsste das selbe Panel sein. Auf der Site steht was von 70W - 150W oder so.. vermutlich ist Differenz die Helligkeit. Bei LG bewege ich mich immer zwischen 40-80%
 
Bitte als Greta Special Edition. Mit How Dare you Aufdruck :ROFLMAO:
 
Für das was die Graka kosten wird, können die auch ruhig nen Feuerlöscher gratis dazu packen.:fresse2:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh