[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

wie viel kannst du denn überhaupt max. zur Verfügung stellen? Am PSU müsste eine Tabelle sein wo wie viel Watt ankommt. Ich weiß noch mein Be quiet! damals hatte sogar 15W oder so weniger als die angegebenen 600W zumal wenn du noch übertakten willst.... ein PSU kann nur zu einer gewissen Last arbeiten. 650W so bis 720W hab ich mal gesehen. seasonics 1200W platinum kann sogar bis 1800W bevor es abschaltete. Aber mit 110% würde ich nicht rechnen wollen. Wenn deine CPU ca 150W zieht und für ineffizienz der Spannungswander, Lüfter und co. nochmal gut 50W draufgehen dann bist du bei einer +200W karte schon recht nahe dran. Die 3080 wird sicher mehr brauchen als die 980 die 180W hatte. Sofern du also nicht vorhast die GPU schon deutlich runterzuregeln würde ich sagen hol dir ein 650-750W PSU.

https://geizhals.de/gigabyte-aorus-p750w-750w-atx-2-31-gp-ap750gm-a1918349.html?hloc=at&hloc=de 750W 80+gold voll modular für 97€ kann man nicht meckern.
https://geizhals.de/gigabyte-g750h-750w-atx-2-31-gp-g750h-a1454673.html?hloc=at&hloc=de nur teilmodular 75€. ka ob die gut sind aber wer es bis gold schaft, der kann nicht so viel falsch machen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hm, da komm ich dann wohl nicht drumrum ;)
der 10700K läuft 4.7 allcore mit einem offset von -0.035V. Rest Stock. Die 2070 Super hab ich aktuell auch undervoltet, 1800Mhz mit 0.85V. Denke, bei den neuen Karten dürfte Undervolting auch ein sehr interessanter Punkt für mich sein.
Ich dachte da aber eher an ein Fractal Design Ion+ mit 660W, das sollte doch auch locker genügen.
 
höhere effizenz bei niedrigerer Last... am ende wird es kaum einen unterschied machen denk ist. kann man sicher beide kaufen
 
Um solch einem Dilemma zu entgehen würde ich direkt zu 850Watt greifen. Denn stellt sich die Frage beim nächsten mal einfach nicht und der Aufpreis ist eher gering.
 
würde das zwar auch so machen, aber wer weiß was mit dem 12V standard in den nächsten jahren passiert. den derzeitigen PSU standard gibts schon so lange... muss jeder selber wissen wann er wie und wo ein Upgrade plant. ich habe bisher immer alles ausgewechselt wenn es wirklich ein Upgrade gab. nur die GPU hängt immer hinterher. wenn ich nicht nochmal bei Rocketlake schwach werde dann wirds sowieso erst ca 2026 interessant mit einer DDR5 Plattform.
 
Intel soll aber mit Sapphire Rapids schon 2021 mit DDR5 und PCI-E 5.0 kommen, 2026 wäre ein wenig spät @Maurise
 
hast du mal den RAM Frequenzsprung von Z370 zu Z490 gesehen? ich werd doch nicht 2022 nen system Kaufen nur damit ich es 3 Jahre später wieder verkaufe weil der RAM schneller ist. Du darfst nicht vergessen dass ich mich nur um RAM OC schere. CPU stellst du einmal ein und GPU ist so locked da kann man eh nicht mehr viel anstellen. Wenn die jetzt von 8400MHz sprechen dann hoffe ich ganz stark auf 10000 mein Freund. zumal meine komponenten schon jetzt nicht sehr alt sind. Wenn ich mir tatsächlich z590 hole und den RAM mitnehme um 4x8GB auf 4533MHz 24/7 zu stabilisieren, denn das schaffen die RAMs wohl, dann werd ich nen teufel tun bis DDR5 mal in die Gänge gekommen ist.
 
Du aber so wie es aussieht wirst du da bei 4x8gb wenig Glück haben, sinnvoller wäre es sich aktuelle 2x16GB Ripjaws zu kaufen für 195,- , hast aber das gleiche Problem wie ich, ich müsste jetzt einmal alles kaufen um die zu testen, darauf hab ich überhaupt keine Lust, dafür müsste ich meine Wakü zerlegen.
Ich warte und warte und hab immernoch unter 70FPS HuntShowdown, es nervt, die sollen ausn Keks kommen und ich hoffe mal das die keine Mondpreise schon für ne 3080 wollen.

Das steht ja irgendwann in keiner Releation mehr wenn man 2 PS5 für eine 3080 bekommt.
 
Ja das sehe ich wie Phoenix2000 , ich hoffe das die Preise sich im Rahmen halten ....
 
Klar werden sich die UPE seitens Nvidia im Rahmen halten, aber mangels Verfügbarkeit werden die FEs am Anfang und die Custom-Karten zum Ende diesen Jahres mehr kosten, war doch sonst auch der Fall. Erst bei deutlicher Verfügbarkeit gehts dann auf die Empfehlungen von Nvidia zurück.

Lederjacke wird wie immer eine gut gespreizte Preis-Abstufung vorsehen, die Leistung wird auch so gewählt, dass die Karten nie gleichauf mit einem Vorgänger sind, um sich nicht zu kanibalisieren. Letztlich tippe ich für Ampere mittlerweile auf die gleichen Preise wie bei Turing:

3080ti (12GB) 999 $ - Leistung deutlich über 2080ti
3080 (10GB) 699 $ - Leistung knapp über 2080ti (analog 2080 knapp über 1080ti)
3070 (8GB) 499 $ - Leistung zwischen 2080 Super und 2080 ti (analog 2070 zwischen 1080 und 1080ti)

Zuvor war es beim Turing-Release:
2080ti (11GB) 999 $
2080 (8GB) 699 $
2070 (8GB) 499 $

Und zum SUPER-Release:
2080ti (11GB) 999 $
2080 Super (8GB) Super 699 $
2070 Super (8GB) Super 499 $
 
wenn sich diese Preisgestaltung bewahrheiten würde, hätte ich nix dagegen. :d
 
eine 3080ti für 1000 Euronen wäre fein, mal sehen ob das so eintrifft wenn die Big Navi draussen ist
 
eine 3080ti für 1000 Euronen wäre fein, mal sehen ob das so eintrifft wenn die Big Navi draussen ist

Und ich wünsche mir ein Einhorn!
Wenn man mal die aktuellen Preise für die 2080 Ti ansieht dann werden die nicht einfach günstiger werden. Zur Zeit ist das zwar alles Kaffeesatzleserei, aber es wäre das erste mal wenn plötzlich etwas günstiger werden würde. Ich kann mich sehr gut irren, aber unter 1.300€ wird man keine 3080 Ti auf den Ladentheken finden. Karten mit Cover werden wohl die 2k € Grenze sprengen, zumindest würde es mich nicht wirklich verwundern. Und wenn die erste Zwei als erste Zahl im Preis auftaucht, ab dann sehe ich Schwarz für nachfolgende Generationen.
 
nehme an, dann wird die 3090 wieder 2700 Euro kosten ? die Karte würde mich schon interessieren, nur nicht zu diesem Preis
 
ja, wäre schön, wenn wenigstens die 2080Ti günstiger werden, so schlecht sind die dann ja auch nicht. ^^
Aber das macht Nv schon clever mit dem Produktionsstop usw.
 
ja, wäre schön, wenn wenigstens die 2080Ti günstiger werden, so schlecht sind die dann ja auch nicht.

Also wenn die 3000er Serie so wird wie ich sie erwarte bzw. wie wir alle hoffen, dann ist danach eine Pascal/Turing Karte schlecht.

Nach dem Pascal Release wollte auch niemand mehr eine Maxwell Karte haben.
 
Ich sage voraus das die 3080 (non ti) 1099,00 Euro Kosten wird.

Warum?

Weil nVidia bis jetzt die Preise immer um 100+ $/€ höher angesetzt hat.
 
wahrscheinlich werden die Preise am Anfang sehr hoch sein, da Big Navi ja erst ein wenig später erscheint; hoffentlich sprengt die 3080 ti nicht die 1500 Euro marke
 
Weil nVidia bis jetzt die Preise immer um 100+ $/€ höher angesetzt hat.
Und wie kommst du da jetzt auf 1100€??
Der UVP der 2080TI ist als FE 1279€ oder sowas im Dreh. Der UVP der 2080 non TI ist deutlich unter 1000.
Euro in Dollar 1:1 funktioniert doch lange schon nicht mehr in der Art.

Btw. die Pauschale stimmt auch nicht - von 1080 auf 1080TI ist trotz aller Vorhersagen mit ähnlichen Annahmen von wegen, war immer so, muss also so werden, exakt das Gegenteil passiert. Die UVP der 1080TI lag sogar unter der UVP der 1080. Nämlich 819€ zu 879€
 
Profi Ampere mit Rekord Ergebnis im Octane-Benchmark:
 
warum ist die Karte auf SXM4 so viel Leistungshunriger als mit PCIe 4.0? 250 zu 400W ist ja schon ein krasser unterschied, aber clocks und alles sind ja scheinbar gleich. bekommen die da so viel mehr Daten rein dass so viel mehr Strom braucht oder ist die PCIe version einfach begrenzt für den Servergebrauch.
 
warum ist die Karte auf SXM4 so viel Leistungshunriger als mit PCIe 4.0? 250 zu 400W ist ja schon ein krasser unterschied, aber clocks und alles sind ja scheinbar gleich. bekommen die da so viel mehr Daten rein dass so viel mehr Strom braucht oder ist die PCIe version einfach begrenzt für den Servergebrauch.
Exakt das ;)
 
also wenn man die Karte zu 100% nutzen möchte muss man Nvidias 100k All in one Unit kaufen... wie vorteilhaft. aber die leute die sich darüber gedanken machen können sich sowas sowieso nicht leisten. Was kostet eine einzelne karte? Wenn 8 in dem 100k ding drin sind dürfte eine ja so um die 10k kosten oder?
 
Jaaain, das würde ich so nicht sagen... Voll nutzen ist dafür nicht das richtige Wort. Die Hardware ist halt einfach im Rahmen der Spezifikationen abgeriegelt. Wie das in so vielen Bereichen schon überall gängige Praxis ist. Die PCIe Spezifikationen gehen irgendwo in den Bereich ~300W - im Profimarkt hat sich 250-275W eingependelt seit geraumer Zeit.
Die Modulform ist da eher ne ich würde es, mehr oder weniger "spezifikationslose" Sonderlocke nennen. Die bauen sozusagen ihr eigenes Produkt und definieren entsprechend was das Teil verbrauchen darf bzw. bis wohin es skalieren darf. Der Takt ist auf dem Papier identisch - und bis zu einem gewissen Powerbudget wird sich das auch relativ gleich verhalten. Obenraus wird aber die 400W Modul Version ganz klar mehr Takt ausfahren/halten können.
Das läuft bspw. komplett analog wie sagen wir deinem Prozessor - 9900k, voll ausgerissen gut und gerne 200W und mehr versaufen kann. Innerhalb der Spezifikationen deckelt das Ding bei ca. 95W langfristig. Es wird dabei dann halt nicht mehr den Allcore Takt in jeder Belastungssituation schaffen. Noch unten drunter verkauft Intel das gleiche Silizium auch als 9980hk - mit 45W Deckel, wenn eingestellt. Oder noch weniger, wenn manuell runter gestellt. -> im Resultat ist der reale Takt halt noch niedriger.
So macht das die GPU auch, da der reale GPU Takt eh wenn nicht anders festgeschrieben, normal dynamisch und deutlich über dem Basistakt unter Last liegt - wie viel drüber, ist von Belastung und Power Budget abhängig. Meist steigt zudem die Effizienz bei sinkendem Power Budget. Sprich GA100 wird klar verhältnismäßig mehr Verbrauch haben als es in Relation zur Leistung zulegt. Die PCIe Version sollte effizienter sein mit 250-275W als die Modulversion mit 400W...

Preislich - schwer zu sagen. Kleinserie ist wohl das größere Problem. Und in dem ganzen Blech steckt mehr als nur 8x GPUs. Die Infiniband Karten sind auch keine Kostverächter bspw. Das ganze NVLink/NVSwitch Geraffel wird nicht billig usw.
 
Preislich - schwer zu sagen. Kleinserie ist wohl das größere Problem. Und in dem ganzen Blech steckt mehr als nur 8x GPUs. Die Infiniband Karten sind auch keine Kostverächter bspw. Das ganze NVLink/NVSwitch Geraffel wird nicht billig usw.

weswegen die alte version 200k war.

Ich kann mir gut vorstellen dass du eine Karte mit so vielen Cudacores loker über die 250W bekommst hinsichtlich was die neuen karten, wenn auch auf 8nm schlucken sollen. Die Telsas hatten vorher halt auch 50W mehr, aber 150W kann sich sehen lassen. Das machen die ja nicht um die letzten Benchmarkpunkte zu holen sondern weil es noch was bringt. Außer sie haben angst vor Konkurrenz. Wovon Holzmann vlt nachts träumt. Was ich mir aber vorstellen kann ist, dass die Vorgänger mit Tesla V einfach nicht gut ankamen und sie jetzt den Fuß in der Tür haben wollen. Die Leistungsdichte für den Preis ist beeindruckend, verglichen mit was du sonst so hattest. Statt die Dinger als Einzelstücke zu verkaufen kann es Langfristig durchaus sinn machen lieber nen Schrank zu verkaufen. Mehr Kontrolle, Service etc.
 
Die Radeon VII hatte schon vor 2 Jahren 16 GB HBM Speicher.... Jetzt verkauft Nvidia nur etwas mehr RAM als heißen scheiß weil sie damit immer so sparsam sind.
 
Die Preise werden immer steigen, denn die Produktionskosten tun es auch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh