Mehr Leistung(saufnahme) geht aktuell kaum: Inno3D GeForce RTX 3090 Ti im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.965
inno3d-rtx3090ti.jpg
Es dürfte der Abschluss für die Ampere-Generation sein: Heute startet die GeForce RTX 3090 Ti und mit der Inno3D GeForce RTX 3090 Ti X3 OC haben wir ein erstes Custom-Modell im Test. Die Luft ist im High-End-Bereich bei NVIDIA schon recht dünn, denn mit der GeForce RTX 3080 Ti und GeForce RTX 3090 gibt es bereits zwei hochpreisige und schnelle Karten auf Basis der großen GA102-GPU. Wo sich die GeForce RTX 3090 Ti positioniert und welche Vorteile sie gegenüber der GeForce RTX 3090 bietet, wird Thema auf den kommenden Seiten sein.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

"Mehr Leistung(saufnahme) geht aktuell kaum"​

Gewollt oder Absicht 😅
 
.... und nächste Woche folgt unser DIY Projekt "das kompakte Gaskraftwerk für daheim" und "wie bestelle ich bei Gazprom" 😎😁
 
Der Peak ist irgendwo bei 250W. Alles darüber skaliert nicht mehr. Aber mal sehen ob hier die gleichen Maßstäbe wie bei Intel angelegt werden. Im Gegensatz zu AL rauscht hier nämlich die Energie konstant durch.
Ich hab bei dem Preis schon keine Lust mehr. Einfach total Absurd und dazu viel zu spät.
 
Der Peak ist irgendwo bei 250W. Alles darüber skaliert nicht mehr. Aber mal sehen ob hier die gleichen Maßstäbe wie bei Intel angelegt werden. Im Gegensatz zu AL rauscht hier nämlich die Energie konstant durch.
Ich hab bei dem Preis schon keine Lust mehr. Einfach total Absurd und dazu viel zu spät.

Siehe:

Inno3D-GeForceRTX3090Ti-X3OC-Performance-Scaling.png
 
Endlich 12VHPWR für alle, fehlt mir nur noch ein SFX Netzteil mit nativem Anschluss dafür, für SFF ein Träumchen. Jetzt muss nur noch der 24 Pin ATX durch irgendwas kompaktes ersetzt werden und man ist ein Großteil der überflüssigen Kabel los.
 
Hab ich irgendwo überlesen, dass das ein Prototyp ist? Das Kühlerdesign sieht ja absolut zusammengewürftelt aus. Riesen-Schlitzschrauben und winzige Kreuzschrauben gemischt, die "edlen" Alublenden sind angeknabbert und stehen unterschiedlich weit ab, die Plastikelemente sind absolut fehl am Platz und schon von den Grundformen ist da nichts nur annähernd harmonisch. Für den Preis müsste man gleich noch ein PC-Gehäuse ohne Sichtfenster dazu bekommen. :d
 
Also sorry. Aber wer 2200€ für ne Grafikkarte aussgibt hat echt die Kontrolle über sein Leben verloren. :ROFLMAO:
 
Ich baue seit 20 Jahren an meinem Gaming PC und war immer der Meinung, dass 180w vs 250w bei der Grafikkarte oder 150w vs 100w beim CPU für mich nicht relevant ist. Auf 50 Watt kommts wirklich nicht an, aber mittlerweile ist Nvidia in Sphären unterwegs, die Heizkörper ansonsten bedienen. Einfach mal 100 Watt mehr FÜR FAST NICHTS. Bei 90% Effizienz am Netzteil reden wir von 500w Abwärme nur durch die Grafikkarte

Nun ist der Punkt gekommen, bei dem ich im HighEnd aussteige, weil Preis und auch Verbrauch völlig außer Kontrolle geraten sind. Meine RTX 3090 FE läuft mit den Standard 350w und der 20qm Raum heizt sich selbst bei nur 2h Gaming ordentlich auf. Die Abwärme ist von Mai-September selbst mit nagelneuer Split-Klimaanlage unangenehm, weil ich an den Füßen 400w Heizleistung habe und an der Decke die Klimaanlage im Gegenzug 400w Kühlleistung liefern darf - während ich in der Mitte sitze.

Schon den 3090 MSRP Kaufpreis hätte ich nicht bezahlt, wäre durch Mining nicht die Hälfte reingeholt worden. Künftig hole ich mir dann lieber einen kleineren 104 Chip, der bei 200-250 Watt Verbrauch noch ordentliche Leistung liefert und das zum bezahlbaren Preis. Es ist nicht so, dass ein erwachsener Gamer das nicht bezahlen kann, aber ich will und werde es einfach nicht bezahlen. Dann lieber DLSS oder Medium Settings aktivieren.
 
Zuletzt bearbeitet:
Ach du dickes Ei 400 Watt...nee danke. Meine Grakas bekommen 250 Watt unter Wasser und mehr gibts nicht.
 
Was mich viel mehr interessieren würde ist, wie habt ihr DXR auf einer 6900 XT in BFV zum Laufen gebracht? Ist es überhaupt belegbar dass es lief? Oder waren es wieder nur die weißen Quadrate auf dem Wasser? Denn dann wäre zumindest der BFV-Benchmark für RDNA fehlerhaft.
Ach du dickes Ei 400 Watt...nee danke. Meine Grakas bekommen 250 Watt unter Wasser und mehr gibts nicht.
Unter Wasser darf es doch schon mehr sein. Was man hier sieht ist dass die geringe Mehrleistung den Verbrauch nicht rechtfertigt. Selbst die 3090 wirkt wie ein Energiesparmonster dagegen. OC bring auch so gut wie nix. Da wäre eine 3090 vermutlich besser, "günstiger" und mehr OC-Spielraum. Das bisschen Speicherbandbreite und die 2 % mehr Shader machen nichts bei der Leistung mehr aus.
 
Nun gehts mit Grafikkarten endgültig in die SUV Luxus Klasse. Verbrauch, Umwelt, Preis interessiert nicht mehr, Hauptsache man fährt den dicksten Boliden. Funktioniert auch und bringt gute Margen.

So verkehrt ist das aber für den Rest gar nicht. Wenn man dann gleich 3-4 Klassen unter dem neuen Top Modell bleibt könnte es evtl. nach dem Krieg, Corona, Rohstoffverknappung, Mining, Scalper, Energiewende, *Platzhalter*, *weiterer Platzhalter*, *...* auch irgendwann (vielleicht) wieder günstiger werden und dann reden wir immer noch von einer 3080 oder 3070 bzw deren Nachfolger.
 

mehr sag ich zu der Karte nicht.
 
Nun gehts mit Grafikkarten endgültig in die SUV Luxus Klasse. Verbrauch, Umwelt, Preis interessiert nicht mehr, Hauptsache man fährt den dicksten Boliden. Funktioniert auch und bringt gute Margen.
Gemessen an dem Vergleich ist die 3090Ti eher eine Brabus G-Klasse, noch teurer, lauter und unnötiger als eine bisherige G-Klasse (3090).

Vllt wird die Karte ja im Amiland noch irgendwelche Freunde finden die mit 10ct die KWh leben, aber hier ist die Karte nur noch unsinnig für das bisschen Mehrleistung, wobei die bekannten Reviewer ebenfalls die Karte nicht positiv aufnehmen.
 
Hab ich irgendwo überlesen, dass das ein Prototyp ist? Das Kühlerdesign sieht ja absolut zusammengewürftelt aus. Riesen-Schlitzschrauben und winzige Kreuzschrauben gemischt, die "edlen" Alublenden sind angeknabbert und stehen unterschiedlich weit ab, die Plastikelemente sind absolut fehl am Platz und schon von den Grundformen ist da nichts nur annähernd harmonisch. Für den Preis müsste man gleich noch ein PC-Gehäuse ohne Sichtfenster dazu bekommen. :d
Ist halt INNO, muss also in erst Linie mal BRUTAL aussehen :lol:
 
Schöne Grafikkarte, wird vermutlich nur in Mining Rigs von Oligarchen landen...der gemeine Pöbel kann sich sowas eh nicht mehr leisten.
 
Die Karte ist mal sowas von unnötig. :d Einfach ein Statussymbol.

Kaum nennenswert schneller als meine 3080Ti (die Stock max. 400W säuft bei 2GHz und 20122 Grafikpunkte erreicht)
3090Ti säuft 50W mehr und hat "nur" ~800 Grafikpunkte mehr.

Und dann der Preis... o_O:stupid:


Einzig der neue Anschluss ist "schön".
Da kann man viel sichtbares Kabel verbergen.
Wenn sowas auch mal für den klobigen 24Pin kommt; ein Traum. :LOL: (Wie viel Watt liefert eig. der 24Pin?)
 
Demnächst im Forum:
"Wenn ich meine 3090TI per UV auf 300 Watt einstelle, dann ist sie schön leise und kühl".
 
Das ist ja gar keine richtige Verbesserung wenn ich mir die Rohleistung anschaue.

Gut 20% mehr Stromverbrauch bei ca. 10% mehr Leistung (und 10-20% mehr Euros).

Mit dieser Architektur geht wohl nicht mehr.

Das ist eine unvernünftige Grafikkarte. Nur etwas für Hardcore-Enthusiasten mit einem vollen Portemonnaie.

Ich persönlich habe die RTX 3070 FE im PC. Die vorgestellte 3090Ti zieht ja mehr als doppelt soviel aus der Dose. Hola die Waldfee.
 
Zuletzt bearbeitet:
Haben Sie kürzlich eine Lobotomy erhalten, jahrelanger Drogenkonsum und / oder einfach nicht der hellste Stern am Horizont... dann haben wir das richtige Produkt für Sie - RTX3090(Ti) :d
 
So verkehrt ist das aber für den Rest gar nicht. Wenn man dann gleich 3-4 Klassen unter dem neuen Top Modell bleibt könnte es evtl. nach dem Krieg, Corona, Rohstoffverknappung, Mining, Scalper, Energiewende, *Platzhalter*, *weiterer Platzhalter*, *...* auch irgendwann (vielleicht) wieder günstiger werden und dann reden wir immer noch von einer 3080 oder 3070 bzw deren Nachfolger.
Was du aber vergessen hast ist dass die Preise für die Mittelklasse auch exorbitant sind.
Vllt wird die Karte ja im Amiland noch irgendwelche Freunde finden die mit 10ct die KWh leben, aber hier ist die Karte nur noch unsinnig für das bisschen Mehrleistung, wobei die bekannten Reviewer ebenfalls die Karte nicht positiv aufnehmen.
Es ist eine Brechstangenkarte wie die 580 / 590 oder die 390X. Die 450 W finde ich nichtmal wegen dem Strompreis so schlimm, sondern wegen der Hitze. Das sind einfach mal 150 W mehr im Gehäuse. Da hilft nur noch ein Mo-Ra, mit Luftkühlung wird man es schon merken.
Kaum nennenswert schneller als meine 3080Ti (die Stock max. 400W säuft bei 2GHz und 20122 Grafikpunkte erreicht)
3090Ti säuft 50W mehr und hat "nur" ~800 Grafikpunkte mehr.


Einzig der neue Anschluss ist "schön".
Da kann man viel sichtbares Kabel verbergen.
Wenn sowas auch mal für den klobigen 24Pin kommt; ein Traum. :LOL: (Wie viel Watt liefert eig. der 24Pin?)
Weil deine 3080 Ti kaum weniger Shader hat. Das war bei 980 Ti vs Titan X nicht anders. Es gab sogar 980 Ti die besser liefen weil es dicke Customs waren. Mit der 3090 hat NVIDIA ja nun die TITAN-Klasse praktisch ins normale Lineup eingeführt. Der Anschluss ist super. Es sollte eigentlich schon lange Standard sein ~400 W mit einem Kabel liefern zu können. Das hatten die Karten schon 2010.
Das ist ja gar keine richtige Verbesserung wenn ich mir die Rohleistung anschaue.

Gut 20% mehr Stromverbrauch bei ca. 10% mehr Leistung (und 10-20% mehr Euros).

Mit dieser Architektur geht wohl nicht mehr.

Das ist eine unvernünftige Grafikkarte. Nur etwas für Hardcore-Enthusiasten mit einem vollen Portemonnaie.

Ich persönlich habe die RTX 3070 FE im PC. Die vorgestellte 3090Ti zieht ja mehr als doppelt soviel aus der Dose. Hola die Waldfee.
Da geht schon mehr Effizienz, aber das wollte NVIDIA nicht. Die wollten ein brachiales Produkt für Balkenfetischisten. Zwischen 3080 Ti und 3090 ist schon nicht viel Spielraum. Alle haben ähnlich viele Shader, mehr Shaderleistung ist praktisch nicht vorhanden bei 2,5 %. Da hilft also nur die Brechstange und den Takt erhöhen.

Wenn das so bleibt und Ampere wieder so überteuert und VRAM-knausrig ist bleibe ich definitiv bei AMD. Gerüchten nach könnte Lovelace nicht viel besser als Ampere werden. Vielleicht sollten sie ihre nächste Generation dann "Watt" nennen :lol:

Dass AMD mal die effizienteren Produkte liefert hätte ich vor ein paar Jahren nicht geglaubt. Aber es zeigt wie schnell es sich ändern kann. Sah man ja auch bei den CPUs.
 
Wer hätte 2008 gedacht, dass eine Single GPU Karte mal 450 Watt + unter Last verbraucht.
Bei der 9800 GX2 mit 2 GPUs und 250 Watt wurde zu der Zeit schon nicht schlecht gestaunt. :eek:
Bin mal auf die Next Gen gespannt, was da noch geht. :popcorn:
 
Also wer zu Release eine 3090 für relativ "günstig" erhalten konnte und die dann ein wenig übertaktet hat, sogar mit Waküblock ist die dann günstiger gewesen... Die 3090 TI kann man sich imho komplett sparen 🙈
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh