Leider aufpreispflichtig: Die MSI GeForce RTX 4070 Gaming X Trio im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
In der gestaffelten Veröffentlichung der Testergebnisse zur GeForce RTX 4070 folgt auf den gestrigen Test der Founders Edition sowie eines UVP-Modells heute der Test ein erstes teureren Custom-Designs. Die MSI GeForce RTX 4070 Gaming X Trio muss zeigen, was sie für den aufgerufenen Aufpreis zu bieten hat. Ob über die Leistung, die Kühlung oder sonstige Funktionen – der Aufpreis muss sich in irgendeiner Form zeigen. Wir gehen dem nun auf den Grund.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich habe gerade für 719€ bei Mindfactory zugeschlagen - wurde die UVP reduziert?
 
Danke für den Test!

RGB ist bei mir kein Pluspunkt sondern eher: "wieso verflucht leuchtet es unterm Tisch".
Aber das liegt wahrscheinlich im Auge des Betrachters.
 
Da würde ich lieber ne gebrauchte 3080 ti für um die 600€ kaufen. Vor allem für 4k. Da fällt die 4070 ja mächtig ab.
 
Bin bei dir. Den gleichen Gedanken habe ich auch. Aber da steht halt DLSS 3 im Raum. Diese Funktion haut dann die 3080ti vermutlich in die Pfanne.
 
Aber da steht halt DLSS 3 im Raum. Diese Funktion haut dann die 3080ti vermutlich in die Pfanne.
Was nutzen einem die mehr FPS durch DLSS3, wenn es dafür Schlieren und Artefaktbildung gibt?

750€ für eine 12GB Karte ist zudem vollkommen bekloppt. Mal abgesehen von den 900€ für die 4070Ti, die noch bekloppter teuer ist.
 
Bin bei dir. Den gleichen Gedanken habe ich auch. Aber da steht halt DLSS 3 im Raum. Diese Funktion haut dann die 3080ti vermutlich in die Pfanne.
Naja DLSS 3 ist jetzt kein Burner. Außerdem hast du den limitierten Speicher mit limitierter Speicherbandbreite.
DLSS2.X wird bei allen DLSS 3.X unterstützt nur ohne Frame Generation. Meiner Meinung nach ist das noch in den Kinderschuhen wie damals DLSS1.

Es gibt eine Wahrscheinlichkeit auch wenn diese sehr klein ist, das DLSS3 aka Frame Generation noch auf die 3000er Generation kommen wird.
Technisch ist es realisierbar und wenn es dann ein community workaround wird.
 
Danke für den Test.
Bin trotzdem der Meinung das die 4070 für das Geld zu stark beschnitten wurde, genauso wie die Ti.
 
zu stark beschnitten wurde
jo, eine wahre Eunuchen-Karte ;D

1681416885624.png

1681416512735-png.876639
 
Zuletzt bearbeitet:
wieso werden im test keine drehzahlen der karten angezeigt?
 
wieso werden im test keine drehzahlen der karten angezeigt?
Das Thema kommt im Artikel zweimal zur Sprache:

Dann erreichen sie eine maximale Drehzahl von 955 Umdrehungen pro Minute.

Unter Last kann die Karte ihre Stärken hinsichtlich des massiven Kühlers gut ausspielen, denn die drei Axiallüfter müssen mit nur knapp unter 1.000 Umdrehungen pro Minute arbeiten, was bedeutet, dass die Lautstärke der MSI GeForce RTX 4070 Gaming X Trio mit 35,7 dB(A) als sehr gut zu bewerten ist.
 
@Don
Mir ist bewusst, dass die lüfterdrehzahl der getesteten karte im text vorkommt.
Jedoch Fehlt der bezug zu anderen karten.
Anstatt eine tabelle auf seite 2 zu bringen, die völlig sinnlos ist (lautstärke idle 0 bei allen karten, hier hätte dies in einem satz erwähnt werden können!), könnte man diese tabelle ersetzen durch eine übersicht der lüfterdrehzahlen der karten.

Mir ist auch nicht klar, warum die gestetete karte so wie fazit beschrieben unbedingt besser ist von der lautstärke als die fe karte. Der unterschied sind nur 0,6 db (a).
Zumindest würde ich eine fe dieser karte präferieren, denn diese ist günstiger und hochwertig verarbeitet.
 
Die Karte sollte eigentlich meine MSI RTX 2070 Super Gaming X ablösen, okay dann wird es erstmal die RTX3070 :sneaky:
 
Es gibt eine Wahrscheinlichkeit auch wenn diese sehr klein ist, das DLSS3 aka Frame Generation noch auf die 3000er Generation kommen wird.
Technisch ist es realisierbar und wenn es dann ein community workaround wird.

Technisch ist es realisierbar, warum es aber bisher nicht gekommen ist, ist auch kein Geheimnis und wurde auch schon von Verantwortlichen kommuniziert. Würde daher nicht hoffen, dass es von offizieller Seite her kommt und wenn dann mit dem selben Disclaimer wie bei der Öffnung von RT auf Pascal. Du kannst es nutzen wenn du willst, es wird dir aber keinen Spaß machen.
 
Technisch ist es realisierbar, warum es aber bisher nicht gekommen ist, ist auch kein Geheimnis und wurde auch schon von Verantwortlichen kommuniziert. Würde daher nicht hoffen, dass es von offizieller Seite her kommt und wenn dann mit dem selben Disclaimer wie bei der Öffnung von RT auf Pascal. Du kannst es nutzen wenn du willst, es wird dir aber keinen Spaß machen.
Die Hoffnung stirbt zuletzt, bei der Unterstützung von Adaptive Sync or Free Sync, hat auch sehr lange für G-Sync compatible gedauert... obwohl technisch schon Jahre zuvor es kein Hindernis gewesen ist.
 
Warum sind die Platinen bei nvidia eigentlich alle kurz und bei AMD nicht?
 
aber die Gegebenheiten sind nun einmal so wie sie sind und in Zeiten von Preissteigerungen aller Produktkategorien – seien es Lebensmittel, Energie und vieles mehr – dürfte die Verwunderung einer Preissteigerung bei den Grafikkarten eigentlich nicht mehr so groß sein.
Und wieder die Inflation. Ist das so? Ich nehme mal einen Beitrag von CB.
Ist nur leider so, dass es DIE Inflation gar nicht gibt. Einfach mal einen Blick auf die Zusammensetzung des Inflationswarenkorbes und das Preis-Kaleidoskop werfen und versuchen zu verstehen, was eigentlich Inflation ausmacht, was weniger und was gar nicht.

Und da Grafikkarten nicht bei uns hergestellt werden, sondern vieles im Herstellungsprozess u.a. aus einem Land kommt, das gerade von günstigen Energieimporten aus Russland profitiert, darf man auch mal schauen, wie eigentlich die Inflation in China oder Taiwan ausschaut.

Technik gehört in der Regel nicht zu den Preistreibern. Und nach den Blasen, die wir während Corona und zu Kriegsbeginn in der Ukraine gesehen haben, hat sich Vieles an vielen Fronten wieder entspannt. Bis hin komplett crashenden Branchen mit crashenden Preisen wie bei den Speicherherstellern, die nicht wissen, wo sie mit ihren Lagerüberbeständen hinsollen.

Inflationsrate für bestimmte technische Produktkategorien im Februar laut statistischem Bundesamt

Zwischenablage-1.jpg


Hilfe, Deflation bei Fernsehern. Und alle jammern über die Inflation. Wie sieht es denn in der IT aus?

Zwischenablage-2.jpg


0,1%? Und das trotz NVIDIA? ;)

Also bitte nicht einfach die deutsche lokale Inflationsrate nehmen und irgendwelche Margen-Sicherungsaktionen von NVIDIA & Co. erklären.

Also bitte nicht immer alles in einen Topf werfen. Die Preissteigerungen von Grafikkarten haben nur zu einem Bruchteil mit Inflation zu tun, sondern überwiegend mit Gewinnoptimierung eines Herstellers. Und hier macht NVIDIA das exemplarisch vor. Wie bei der 4080 12GB haben wir hier einen Chip, den man auch ohne Weiteres geringer klassifizieren könnte. Zu einem stolzen Preis.
 
"Eines" Herstellers sagt er... :fresse:
 
Zuletzt bearbeitet:
Warum sind die Platinen bei nvidia eigentlich alle kurz und bei AMD nicht?

Genau weiß ichs auch nicht mehr, hat aber ganz grob was mit Signaltransfer Entfernung zu tun und je kürzer desto besser, gleiches auch bei der Energieübertragung, je kürzer desto weniger Verluste. Gibt sicher Leute hier die das weitaus besser erklären können als ich. An sich müssten die Teile nicht länger sein. Auch bei AMD nicht.
 
kürzeres pcb hat auch den vorteil dass das pcb nicht so runterbiegt und die kühler können durch den freigewordenen platz durchpusten
 
Fiept leider leicht. Ärgerlich. Ansonsten sehr schöne Karte und unhörbar. Man hört dafür dann die Spulen.
 
Über 700€ für eine Karte mit lächerlichen 12GB VRAM im Jahre 2023. Wilkommen bei NVidia.
 
RGB ist bei mir kein Pluspunkt sondern eher: "wieso verflucht leuchtet es unterm Tisch".
Solang man es per Hardware-Schalter (!) deaktivieren kann, soll mir das recht sein. Aber für gewöhnlich (habe den Test nicht gelesen) sind diese 2 Cent extra nicht mehr drin, nachdem man alles für RGB verpulvert hat. Also muss der Anwender irgend eine nonesense Software mitlaufen lassen.... tolle neue Welt :sick:
 
Bei einer 1660 Gaming X sowie eine 3060 Gaming X konnte ich jeweils 2 kleine Stecker ausstöpseln. In meinem Fall konnte ich sie ohne den Kühler vom PCB zu entfernen mit einem feinen flachkopf Schrauberdreher erreichen, danach gab's visuelle Ruhe und auch die idle Verbrauchswerte wurden etwas interessanter.
 
Wenn ich das bei Igor richtig gelesen hab, ist es bei dieser hier genau so, mit einer JST-Steckverbindung.
Tolle Karte. Das einzige, was mir jetzt nicht so gefällt ist, dass sie die warme Abluft durch die Öffnung in der Backplate vor den CPU-Lüfter bläst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh