ASUS, INNO3D und NVIDIA: Die GeForce RTX 4070 Super im Test

@Hurricane und andere bwl-spezis
hätte hätte... fahrradkette.

nvida trifft bewusste entscheidungen. das ziel: gewinnmaximierung. schon mal den aktienkurs die verfolgt? >> wie denn, bist ja mit der verdauung des vram-mangels beschäftigt.

finde dich damit ab, damit diese diskussionen aufhören, ob zu wenig speicher oder doch nicht?! who cares?! wenn deine ausgesuchte karte für die heutigen individuellen einstellungen passt, dann ist ja alles gut. was juckt dich morgen?! dann kaufst du dir morgen eine neue, die dann zu morgen passt! dieses gerede, in zukunft wäre dies oder das... nur noch nervig.

@Morrich
untertitel: legende
passt wie die faust aufs auge im wahrsten sinne des wortes. mehr ist dem nicht anzufügen.
Beitrag automatisch zusammengeführt:

Wir nehmen die Last-Werte in einem Spiel auf (Control) und verwenden dazu keine solchen Tools.

schau mal hier @Don
dort steht in der kurve, dass die karte bei ca. 1000 rpm läuft. die 800 rpm anlauf (wie in deiner tabelle) können ja dann nur für einen bruchteil der zeit sein, oder?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welche denn? Am Ende ist es doch entscheidend, wie ein Spiel bei gleichen Einstellungen auf den jeweiligen Karten performed. Division 2 zum Beispiel weist bis zu 17GB VRAM auf einer 4090 in 4K zu, auf der 4070Ti kann ich es mit weniger FPS aber genau so ruckelfrei (weniger FPS, klar, aber stutterfree) spielen, obwohl hier nur 11GB zugewiesen werden. Und das konnte ich reproduzieren als ich beide Karten hier hatte für einen kurzen Zeitraum. In DCS MP konnte ich "Laderuckler" auch auf einer 4090 provozieren, die 4070Ti hatte hier auch nicht mehr Probleme (2D, kein VR).

Also die Frage "was kommt hinten raus" könnte man schon beantworten. Hat HWU doch auch mal mit Hogwarts und einigen Spielen gemacht.

Selbst wenn der VRAM weit davon weg ist voll zu sein, benutzen Nvidia Karten weniger VRAM und lagern die Daten an statten im normalen RAM. Da gab es schon einige Tests zu, aber keine Lust dafür jetzt die Quellen rauszusuchen. Während AMD alle Daten (auch die, die vielleicht interessant werden könnten, es aber noch nicht sind) in den VRAM lädt, selektiert Nvidia besser und benutzt für die "könnte Interessant werden" erstmal den RAM. Auf Framestimes oder ähnliches hat es sich nicht ausgewirkt.
Destotrotz sollten es für so eine starke Karte doch schon 16GB sein. Vorallem für den Preis.
 
dort steht in der kurve, dass die karte bei ca. 1000 rpm läuft. die 800 rpm anlauf (wie in deiner tabelle) können ja dann nur für einen bruchteil der zeit sein, oder?
Die 800 RPM sind der Startpunkt, aber selbst von 1.000 RPM geht es ja dann relativ schnell weiter. Hängt alles davon ab, wie viel Last wie schnell die Temperaturen steigen lässt.
 
Die Founders Edition ist super schick. Die gibt es wieder bei NBB zu kaufen dann? Ich bin seit Ampere nicht mehr wirklich da im Thema (war auch schlimm genug), wie oft sind die Karten denn aktuell mal verfügbar und wie lange? Aktuell ist ja auch keine FE zu bekommen.
 
was juckt dich morgen?! dann kaufst du dir morgen eine neue, die dann zu morgen passt! dieses gerede, in zukunft wäre dies oder das... nur noch nervig.
Und genau diese Einstellung kotzt mich hier so an. Kann ja sein dass du das so handhabst, schön für dich. Andere Leute machen es bewusst nicht oder aber sie haben gar nicht die Möglichkeit dazu.

Ich verstehe auch nicht, warum solche Vögel wie du oder Infi88 hier auch so versessen darauf sind, vollkommen legitime Kritikpunkte an einem Produkt kleinzureden bzw. zu suggerieren, dass das gar kein valider Anknüpfungspunkt wäre, sondern wir einfach unsere Fresse halten sollen. Das finde ich nervig!

Und dann solche Borderline-Troll Kommentare wie:
Morrich steht einfach auf etwas mehr Steinzeitspeicher und ordentlich Spulenfiepen für das vollkommene Radeon Erlebnis.
schon mal den aktienkurs die verfolgt? >> wie denn, bist ja mit der verdauung des vram-mangels beschäftigt.
In anderen Foren werden Beiträge für solchen Umgang mit anderen Usern versenkt, und das auch zurecht.
 
Die Founders Edition ist super schick. Die gibt es wieder bei NBB zu kaufen dann? Ich bin seit Ampere nicht mehr wirklich da im Thema (war auch schlimm genug), wie oft sind die Karten denn aktuell mal verfügbar und wie lange? Aktuell ist ja auch keine FE zu bekommen.

Morgen um 15:00 Uhr soll es losgehen mit dem Verkauf der Karten. Mal schauen wie sich Verfügbarkeit und Preise entwickeln werden.
 
Die Founders Edition ist super schick. Die gibt es wieder bei NBB zu kaufen dann? Ich bin seit Ampere nicht mehr wirklich da im Thema (war auch schlimm genug), wie oft sind die Karten denn aktuell mal verfügbar und wie lange? Aktuell ist ja auch keine FE zu bekommen.
Morgen 15 Uhr geht's los. Die FE sicherlich wieder exklusiv bei NBB wie immer.
 
Der offizielle Verkauf startet erst morgen.
Morgen um 15:00 Uhr soll es losgehen mit dem Verkauf der Karten. Mal schauen wie sich Verfügbarkeit und Preise entwickeln werden.
Morgen 15 Uhr geht's los. Die FE sicherlich wieder exklusiv bei NBB wie immer.
Sorry für das Missverständnis, das war auch allgemein gefragt. Es ist ja aktuell gar keine 40er FE zu bekommen. Gibt es die in „Drops“ oder sind die bei Verfügbarkeit auch länger verfügbar?
 
Sorry für das Missverständnis, das war auch allgemein gefragt. Es ist ja aktuell gar keine 40er FE zu bekommen. Gibt es die in „Drops“ oder sind die bei Verfügbarkeit auch länger verfügbar?

Die RTX-40-Serie war was die Nachfrage angeht bei weitem nicht mehr so schlimm wie die RTX-30-Serie. Ich würde das Thema Kauf mal ganz entspannt angehen.
 
Absehbar zu teuer, IMHO zu geringe Differenz zu einer 4080FE Super, ma gucken ob eine zu bekommen ist.
Meinst du preislich zu geringe Differenz? Nach oben hin wird das € / FPS Verhältnis schlechter, aber verstehe schon, eine 4080 Super ist nicht soo weit weg und dieses "ach komm die 2 Scheine mehr sind nicht so schlimm und dann haste was richtiges" Gefühl kommt schon etwas auf, nur ich finde die Karte ist ein richtiger Trümmer. Mods haben gezeigt dass man locker eine normale 2-Slot Karte daraus machen könnte. Mit Wasserkühlung wäre es eigentlich perfekt, aber dann hat man wieder diesen Heckmeck mit der Garantie und mein Zockverhalten wird den Ausgaben einfach nicht mehr so gerecht. Keine Ahnung muss echt noch überlegen, aber die 4070 TI Super ist glaub dann noch irgendwie ein Kompromiss für mich. Auch irgendwie teuer, aber technisch nicht so lame. Was die 4070 Super ja auch nicht ist, aber wäre für mich eher die "Vernunftkarte".
 
Beim Inhaltsverzeichnis hätte man auch bei Far Cry 6 ... (Raytracing), Marvel ... (Raytracing), usw. hinschreiben müssen.
Zwecks Optik und einheitlichem Schriftbild. Entweder überall (Raytracing) wo mit Raytracing ist bitte oder (Raytracing) einfach nicht in die Überschrift packen.
Die Erwartungshaltung war - Benchmark Seite ohne Raytracing anschauen - Enttäuschung ist - Benchmarkwerte mit nichtssagenden Raytracing Werte für mich.

Danke dass zumindest diesesmal Spiele ohne Raytracing vorhanden ist.

und was hast du von einem modernen dp-anschluss in der praxis, was du mit dem veralteten nicht hast? hdmi 2.1a reicht nicht?

Wenn die Grafikkarte, so weit ich es gesehen habe, drei Displayportanschlüsse hat, so erwartet man sich doch bei so einer Neuware und neuen Produktvorstellung im Grunde den letzten Standard des verfügbaren STandards für den Displayport.

Bei zwei - drei - oder sogar vier Monitore muss ich dann zwangsläufig Displayport verwenden.

HDMi ist für mich als Einzelfall minderwertig. Es mag seinen Einsatzzweck haben für Fernseher und Geräte die mit Fernseher betrieben werden.

Man könnte auch die These aufstellen, warum drei Displayport oft verbaut sind, oft nur ein HDMI verbaut sind und sehr selten ein USB-C imt Displayport Funktionalität. Mir ist auch nicht bekannt, dass es USB-C mit HDMI im Hintergrund gibt. Für mich im Grunde auch ein Indiz dass Displayport vermutlich der "bessere" Anschluss für einen Monitor ist. Ausgenommen Fernseher und die üblichen Einsatzszearien für Fernseher.

--

Danke Holzmann bezüglich DP Thematik.

Kann bitte Hardwareluxx gegenprüfen ob es jetzt DP1.4a oder DP1.4 ist bei der Inno3d?


Stichprobe - nur eine Grafikkarte


Standard Display ConnectorsHDMI 2.1a, 3x DisplayPort 1.4a

Hardwareluxx meint es sei

3x DisplayPort 1.4
1x HDMI 2.1

Egal ob es jetzt 1.4 oder 1.4a ist, es ist immerhin veraltet

Die Diskussion ob jetzt momentan für gewisse Kundengruppen ein niedriger DP Anschluss ausreicht oder nicht möchte ich nicht führen. Es ist aber eine technische Einschränkung, ein erheblicher Mangel des Produkts.

Warum Inno3d meint, man benötigt mindestens ein 450Watt Kabel - muss ich auch nicht verstehen.

2x PCIe 8-pin cables (adapter in box) OR 450 W or greater PCIe Gen 5 cable

--

Ich würde jeden bitten mal, so wie ich, einmal für 2-3 Monate das Konkurrenzprodukt zu verwenden. Ich habe mir 2023 für 2-3 Monate mal die Windows und gnu Linux Nvidia Treiber einer 960 GTX 4GiB mal angeschaut.

Ich habe 2023 auch Grafikkarten durchprobiert. Leider unfreiwillig. Den Speichermangel sah ich indirekt in meinem Einzelfall bei AMD Grafikkarten. Es soll jeder selbst eine Kaufentscheidung treffen. Den Speichermangel mit 8GiB oder 12GiB immer noch anzuzweifeln akzeptiere ich. Ich war einer von wenigen die dies schon früher erkannt haben. Produkt Nvidia 3070 ist ein sehr gutes Negativbeispiel. Gewisse Webseiten und Youtube Kanäle, z.b. PCgameshardware bestätigen auch schon den Speichermangel bzw. formulieren es schon im Fazit, Vorsicht wenig Grafikkartenspeicher. Es ist nicht mein Geld - es ist nicht meine Grafikkarte und es ist nicht mein Computer. Jeder soll kaufen und tun was er will, er muss dann mit den technischen Einschränkungen leben, falls es diese möglicherweise doch gibt. Z.B. neuer Nvidia Netzteilanschluss an der Grafikkarte. eine nicht aussagekräftige Stichprobe meinerseits ist es, den Gebrauchtmarkt von angebotenen Grafikkarten zu untersuchen mehrmals die Woche über mehrere Jahre. Da könnte man doch vielleicht einiges an gemeinsamkeiten ableiten. auch sieht man verkauft der Benutzer X seine Grafikarte vom Typ y zum Preis Z.


Willst du diese weit über 1000€ teure Karte nach 1-2 Jahren schon wieder abstoßen?


Nach 2 Jahren würde ich schon eine Grafikkarte tauschen.

Keine Gewährleistung mehr. Die abgeleisteten Betriebsstunden. Die eingetrocknete Wärmeleitpaste. Die Lüfterlautstärke und mögliche Lüfternebengeräusche die ich vorher nicht sehen kann auf einer Webseite des Herstellers. Hitzeproblem wegen eingetrockneter Wärmeleitpaste oder schelchtem Kühlkonzept. Langzeittreiberprobleme. Nicht abschaltbare RGB Leuchtbalken. Softwareprobleme. 6facher Stromverbrauch im Leerlauf - der treiberbedingt ist.

Ich hatte 4 dedizierte Grafikkarten in meinem Rechner verbaut 2023. Wenn man die Ryzen 7600X integrierte GPU mitzaehlt, waren es 5 Grafikkarten.
 
Zuletzt bearbeitet:
Und genau diese Einstellung kotzt mich hier so an. Kann ja sein dass du das so handhabst, schön für dich. Andere Leute machen es bewusst nicht oder aber sie haben gar nicht die Möglichkeit dazu.

Ich verstehe auch nicht, warum solche Vögel wie du oder Infi88 hier auch so versessen darauf sind, vollkommen legitime Kritikpunkte an einem Produkt kleinzureden bzw. zu suggerieren, dass das gar kein valider Anknüpfungspunkt wäre, sondern wir einfach unsere Fresse halten sollen. Das finde ich nervig!

Und dann solche Borderline-Troll Kommentare wie:


In anderen Foren werden Beiträge für solchen Umgang mit anderen Usern versenkt, und das auch zurecht.
wir sind hier aber bei hwl und hier darf jeder seine meinung sagen, auch du.
das cb-forum hat für mundpflaster seine diener, ähm mods, die dann kräftig mit dem zensurhammer schwingen. peinlich.

erstmal: ich bin kein vogel, sondern ein mensch.
2. dein kritikpunkt ist nachvollziehbar, jedoch zeugt es traurigerweise von deiner unwissenheit. evtl hast du auch in der schule nicht aufgepasst? lasse ich mal dahin gestellt. fakt ist: produkte werden in marktsegmente eingeteilt. da war für dich eben nicht mehr ausreichend vram übrig. bedeutet: greife ein regal höher! kannst du das nicht, dann finde dich damit ab oder gehe zur konkurrenz. alternativ (wie du es schön schreibst...)
... einfach... Fresse halten...
 
Die FEs werden von Proshop vertrieben
 
Und genau diese Einstellung kotzt mich hier so an. Kann ja sein dass du das so handhabst, schön für dich. Andere Leute machen es bewusst nicht oder aber sie haben gar nicht die Möglichkeit dazu.

Ich verstehe auch nicht, warum solche Vögel wie du oder Infi88 hier auch so versessen darauf sind, vollkommen legitime Kritikpunkte an einem Produkt kleinzureden bzw. zu suggerieren, dass das gar kein valider Anknüpfungspunkt wäre, sondern wir einfach unsere Fresse halten sollen. Das finde ich nervig!
Was ist denn genau Dein Problem? Bzw. wie hätte er sich denn Deiner Meinung nach richtig verhalten? Wenn er die Klappe hält und seine Meinung zum Thema nicht sagt?

Es ist mir völlig egal was für Dich ein valider "Anknüpfungspunkt" ist. Ich akzeptiere, dass es Leute gibt, die wegen des VRAMs halt keine 4070 kaufen würden. Klasse, haben wir das geklärt. Ich würde halt eine kaufen und empfinde die 12GB als ausreichend dimensioniert. Genau so wie auch die 8GB auf einer 3070 ok waren. Wer sich so ein Teil "für die Zukunft" gekauft hat, war halt auf dem falschen Dampfer. Und solange es Alternativen gibt, ist doch alles paletti.
 
Für den ein oder anderen sicherlich auch noch wichtig: NVIDIA hat mit der GeForce RTX 4070 Super die Nutzung des 12VHPWR-Stromanschlusses für alle Karten - und nicht mehr länger nur seine eigenen Founders Edition - durchgesetzt. Es dürfte sich um eine Vorgabe seitens NVIDIA handeln, dass dieser Anschluss nun ausnahmslos verwendet werden muss,
Und damit sollte diese Kartengeneration für jeden Vernünftigen erledigt sein. Nvidia muß von den Kunden gezwungen werden, diesen Schrott zu beerdigen!
 
Es ist ja nicht nur NVIDIA alleine, auch wenn man den 12VHPWR wirklich am stärksten durchdrückt. Buchse+Stecker sind Teil der Spezifikation. Man hat es versäumt die 8/6-Pin-Anschlüsse in die Gegenwart zu überführen denn klar, die hätte man problemlos weiterverwenden können.
 
Schon, aber wo bleibt die Vernunft der Handelnden? Es hat doch kein Beamter die Spezifikation beschlossen, der vielleicht Ahnung von einer Puppenstubenbleuchtung hat. Die technischen Parameter (dickere KAbel, kleinere Pins, insgesamt mechanisch instabiler) kam ja wohl von Nvidia, oder?
 
Wenn man keine Ahnung hat und so, kennste?

1705439418081.png
 
Der in Intels neuer ATX-3.1-Spezifikation vorgeschriebene "12V-2x6" ist nicht identisch mit dem 12VHPWR!
Obwohl auch der nur ein Doktern an Symptomen ist und das Grundproblem eines viel zu kleinen und mechanisch zu instabilen Steckers für strombedingt (50 Ampere!) zu dicke Kabel nicht lösen kann.

Wenn man... im Steinhaus sitzt, soll man nicht mit Gläsern werfen! 8-)



Und Intel hat übrigens, wie AMD, bislang keine einzige Grafikkarte mit diesem Anschluß auf den Markt gebracht - nur Nvivia!
 
Hat die 4070 Super FE auch wieder Kugellager im Lüfter? Ich fand die bei der 3070 FE unangenehm laut bei geringen Drehzahlen, die haben selbst dann hörbar geschliffen wenn man den Lüfter im ausgeschalteten Zustand langsam per Hand gedreht hat.
 
Hat die 4070 Super FE auch wieder Kugellager im Lüfter? Ich fand die bei der 3070 FE unangenehm laut bei geringen Drehzahlen, die haben selbst dann hörbar geschliffen wenn man den Lüfter im ausgeschalteten Zustand langsam per Hand gedreht hat.
Alles fluid dynamic bearings bzw. hydrodynamic bearings,

Und genau diese Einstellung kotzt mich hier so an. Kann ja sein dass du das so handhabst, schön für dich. Andere Leute machen es bewusst nicht oder aber sie haben gar nicht die Möglichkeit dazu.

Ich verstehe auch nicht, warum solche Vögel wie du oder Infi88 hier auch so versessen darauf sind, vollkommen legitime Kritikpunkte an einem Produkt kleinzureden bzw. zu suggerieren, dass das gar kein valider Anknüpfungspunkt wäre, sondern wir einfach unsere Fresse halten sollen. Das finde ich nervig!

Und dann solche Borderline-Troll Kommentare wie:


In anderen Foren werden Beiträge für solchen Umgang mit anderen Usern versenkt, und das auch zurecht.
Nicht alles was dir nicht schmeckt ist ein Borderline-Troll Kommentar
:stupid:
, geschweige denn das ich die Leute als Vögel beleidige wie du.
Ich habe schlicht ebenfalls legitime Kritik an deiner geübt. Das du die Fresse halten sollst wäre zwar zu begrüßen, war aber ebenfalls nicht meine Wortwahl.

Davon ab hängt den Leuten dein VRAM Gesülze wahrscheinlich zu den Ohren raus, mit Fremdwörtern um sich zu werfen macht die Radeon leider nicht besser. Das die 16GB GDDR6 im Vergleich zu den 12GB GDDR6X der GeForce in WQHD der Heilsbringer seien für deine geliebte 7800 XT ist halt Unsinn, wie man ebenfalls im HWL Test nachlesen kann.
 
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
TL;Dr Version: Entspannt euch mal. 16GB auf einer 4070 sieht nicht jeder als unabdingbar.



Nun, Ihr zerschießt Euch Eure Logik doch schon selbst (jetzt nicht Du persönlich @********* , eher diese "Seite"); Wenn AMD Karten empfohlen werden, sind Features wie RT plötzlich irrelevant und man kann doch die Regler Bedienen. Wenn es um VRAM geht, müssen es aber anscheinend immer volle Texturen in 4k sein.

Zweitens ist das Argument "für xx Euro müssten es aber 16GB sein" aus der Luft gegriffen. Warum eigentlich? Wer sagt das? HWUnboxed? Das ist ein völlig aus der Luft gegriffener Wert. Warum nicht ab 400€? Oder 700€?

Dann diese "man kann nie genug VRAM haben" Nummer. LoL. Die Karte wird für eine. bestimmte Zielgruppe vermarktet. Dafür sind die 12GB absolut ausreichend dimensioniert. Kein Mensch braucht ein 5,7l V8 in einem Golf.

Naja und zu guter letzt das Thema mit der Zukunft. Mal ganz nüchtern betrachtet ohne Emotionen: Das Ding wird heute 99% aller Spiele mit vollen Texturen und anderen Features ausreichend schnell betreiben können auf 1080 oder1440p. Und auch in zwei Jahren werden es noch 97% sein. Ja diese Zahlen hab ich mir aus dem Hintern gezogen, aber wer das nachprüfen möchte möge es tun. Also wo ist das Problem? Dass Ihr Hogwarts nicht in voller Pracht zocken könnt? Dafür gibt's auch Karten wenn das Euer Used Case ist.

Also machen wir uns nix vor, es ist am Ende doch wieder nur eine reine Preisdiskussion. Denn für die Rasterleistung passen die 12GB. Naja und die haben wir hier schon x Mal rauf und runter gejockelt.

Kurz und knapp: jeder darf hier seine Meinung haben und ich akzeptiere absolut, wenn die 12GB jemandem zu wenig sind. Aber ich habe auch nur meine Meinung zum besten gegeben und brauche dann nicht solche Sprüche wie "schönreden" oder NVidia Fanboy oder so einen Unsinn. Aber ich sterbe jetzt auch nicht daran. Und die Emotionen hat der Herr weiter oben im Thread eingeführt, der wohl gleich n Herzklabaster bekam ob der Diskussion hier. Damit kommt Eure "Seite" dann meistens als erstes um die Ecke. Muss wohl jeder für NVidia arbeiten, der das nicht kritisiert. Nein, es ist also für mich keine berechtigte Kritik, einfach auch nur eine Meinung. Bin auch nicht zart besaitet, darf gerne etwas Salz in die Suppe. Aber dann zieht euch eben auch etwas wärmer an. Wenn dann in beide Richtungen. Sind ja hier nicht in der Selbsthilfegruppe für Mauerblümchen.


Sorry für die Wall of Text.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh