Ab 659 Euro: Zwei Modelle der GeForce RTX 4070 im Test

Das würde bedeuten die Anforderungen der Spiele steigen im VRAM Bedarf signifikant schneller als im Rechenleistungsbedarf. Ist dies der Fall?
Also da kannst du am billigsten Optik rausholen, durch hochauflösende Texturen und die brauchen flotten großzügigen Speicher. Allerdings, muss die GPU Architektur es entsprechend auch schaffen diesen Speicher zu befüllen und zu verwenden.

Naja wenn man sich aktulle Games anschaut und die Leistung der Grafikkarten, irgendwann kann physik nicht viel
realistischer werden als es wirklich ist oder Schatten und Reflektionen.. Abseits der Games mit Realismus ist man schon weit am Ende dessen was man unbedingt noch bräuchte.

Interessanter wird es mit realistischerem VR dort braucht man ja das Bild doppelt in den gleichen Details. Also eine solide 8k Grafikkarte mit mindestens 60fps (für 2x30fps 4k) und einer 4k VR Brille mit 90hz oder so wäre schon was.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein gutes Preis/Leistung Upgrade für meine 2080Ti. Weis nicht was Ihr spielt, mein 12GB Vram laufen nicht voll bei mittleren Einstellungen :bigok:

mfg Harry
 
Fast schön ein bisschen niedlich, wie winzig meine 2060 neben der neuen 4070 aussieht:

20230417_142115.jpg
 
Fast schön ein bisschen niedlich, wie winzig meine 2060 neben der neuen 4070 aussieht:

Ging mir bei der 4090 iChill Frostbite ähnlich! Das Teil selber ist über 10cm kürzer als meine alte 2080 Ti, auch sonst viel kompakter. Dafür hat sie dann einen riesigen Karton gehabt! :d
 
Wie schon an anderer Stelle gesagt, ich werde nicht wieder in die völlig sinnlose Preisdiskussion mit der Meckerfraktion gehen, aber die 4070 ist so wie sie ist ein gutes Stück Hardware. Da sind sich auch alle Reviewer einig. Für 1440p eine sehr gute Karte die nächste Zeit über. Der RAM wird da vielleicht in absoluten Ausnahmefällen in sehr schlecht optimierten Games mal knapp.

Kann mich noch gut an die FarCry 6 HD Res Texturen Sache erinnern. Wie die AMD Fans wieder alle am jauchzen waren, ob der VRAM Mengen auf ihren Karten. Am Ende hat es doch so fast eh keiner gezockt und wenn war es das Spiel auch gar nicht wert. Ja ich bin auch dabei, dass 12GB das Minimum darstellen, was eine Midrange Karte haben sollte, aber es ist eben das Minimum und nicht zu wenig. Selbst mit der 3080 10GB konnte ich fast alles in 4K ohne Schluckauf zocken letztes Jahr. In Games wie Division 2 war der auch bis zur Kotzgrenze voll, daher wollte ich upgraden. Aber grundsätzlich ging das schon noch.
Aber wenn nVidia in ein über zwei Jahre altes Spiel eine Technologie-Vorschau mit Pathtracing einbauen lässt, zudem nur optimiert auf einen von drei aktuellen Grafikkartentypen auf dem Markt, ist es das Maß der Dinge? Nicht falsch verstehen, ich finde Ray/Pathtracing technisch faszinierend und halte es auch für die Zukunft, aber ich finde es verfrüht, daraus jetzt großartige Ableitungen auf den Gesamtmarkt zu treffen. Der wird allein durch die Konsolenbasis erstmal klar bei "hybridem Raytracing" verharren, wo auch RDNA3 meist ganz gut performet.

Und vielleicht bin ich da als RTX 3070-Käufer etwas geschädigt, aber für mich reichen die 12 GB der 4070 und insbesondere der 4070 Ti überhaupt nicht aus. Nur weil die jetzt okay laufen in WQHD, und Ausnahmen alle als schlechte Ports betitelt werden, heißt das nicht, dass das nicht wie bei der 3070 schon wieder ein Fingerzeig auf die Zukunft ist. Die 3070 hatte nämlich auch schon bei Release damit zu kämpfen.
CP 2077 machte sich mit RT zwar gut in Benchmarks, wenn man es aber tatsächlich mit RT spielen wollte, ist man spätestens nach zwei Mal Schnellreisen wieder ins Hauptmenü gewechselt, weil die Performance mysteriöserweise eingebrochen ist und man den VRAM erstmal wieder leeren musste...
Ich bin, wenn ich auf die zurückliegenden 2 1/2 Jahre mit der 3070 der Meinung, dass ich mit der Karte häufiger VRAM-limitiert war in WQHD, als ihre Raytracing-Fähigkeiten wirklich voll ausfahren zu können. Und das ist schon sehr ernüchternd und relativiert auch AMDs Schwäche in der Mittelklasse etwas. Was Highend angeht, würde ich zustimmen, ab der RTX 4080 und dem 1.000€-Preispunkt würde ich auch klar zu nVidia greifen, weil die einfach insgesamt ausgewogener sind.
 
Aber wenn nVidia...
Es steht Dir ja frei, zu einer 16GB Karte zu greifen. Nach den letzten Preissenkungen sind 6800XT & Co doch recht attraktiv geworden, wenn man DLSS3 jetzt mal ausblendet. Daraus fehlt mir jedoch die Ableitung, warum NVidia nun ihrerseits der 4070 16GB verpassen muss. Ich hatte nie eine 3070, daher kann ich zu ihr nichts sagen. Mit meiner 3080 war es stellenweise wie gesagt auch recht knappt mit dem RAM, von vornherein 12GB wären toll gewesen. Oder 12. Oder auch gleich 24. Aber die Karte hatte nun mal 10GB, was auch auf der Packung stand. Und mir ist nun nicht klar, wieso ich deswegen sauer auf NVidia sein sollte und alle Threads zu neuen Karten mit dieser Message zutexten muss. Auch mit 12GB hätte ich genau zu dem Zeitpunkt auf die 4090 geupgradet, wie ich es auch so getan habe. Der Kaufprozess ist doch bei jedem gleich:

Wie hoch ist mein Budget?
Was hat AMD gerade im Angebot?
Was NVidia?
Welche Erfahrungen mit meinen vergangenen Produkten bringe ich mit ein?

Ok, dann nehme ich Produkt X. Und bin dabei weder auf Grün noch auf Rot sauer, denn sie haben halt einfach im Angebot, was sie im Angebot haben. Wenn mir davon nichts gefällt, kaufe ich halt nix.

Wenn ich sehe, dass hier Leute aus Spaß an der Freude von einem 5800X3D/12700/Rocket Lake Prozessor einfach aus Spaß an der Freude auf einen 7800X3D wechseln (was ja auch cool ist) und sich dann über das Preisgefüge bei Grakas beschweren, dann ist das einfach ein Witz, sorry.
 
Zuletzt bearbeitet:
Man muss aber auch keinen Altruismus gegenüber Monopolkonzernen an den Tag legen wie du.... Die haben den längeren Hebel und nutzen den auch, wie Nvidia überaus deutlich macht. Wenn man dagegen jetzt nicht mal mehr etwas sagen darf, will ich nicht wissen welche Art von Unterordnung unter die Knute da sonst noch gefordert werden....

Ich gebe dir Recht dass man nicht die ganze Zeit draufhauen und jammern muss, aber man muss schon zwischen gemaule und einer angebrachten Evaluation des Produkts unterscheiden. Und wenn diese Evaluation nunmal lautet, "schade, eigentlich ein geiles Produkt, aber dann am Ende beim RAM falsch abgebogen" dann ist das vollkommen valide.
 
Man muss aber auch keinen Altruismus gegenüber Monopolkonzernen an den Tag legen wie du.... Die haben den längeren Hebel und nutzen den auch, wie Nvidia überaus deutlich macht. Wenn man dagegen jetzt nicht mal mehr etwas sagen darf, will ich nicht wissen welche Art von Unterordnung unter die Knute da sonst noch gefordert werden....

Ich gebe dir Recht dass man nicht die ganze Zeit draufhauen und jammern muss, aber man muss schon zwischen gemaule und einer angebrachten Evaluation des Produkts unterscheiden. Und wenn diese Evaluation nunmal lautet, "schade, eigentlich ein geiles Produkt, aber dann am Ende beim RAM falsch abgebogen" dann ist das vollkommen valide.
Wo findet diese denn statt? Sätze wie "kommt am Ende auf den Used Case / das Spiel an" findet man in den entsprechenden Beiträgen vergebens. Die Kommentar von wegen Altruismus habe ich mal überlesen.

Selbst in kritischen und Euer Argument eher unterstützenden Videos wie diesem ist das genau der Punkt.


Bei 24:30 sagt er "8GB no longer sufficient for high end Gaming". Und die 4060 ist was? Rööchtöög, eine lower mid Range Karte. Wer eher auf VRAM schielt als auf RT Performance greift dann eben bei Team Rot zu oder muss weiter oben ins Regal langen.
 
Zuletzt bearbeitet:
das gibt 4 gb, 3,5 +0,5.
6+8 ? ;)
 
Du hast den Witz leider nicht verstanden.
 
das gibt 4 gb, 3,5 +0,5.
6+8 ? ;)
die 6+8GB waren hier im Thread eher als Scherz gedacht. Eben weil NVIDIA schon immer mit Speicher gegeizt hat, wäre auch so ein Modell wieder möglich.

Der Lederjacke traue ich mittlerweile alles zu...
 
Die Frage ist ja, eine RTX4070 ist mit 12GB eigentlich schon untermotorisiert. Stand jetzt mag das gehen, aber Ende des Jahre Anfang nächsten Jahres?

Für die 4060 muss dann ja schon fast 8GB sein. Was so gesehen 2023 ein schlechter Scherz wäre. Meine 3070 ist mit ihren 8GB in manchen Situationen so am Limit, dass da teilweise die RTX3060 vorbei zieht, weil sie eben 12GB hat
 
Bei ihm fällt mir immer wieder nur der eine Spruch ein: "The more you buy, the more you save":hust:

Aber der Spruch ist genial, weil er stimmt, denn wer vor ca. 2 Jahren eine 3090 zur UVP bekommen hat, kann locker eine Generation aus setzen und spart dem entsprechend ein.
 
ich setz das forum hier auch besser mal eine Zeit aus
 
Zuletzt bearbeitet:
Wo findet diese denn statt? Sätze wie "kommt am Ende auf den Used Case / das Spiel an" findet man in den entsprechenden Beiträgen vergebens. Die Kommentar von wegen Altruismus habe ich mal überlesen.

Selbst in kritischen und Euer Argument eher unterstützenden Videos wie diesem ist das genau der Punkt.


Bei 24:30 sagt er "8GB no longer sufficient for high end Gaming". Und die 4060 ist was? Rööchtöög, eine lower mid Range Karte. Wer eher auf VRAM schielt als auf RT Performance greift dann eben bei Team Rot zu oder muss weiter oben ins Regal langen.

Ich sag ja, ich stimme dir schon zu dass man nicht dauernd maulen muss und gebetsmühlenartig dieselbe Leier abspielen. Geht mir auch auf den Keks
Gerade in dem Fall hier ist das unangebracht, die Karte ist kein high End, und daher höchstens zu teuer um Low end zu sein. Trotzdem kommt das gemaule ja nicht von ungefähr...
 
Was ne geile Karte und relativ billig. Wenn mein gehäuse ankommt wird gekauft💪🏼🙂


Vielleicht gehts bis dahin auf 550 zu👽
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh