Ab 659 Euro: Zwei Modelle der GeForce RTX 4070 im Test

AMEN das Kapitel nicht vergessen zu schließen und danach einen Termin bei einem guten Psychotherapeuten vereinbaren, damit dieser dein Kindheitstrauma adäquat bearbeiten kann Sorry, aber liegt es an mir oder was genau machst du hier? Ich mein, im wesentlichen Kern hast du recht, aber warum in aller Welt muss ich meinen inneren Hass auf Hersteller etc. oder sogar die (Menschheit) in einem Forum niederschreiben :( Alles Gute dir, der Test der 4070 hat dich wohl bis ins Mark getroffen. o_O:btt2:
Es scheint mir eher, dass du den Kern nicht verstanden hast. Schade! Das hat nicht mit Hass zu tun, sondern mit einer Betrachtung der Faktenlage über einen längeren Zeitraum. Wie du darauf kommst, dass ein Therapeut nötig wäre, ist mir schleierhaft. Wie das mit einem Kindheistrauma zusammenhängen soll, finde ich noch viel fragwürdiger.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Anhang anzeigen 876090
OOF 10% langsamer als eine 6800XT, die vor 2 Jahren schon günstiger war... und in FHD siehts noch beschissener aus.
Und 4GB weniger VRAM. Ich bin froh bei ca. 650€ vor einiger Zeit bei der 6800 XT zugegriffen zu haben.

Ich möchte aber auch einmal anmerken, dass sich der PC-Hardware Markt in die Richtung Automarkt entwickelt. Neu immer unbezahlbarer aber gebraucht/älter kann man durchaus gute Deals erschließen. Man muss ja nicht immer direkt das Neueste kaufen.
 
Schöner Test, sind noch weitere im Anflug ?

Wollte eigentlich schon zügig upgraden, preiswert ist sie ja zumindest laut Jensen :fresse2:.
 
Fazit: Das Ding ist hot garbage. Die gesamte RTX 40er Serie ist und bleibt einfach nur ein Schuss in den Ofen für die aufgerufenen Preise und ein Versuch, die absurd überteuerte 4090 als "guten" Kauf dastehen zu lassen. Finger weg von diesen komplett bescheuerten Abzockprodukten!
 
Naja das schlimme ist, dass hier nur noch über den Preis geschimpft wird und darüber das eigentliche Produkt übersehen wird. /:
 
Naja das schlimme ist, dass hier nur noch über den Preis geschimpft wird und darüber das eigentliche Produkt übersehen wird. /:
Ob ein Produkt insgesamt als "gut" oder "schlecht" bewertet werden kann, hängt eben auch maßgeblich vom Preis ab.
Warum sollte man also bei seiner Bewertung Leistung und Preis nicht miteinander koppeln?
Ein tolle Effizienz, ein großerzüger Vram und weitere Features werden dann irrelavant, wenn der Preis für das subjektive Empfinden nicht stimmig ist.
 
Ob ein Produkt insgesamt als "gut" oder "schlecht" bewertet werden kann, hängt eben auch maßgeblich vom Preis ab.
Warum sollte man also bei seiner Bewertung Leistung und Preis nicht miteinander koppeln?
Ein tolle Effizienz, ein großerzüger Vram und weitere Features werden dann irrelavant, wenn der Preis für das subjektive Empfinden nicht stimmig ist.

eben. wie soll ich denn das produkt losgelöst vom preis beurteilen. der für die meisten entscheidende punkt ist doch preis/leistung.
 
Warum sollte man also bei seiner Bewertung Leistung und Preis nicht miteinander koppeln?

Weil man dadurch schnell übersehen kann, dass eine Karte wie die 4070 eine viel länge Lebensdauer haben kann durch Features wie DLSS3 und Frame Generation.
Sprich die Karte kann sehr wahrscheinlich viel länger im System verbleiben, womit sich der etwas höhere Anschaffungspreis relativiert.
 
Weil man dadurch schnell übersehen kann, dass eine Karte wie die 4070 eine viel länge Lebensdauer haben kann durch Features wie DLSS3 und Frame Generation.
Sprich die Karte kann sehr wahrscheinlich viel länger im System verbleiben, womit sich der etwas höhere Anschaffungspreis relativiert.

die andere seite ist der umstand, dass es in der xx70-klasse das modell mit der bisher geringsten komplexität ist und der speicher nvidia-üblich wahrscheinlich zu einer frühzeitigen obsoleszenz beitragen kann. zu einem zeitpunkt, wo die speicher-branche in ihren lagerbeständen ertrinkt. da ist die preisgestaltung doch sehr ambitioniert.
 
FG nur für die neue Gen ist aber künstliche Beschränkung.
Sobalds FG über FSR gibt hat sich das Argument sowieso erledigt.
 
@Holzmann
Die 3070 hatte damals auch Frame Generation und Du hast ihr deshalb auch eine viel längere Lebensdauer bescheinigt.

Und was passiert heute?
Die 6800 (ohne XT) zieht an der 3070 vorbei. Mit Raytracing aktiv! In 1440p und teilweise sogar FHD.
Dank dem Speichergeiz…

Bei extremen Nachladerucklern hilft dann auch kein FG mehr.
 
Gut wie ihr meint, warten wie dann einfach mal ab, wie der Markt die Karte aufnehmen wird und oder ob sie weniger erfolgreich wird, wie die größeren Modelle.
 
Den Test muss ich erwähnen finde ich super
Weil man dadurch schnell übersehen kann, dass eine Karte wie die 4070 eine viel länge Lebensdauer haben kann durch Features wie DLSS3 und Frame Generation.
Sprich die Karte kann sehr wahrscheinlich viel länger im System verbleiben, womit sich der etwas höhere Anschaffungspreis relativiert.
Ja und nein, ich verstehe beide Seiten dich und Klemens. Dennoch muss ich auch eher dazu tendieren, dass die Karten im allgemeinen jetzt objektiv bei Nvidia betrachtet einfach zu teuer sind, Feature hin oder her mehr Vram hätte der 4070 wie auch der 4070Ti echt nicht geschadet. In TLOU um ein Beispiel zu nennen reichen teils die 12GB einfach nicht aus in WQHD.
Software entwickelt sich wird besser und die stellt mehr und mehr Anforderungen an die HW, weiß nicht ob die Karten in 2 Jahren noch ausreichen.

Das sind eher meine Bedenken.
 
Gut wie ihr meint, warten wie dann einfach mal ab, wie der Markt die Karte aufnehmen wird und oder ob sie weniger erfolgreich wird, wie die größeren Modelle.

Joah, der Markt hat die 3070 damals auch gut aufgenommen. Jedenfalls waren alle weg.
 
Ob ein Produkt insgesamt als "gut" oder "schlecht" bewertet werden kann, hängt eben auch maßgeblich vom Preis ab.
Eigentlich nicht. Was du meinst ist preiswert bzw. teuer und nimmst entsprechend eine Bewertung vor welche allerdings subjektiv ist.
Mit den technischen Eigenschaften der Karte hat das eigentlich wenig zu tun, die 4000er GeForce Produktpalette als schlecht zu bezeichnen ist einfach Unsinn.
 
Da Fg ja als Killerargument zählt, ist FG überhaupt interaktiv? Ich meine damit Bild 1 wird genrendert du drückst eine Taste, Bild 1 ist schon fertig, also kann dort der Tastendruck nicht mehr dargestellt werdne, der erfolgt bei Bild 2, Bild 2 wurde aber mit FG erstellt. Wird das trotzdem in Bild 2 dargestellt oder erst in Bild 3 (was ich vermute, da FG den Inputlag in die Höhe schießen lässt)
 
4070.jpg

Hardware Unboxed hat mal Preisleistung untersucht. YT

NV hat mal wieder an der Grenze eine umsatzstarke Karte raus gebracht. Wird sich super verkaufen. Die Zielgruppe kommt ja wegen zu wenig Speicher bald wieder.
 
eine tolle karte. würde ich mir holen, wenn die karte direkt bei release dabei wäre.
 
Gerade User mit älteren Karten Generationen im Rechner erhalten mit der 4070 eine faire Option auf die fortschrittliche Ada Lovelace Generation um zu steigen.

- IT IS SAVE TO UPGADE NOW :d

Aber schauen wie jetzt mal, wie Morgen die Verfügbarkeit aussehen wird und damit die Strassenpreise.
 
Ich vermisse die Zeit wo Holzmann noch Rot war 😂
 
Zuletzt bearbeitet:
Gut wie ihr meint, warten wie dann einfach mal ab, wie der Markt die Karte aufnehmen wird und oder ob sie weniger erfolgreich wird, wie die größeren Modelle.
Naja die technische Ausstattung ist sagen wir mal okay. Der Sprung zur 3080 ist jetzt nicht riesig und der beschnittene VRAM nicht löblich. Die Transistoren sind ja weniger geworden wie in einigen Posts schon geäußert. Sie hat weniger als die typische Ausstattung in dieser Klasse. Das war doch immer die Argumentation warum die 4090 so teuer ist, weil mehr Transistoren auf der gleichen Fläche mit einer teureren Herstellung erreicht wurde, abseits der Straßenperformance

Ich meine schaut man sich die 3080 an, hat jemand damals für 700-800€ nach heutigem Stand einen Mega Wums Deal gemacht. xD

Eine bessere Effizienz hätten sie auch bei einem 3080 Refresh erreichen können, durch geringere Strukturbreiten. Schaut man sich die Geschäftszahlen von Nvidia an, war damals schon an der 3080 für 700€ gut verdient.
 
Komm schon mit Radeon 7 und Teil der AMD "Community" hat er genug gelitten.
 
Man sieht wirklich deutlich dass die 12gb zu wenig sind, in FHD rennt die Karte, ab WQHD bricht sie ein... Enttäuschend. Aber vielleicht lenkt Nvidia dann endlich mal ein was den VRAM Geiz angeht.
Grade in 4K zieht die 3080 FE mit nur 10GB in einigen Spielen vorbei! Vram Geiz ist und bleibt ein Mythos... Am ehesten ist noch vram Anbindung relevant wenn es um hohe Auflösungen geht.
 
Das einzige, was bei der Karte interessant ist, ob sie 120-130W im undervolting mit gleicher Leistung schafft.

Eine Karte auf 3080 Niveau mit 120-130W für 660 Euro ist in Ordnung. (Könnte natürlich besser sein) :)
 
Eine Karte auf 3080 Niveau mit 120-130W für 660 Euro ist in Ordnung. (Könnte natürlich besser sein) :)
Eine Karte mit knapp der Leistung der 3080 zum Preis der 3080 zwei Jahre nach Release der 3080 - selbst ein "in Ordnung" fällt mir da trotz des reduzierten Stromverbrauchs schon schwer.
 
Wer sich anno 2018 eine 2070FE zur UVP 639€ gegönnt hat, wird die 4070FE hart feiern 😅
 
Ne echt miese Karte mit einem geisteskranken Preis. Wer soll das kaufen?
PC Gaming ist für mich dann endgültig gestorben. Ok... zu 99%, werde das Elend noch ein paar Monate beobachten und dann meinen Kram verkaufen.
Wir werden nur noch verar****. Schade, dass das den wenigsten auffällt.
Warum direkt alles verkaufen, muss man denn immer das Neuste in 4K spielen?
Ich komme mit meiner GTX 1070 immernoch zurecht muss ich sagen.
 
Mal sehen, ob nvidia mit der nächsten Gen auf ein Chiplet setzt und wenn ja wie sie es umsetzen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh