Auf Niveau einer RTX 3090 Ti: Fünf Modelle der GeForce RTX 4070 Ti im Test

Schon heftig wenn man bedenkt dass die 2080 Ti die Liste nun von unten anführt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kleiner Fehler in der Einleitung: Im Vergleich zur 3070ti wird hier beim Speicherinterface gar nichts kaschiert. Denn auch die 3070ti hatte GDDR6X-Speicher! Nur die normale 3070 hatte GDDR6-Speicher...
 
Frage in die Runde: Wie bestimme ich die anzusetzende Taktrate die ich zum undervolten ansetze? Hier bei der 4070 TI TUF non OC. Setzt man einfach den Basistakt von 2310 MHz an?
 
Schau mal hier vorbei;

 
Zum Thema 192 bit bus ist zu wenig, das stimmt garnicht, weil es immernoch 192bit gddrx6 sind, außerdem läuft die karte mit 21 gbs, mit vram oc sogar 23gbs, schneller als eine 3090er. Das einzige was limitieren könnte ist die Speichergröße von 12gb und nicht die 192 bit Speichergeschwindigkeit.
 
Hallo, ich wollte die ASUS nehmen, bin aber etwas unsicher geworden, da laut benchmarks (in diesem artikel) die 1% lows und generell die fps niedriger ausfallen als bei den anderen custom modellen…wie kommt das? Bitte um Aufklärung🙏
Lg, Stefan
Beitrag automatisch zusammengeführt:

…und die iChill schneidet für mich hier in jeder Hinsicht am besten ab…am sparsamsten, beste fps, am leisesten, optisch auch top…wow. Nur die 3 8-pin stecker hindern mich an den kauf…
 
Naja, wie gross kann der FPS unterschied denn in realen Szenarien sein? Lass dich nicht davon beeinflussen. Leistungstechnisch wirst du mit jeder 4070ti zufrieden sein.
 
Zuletzt bearbeitet:
Naja es sind immerhin gute 10fps unterschied in den lows, das ist viel! Und nicht nur bei einem spiel, irgendwie schwächelt die TUF besonders…sehr seltsam.
 
Naja es sind immerhin gute 10fps unterschied in den lows, das ist viel! Und nicht nur bei einem spiel, irgendwie schwächelt die TUF besonders…sehr seltsam.
Messtoleranz. Die 1% Lows schwanken immer extrem.
Sie bilden ja einen Worst-Case ab, der nicht immer auftritt. Würde ich ignorieren. 4070 TI ist 4070 TI. Kein Hersteller macht daraus eine bessere oder schlechtere GPU.
Solange Du kein Blower Kühler findest, sind die alle einigermaßen identisch, bis auf die Temperaturen und Lautstärke der Lüfter. Und beides hat keine Auswirkung auf die Leistung, weil selbst die heißeste 40er Gen GPU noch gute 25-30 Grad unter dem Limit agiert.

…und die iChill schneidet für mich hier in jeder Hinsicht am besten ab…am sparsamsten, beste fps, am leisesten, optisch auch top…wow. Nur die 3 8-pin stecker hindern mich an den kauf…
Wieso stören Dich so Stecker?
Die Ada Architektur funktioniert großartig mit wenig Strom. Ob da nun 2, 3 oder 4 Stecker sind, macht bei der 4070 TI keinen Unterschied, weil sie so viel Strom eh nicht zieht. Ist eigentlich reines Marketing, damit Leute meinen da würde mehr OC gehen. Was zwar in der Theorie stimmen mag, aber in der Praxis, bei diesen Karten, keine Relevanz hat.
 
Messtoleranz. Die 1% Lows schwanken immer extrem.
Sie bilden ja einen Worst-Case ab, der nicht immer auftritt. Würde ich ignorieren. 4070 TI ist 4070 TI. Kein Hersteller macht daraus eine bessere oder schlechtere GPU.
>>>>>>>>>>
Bei den anderen Karten konnte ich das nicht beobachten aber ok…^^
Hab damit einen schlechte Erfahrung (mit den 1% lows aKa Micro-ruckler, da ich momentan eine 6900xt besitze…habe alles probiert; temps, minimal takt, im BIOS schlummer modus deaktiviert, fps cap, overclocking, von 5600x auf 5800x 3D gewechselt, und und und… es ist jetzt teils besser geworden, aber ganz weg sind sie nicht, die ruckler, deshalb möchte ich jetzt auf die 4070ti umsteigen…hatte zuerst die 4080 im visier, aber mein prozessor würde diese „bottelnecken“… das widerspiegeln einige videos auf youtube, außerdem spiele ich auf 2k, da ist die 4080 overpower.
Man hat mir grundsätzlich gesagt, das nvidia bessere treiber haben und deshalb in erster linie mehr bzw. besser performen…bin schon sehr gespannt ob dann alles besser wird :d
______________________________
Wieso stören Dich so Stecker?
Die Ada Architektur funktioniert großartig mit wenig Strom. Ob da nun 2, 3 oder 4 Stecker sind, macht bei der 4070 TI keinen Unterschied, weil sie so viel Strom eh nicht zieht. Ist eigentlich reines Marketing, damit Leute meinen da würde mehr OC gehen. Was zwar in der Theorie stimmen mag, aber in der Praxis, bei diesen Karten, keine Relevanz hat.
>>>>>>>>>>>
Bin einwenig ästhetik freak und stehe nicht besonders auf unnötige kabel, da der adapter ja eh schon so schirch ist😂 und alle anderen TI‘s haben 2, verstehe nicht ganz wozu noch ein weiterer 8er…
 
Ich habe auch die Asus TUF Gaming OC.. Da ist nur ein Adapter auf 2x 8 Pin bei.. Nicht 3x..

Edit: Ups, du meintest die iChill hat 3x8. Sorry.
 
>>>>>>>>>
Bei den anderen Karten konnte ich das nicht beobachten aber ok…^^
Hab damit einen schlechte Erfahrung (mit den 1% lows aKa Micro-ruckler, da ich momentan eine 6900xt besitze…habe alles probiert; temps, minimal takt, im BIOS schlummer modus deaktiviert, fps cap, overclocking, von 5600x auf 5800x 3D gewechselt, und und und… es ist jetzt teils besser geworden, aber ganz weg sind sie nicht, die ruckler, deshalb möchte ich jetzt auf die 4070ti umsteigen…hatte zuerst die 4080 im visier, aber mein prozessor würde diese „bottelnecken“… das widerspiegeln einige videos auf youtube, außerdem spiele ich auf 2k, da ist die 4080 overpower.
Man hat mir grundsätzlich gesagt, das nvidia bessere treiber haben und deshalb in erster linie mehr bzw. besser performen…bin schon sehr gespannt ob dann alles besser wird :d
______________________________
Wieso stören Dich so Stecker?
Die Ada Architektur funktioniert großartig mit wenig Strom. Ob da nun 2, 3 oder 4 Stecker sind, macht bei der 4070 TI keinen Unterschied, weil sie so viel Strom eh nicht zieht. Ist eigentlich reines Marketing, damit Leute meinen da würde mehr OC gehen. Was zwar in der Theorie stimmen mag, aber in der Praxis, bei diesen Karten, keine Relevanz hat.
>>>>>>>>>>>
Bin einwenig ästhetik freak und stehe nicht besonders auf unnötige kabel, da der adapter ja eh schon so schirch ist😂 und alle anderen TI‘s haben 2, verstehe nicht ganz wozu noch ein weiterer 8er…

Lieber ne 4070ti weil ne 4080 von nem 5800X3D geflaschenhalst wird? 🫡

Edit...öschendwie funzten die spoilers per Smartphone net so wie gewollt ✌
 
Mich hat an den getesteten Modellen enttäuscht, dass sie durchgehend mindestens drei Slots belegen. Damit gibt es im SFF-Bereich auch weiterhin kaum Alternativen für klassische Gehäuse (DAN A4, Ghost S1 etc.). Hinsichtlich der Preise, die natürlich niemanden begeistern, habe ich den Eindruck, dass man nicht umhin kommt, viel Geld in die Hand zu nehmen, wenn man einen 4K-Monitor besitzt und hohe Leistung haben will. Für Full HD und m.E. auch für WQHD sind RTX 4070Ti, 4080 und 4090 schlicht Overkill. In puncto Temperaturen, Leistung und Effizienz (teils auch im Idle) ist die RTX 4x00-Generation spitzenklasse.
 
Also für 1440p ist eine 4070Ti nicht unbedingt Overkill. Aber stimmt dahingehend dass im Grunde schon die 3000er "good enough" für 1440p waren und die 4070Ti halt da jetzt keinen mega krassen Unterschied mehr macht. Will man allerdings Richtung 240fps in 1440p sieht die Sache schon anders aus.
 
Bin einwenig ästhetik freak und stehe nicht besonders auf unnötige kabel, da der adapter ja eh schon so schirch ist😂 und alle anderen TI‘s haben 2, verstehe nicht ganz wozu noch ein weiterer 8er…
Wenn Du ein Ästhet bist (bin ich auch) und auf cleane Looks stehst, dann kaufst Du Dir sowieso ein entsprechendes Kabel von Fasgear, Cablemod oder den Netzteilherstellern und es gibt nur noch einen Strang zur PSU im sichtbaren Bereich des Gehäuses.

Also davon nicht beeinflussen lassen beim Kauf. Ich glaube eher dass Du aktuell noch gar nicht klar hast, ob Du überhaupt upgraden willst. ;)
 
Habe es getan bin umgestiegen von 6900xt auf 4070ti und bin recht froh darüber, performance besser, ruckler deutlich weniger, wenn nicht ganz weg, aber mit einpaar einstellungen im nvidia panel wurden auch die beseitigt…jetzt hab ich nur noch in farcry6 paar ruckler hin und wieder wenn gespeichert wird und in einigen passagen in CS:GO, aber anscheinend ist die 1440p auflösung so sensibel/komplex, dass man ganz ohne ruckler nicht auskommt…
CPU ist die 5800x3D, vielleicht liegt es an AMD…
In Full-HD hatte ich damals nie stutterings, ich kannte dieses „problem“ noch gar nicht vor 2k…
4k soll dann wieder nur GPU lastig sein, sodas es kaum 0.1% lows gibt, dafür muss man halt sich mit weniger fps zufrieden geben, uf ist das alles heikel^^
Da ich die möglichkeit hätte würde ich noch die 4080 testen und dann eine ruhe geben😅 vielleicht sind die 0.1% / 1% lows da besser…aber laut benchmarks hält sich der unterschied in grenzen.
 
Kann eventuell an deinen Einstellungen liegen. V Sync im Treiber auf immer EIN einstellen, die FPS ein paar unter deiner HZ Zahl des Monitors fixieren und natürlich Gsync einschalten.
 
Oh okey, hab nämlich v-sync ausgeschalten, da ich tearing hatte…aber dann die fps auf 160 fixiert (habe einen 165hz monitor), davor war es ohne fps limit und tatsächlich, das tearing ist weg…
Also kann ich ohne bedenken wieder v-sync einschalten, kannst du mit erklären wieso? Viele meinen ausgeschalten wäre es besser, und fps fanatiker schalten es immer in den game settings aus…
Danke :) finde die seite super hilfreich und toll :d
 
Oh okey, hab nämlich v-sync ausgeschalten, da ich tearing hatte…aber dann die fps auf 160 fixiert (habe einen 165hz monitor), davor war es ohne fps limit und tatsächlich, das tearing ist weg…
Also kann ich ohne bedenken wieder v-sync einschalten, kannst du mit erklären wieso? Viele meinen ausgeschalten wäre es besser, und fps fanatiker schalten es immer in den game settings aus…
Danke :) finde die seite super hilfreich und toll :d
GSync muss natürlich global an sein. Wenn dann VSync aus ist und die Framerate über die Hz Zahl des Monitors steigt, dann hast Du Tearing, weil dann nicht mehr synchronisiert wird. Wenn VSync an ist, würde ab 165 Hz (bei Deinem Monitor) auf die Frequenz des Monitors synchronisiert.

Die Framerate extra zu limitieren kann man machen und das ist etwas besser für die Latenz als wenn man die Frequenz des Monitors übersteigt, aber das dürften bei 165Hz die allerwenigsten Menschen merken (ich würde eher sagen: Das merkt KEIN Mensch).

Bei eingeschaltetem DLSS Frame Generation (also known as DLSS3) verhält es sich anders. Aber die CS:GO ist das ja kein Thema.
 
Puh, was habe ich schlaflose Nächte hinter mir. Meine Inno3D lief auf knapp unter 3Ghz Core bei allen Games stabil. Nur Witcher 3 hat mich wahnsinnig gemacht, weil es mit FG andauernd stuttert und dann abschmiert. Habe die CPU wieder auf Default gesetzt, RAM Timings auf Jedec. Trotzdem Abstürze. Und was ist? GPU auf maximal 2.850 MHz und es läuft smooth und stabil. Witcher 3 ist damit für mich der absolute Endgegner in Sachen Graka OC 😂.
 
GSync muss natürlich global an sein. Wenn dann VSync aus ist und die Framerate über die Hz Zahl des Monitors steigt, dann hast Du Tearing, weil dann nicht mehr synchronisiert wird. Wenn VSync an ist, würde ab 165 Hz (bei Deinem Monitor) auf die Frequenz des Monitors synchronisiert.

Die Framerate extra zu limitieren kann man machen und das ist etwas besser für die Latenz als wenn man die Frequenz des Monitors übersteigt, aber das dürften bei 165Hz die allerwenigsten Menschen merken (ich würde eher sagen: Das merkt KEIN Mensch).

Bei eingeschaltetem DLSS Frame Generation (also known as DLSS3) verhält es sich anders. Aber die CS:GO ist das ja kein Thema.
Verstanden, vielen Dank :d
Gibt es eigentlich Nachteile von V-sync, weil viele Gamer es deaktiviert bevorzugen…?
Ich habe das Gefühl dass ich das beste Resultat erziele wenn v-sync aus ist und fps limit auf 160 gesetzt ist.
 
Verstanden, vielen Dank :d
Gibt es eigentlich Nachteile von V-sync, weil viele Gamer es deaktiviert bevorzugen…?
Ich habe das Gefühl dass ich das beste Resultat erziele wenn v-sync aus ist und fps limit auf 160 gesetzt ist.
VSync an/aus macht keinen Unterschied, wenn man GSync nutzt und die Framerate immer unterhalb der Maximalfrequenz des Monitors bleibt, und das tut es, wenn Du das Limit auf 160fps setzt.

Vorsicht: Bei einigen Spielen funktioniert die in-game VSync Einstellung nicht gut. Deswegen besser über den Treiber an oder auszwingen, was einem besser gefällt.

Ich hasse Tearing und habe deswegen VSync immer an, achte aber auch darauf, die maximale Frequenz des Monitors nicht zu erreichen.
 
Lieber ne 4070ti weil ne 4080 von nem 5800X3D geflaschenhalst wird? 🫡
Wieso? Ist der 5800X3D nicht immer noch eine Top3 CPU, wenn es ums Gaming geht? Kann mir kaum vorstellen, dass der zum Bottleneck wird (außer man spielt nur FullHD oder so, aber da schaut man sicher eh nicht nach ~1000€ GPUs)
 
Joar, dann lies nochmal. Deshalb habe ich das ja so wiederholt. Weil die 4080 vom 5800X3D geflaschenhalst wird, kauft er lieber ne 4070Ti. Kann man machen :sneaky:
 
Warum ist eine 3090Ti eigentlich vergleichsweise langsam wenn man sich die Specs anschaut ? Warum kriegt die diese brachiale Rohleistung "nicht auf den Bildschirm" ?
 
Warum ist eine 3090Ti eigentlich vergleichsweise langsam wenn man sich die Specs anschaut ? Warum kriegt die diese brachiale Rohleistung "nicht auf den Bildschirm" ?
Weil die Specs nicht 1:1 auf neue Generationen umgerechnet werden können.
 
Finde sie hat auch zu wenig Mehrleistung gegenüber der 3090 ohne "Ti".

Obwohl.... eigentlich passts. Aber schon erstaunlich was für ein Schritt die 4000er Serie ist. Die 4080 wäre für mich sehr interessant, aber zu teuer und für das was sie leistet evtl. zu wenig VRAM.
Die 4070Ti ist ja fast auf Augenhöhe mit der 3090Ti. Aber generell finde ich spart nv da sehr am RAM.
 
Zuletzt bearbeitet:
Ich habe das BIOS meiner regulären Inno3D 4070-ti X3 non-oc nun auf das der Inno3D 4070-ti IChill mit 320 Watt anstatt 285 Watt Powerlimit geflashed. Und Zack, die 2,9 Ghz laufen stabil und selbst im Fullscreen Furrmark läuft die Karte nun mehr als 100 Mhz höher. GPU-Z zeigt auch knapp über 320 Watt Powerdraw der Karte an 👍🏻.
 
Kurze Frage. Hat die 4070-ti eigentlich ein Voltage-Cap nach oben hin bei 1,1v? Ich habe auf meine Inno3D X3 das MSI SuprimX Bios geflashed und bekomme in GPU-Z immer den Vrel-Status. Im Afterburner scheint der Voltage-Slider keinen Einfluss auf die Spannung zu haben. Übersehe ich hier etwas?

Edit: Der Slider funktioniert doch, zumindest irgendwie. Bei 100% mehr Spannung habe ich 50mv effektiv mehr. Das sollte nochmal einen kleinen Boost geben, ich will die 3Ghz stabil ;).

Edit2: Sieht gut aus und gibt nochmal ein Bisschen mehr FPS:

OC + RAM Timings.png
 
Zuletzt bearbeitet:
Warum ist eine 3090Ti eigentlich vergleichsweise langsam wenn man sich die Specs anschaut ? Warum kriegt die diese brachiale Rohleistung "nicht auf den Bildschirm" ?
Weil Nvidia das nicht möchte/konnte. Die haben von Anfang an quasi ne Ente verkauft. Auf dem Papier ein echter Titan, aber wenn der sich bewegt wie ein Faultier. Die haben es nicht hinbekommen alle Shader ordentlich auszulasten. Sieht man auch an dem geringeren Abstand zur 3080TI&3080 12G.


Das müssen alle Hersteller "Gewinnen" damit sie ihre X Tausend "Kerne" zu 100% effizient auslasten können.
Gerade bei den Großen Karten sinkt diese Effizienz proportional zur Anzahl.
So kann es sein das 16K Shader nur 60% effektiv sind verglichen mit 10K die 100% schaffen, dazu Taktraten & Abwärme.. und natürlich die Speicheranbindung & Auslastung.
Da wo Echtzeit keine Rolle spielt wie Encoding etc. ist es leichter die Kerne richtig auslasten zu können.

Deshalb können die in synthetischen Benchmarks abheben und haben aber dann die Bremse hier und da in den Spielen.

Nvidias Trick war hier immer gleichzeitig Raytracing und DLSS Kerne auch zu erhöhen mit jeder Leistungsstufe. Persönlich vermute ich da einfach das Marketing dahinter.
Natürlich läuft die 3090TI mit Raytracing weit aus schneller als eine 3070TI, die Frage ist die ich mir hier stelle wie gut würde die 3070TI unter ähnlichen Voraussetzungen laufen mit ggf. 12-16 GB Speicher, gleichen RT-Kernen und Tensor(DLSS) Kernen. Man sieht es auch daran das AMD ohne Raytracing und DLSS im vergleich mit "Standard" Rechenleistung in der Regel immer etwas die Nase vorne hatte dank Infinity Cache.

Der Abstand 6900XT zu 3090/TI ist relativ gering. AMD kann/konnte durchaus in Shaderleistung gleich ziehen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh