Zumindest der Preis stimmt – Drei GeForce RTX 3070 Ti im Test

Der Preis klingt durchaus fair für die paar Shader und den besseren VRAM. Aber der reale Preis wird jenseits der 1000 € liegen. Die Karte scheint es auch besser mit der 2080 Ti (OC) und 6800 aufnehmen zu können. Von der Leistung her scheint sie sogar exakt identisch mit der 2080 Ti FE zu sein (Die 3070 lag oft etwas darunter).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Von der Leistung her scheint sie sogar exakt identisch mit der 2080 Ti FE zu sein (Die 3070 lag oft etwas darunter).
Die RTX 2080Ti FE ist wohl nicht ganz da wo Du sie gerne hättest.
2080Ti.PNG
 
Jetzt noch ne 3090Ti rausbringen, und das Chaos ist perfekt.:wink:
 
Wobei +/- 10% in Balken immer schon auffallen. Ob man das aber im Endeffekt bemerkt, ist die andere Frage.
Echt Wahnsinn, dass die 3070 Ti nur so wenig Mehrleistung für soviel mehr Verbrauch bringt. Die 3070 hat den Sweetspot schon gut getroffen. Vor allem wenn man bedenkt, was mit UV zu erreichen ist. Die erzeugt dann ja fast schon Strom. :d
 
@ShiZon
Was sind deine Gründu anzunehmen dass der Bedarf an vram in Zukunft schneller steigen wird als der Bedarf an Rechenleistung?

Dass P/L ausserhalb von Käufen zur UVP äusserst bescheiden ist, im Vergkeich zu vor rund einem Jahr, steht natürlich ausser Frage.
Wenn ich sehe was bei manchen neuen Games für VRAM gesaugt wird, bekommt man schon Magenschmerzen, da ich aber nicht zu der Fraktion gehöre die erst einen Ständer bekommt, wenn alle Regler nach rechts gedreht und alles aktiviert sein muß, sehe ich eher mit gemischten Gefühlen auf die z. Z. aktuellen Grafikkarten. Mir ist schon bewusst das rein Leistungstechnisch die 3070 meine 1070 zum Frühstück frisst, aber wie bereits gesagt, die 1070 reicht noch (hoffentlich) eine lange Zeit.
 
@Ulle27

Solange es sich Technisch nicht nachteilig auf andere Bereiche bzw. Leistungen der Grafikkarte auswirkt, würde ich die Miningleistung konsequent soweit drücken, wie es geht. Warum nicht?
Klar ist die Mining Bremse nicht der heilige Gral. So wie du schreibst hat Nvidia mit den Mining GPUs ja noch andere Interessen.

Aber trotzdem finde ich die Miningbremse richtig, weil sie am Ende nur den Effekt haben kann, dass die Gaming Karten unattraktiver für die Miner werden. Wie stark dieser Effekt ist, bzw. wie viele Karten GPUs von Nvidia in den Gaming bereich geschoben werden im Vergleich zu deren Mining Produkten, dass steht auf einem "ganz anderen Blatt"
Beitrag automatisch zusammengeführt:

@ShiZon
Naja bei der Speicherthematik frage ich mich allerdings, wie weit Nvidia das "Spiel" noch treiben möchte. Man könnte ja mittlerweile sein Geld darauf verwetten, dass 4070 und 4080 auch nur mit 8 GB speicher kommen.
Wenn ich schon lese, dass bei einigen Spielen einige Texturen nicht laden, bzw. nicht in vollen Details, dann bringt mir die tolle Leistung und Raytracing etc. auch nichts mehr. Da verzichte ich lieber auf ein paar FPS, habe aber alle Texturen im Speicher, bzw. dargestellt.
 
Zuletzt bearbeitet:
Die 3070Ti ist klar die überflüssige Karte, nicht die 3070. CB hat die Ti auf 220W (TDP der normalen 3070er) eingebremst und die Karten sind quasi gleichschnell. Denke das Plus an Shadern wird bei der Ti durch den Mehrverbrauch des GDDR6X aufgefressen, weshalb Nvidia die TDP auf 290W angehoben hat. Im Endeffekt wäre eine 3070 mit 290W so schnell wie eine 3070Ti. Und dafür verlangt Nvidia dann einfach mal 100€ Aufpreis...

Nvidia dürfte damit nur durch kommen, weil eh alle Karten schwer lieferbar sind. Die 3070ti versucht sich in einer Lücke zu positionieren die nicht vorhanden ist. Nur 8gb VRam, hoher Verbrauch und teuer. Danke, aber nein Danke. Die normale 3070 oder die 6800 sind da die besseren Optionen.
 
wo bekomme ich die denn jetzt für 599 € würde auch noch ein bisschen was drauf legen.
 
Die RTX 2080Ti FE ist wohl nicht ganz da wo Du sie gerne hättest.
FE, ja. Mit OC geht bei der 2080 Ti aber anscheinend mehr als bei der 3070.
Jetzt noch ne 3090Ti rausbringen, und das Chaos ist perfekt.:wink:
Eher eine SUPER mit mehr VRAM. Shadermäßig ist jetzt alles ausgeschöpft, es ist ja so schon kaum ein Unterschied ob 3080 Ti oder 3080. Mehr VRAM wäre das Einzige was noch mehr Kaufanreiz schaffen könnte.
Naja bei der Speicherthematik frage ich mich allerdings, wie weit Nvidia das "Spiel" noch treiben möchte. Man könnte ja mittlerweile sein Geld darauf verwetten, dass 4070 und 4080 auch nur mit 8 GB speicher kommen.
Wenn ich schon lese, dass bei einigen Spielen einige Texturen nicht laden, bzw. nicht in vollen Details, dann bringt mir die tolle Leistung und Raytracing etc. auch nichts mehr. Da verzichte ich lieber auf ein paar FPS, habe aber alle Texturen im Speicher, bzw. dargestellt.
Deshalb kaufe ich jetzt AMD. 8 GB sind für mich als 4K-Nutzer absolut unzumutbar, 10 oder 12 GB sind auch nicht wirklich was ich erwartet hatte. Bei einer 3080 unter 1000 € (UVP) kann man das vielleicht noch verschmerzen, bei der 3080 Ti ist es aber vorbei, vor allem wie dreist im letzten Moment nochmal die UVP erhöht wurde... 16 - 20 GB dürfen es schon sein, vor allem bei dem Preis. Selbst weniger Speicherinterface wäre besser als den VRAM dermaßen zu beschneiden.
 
@Ulle27

Solange es sich Technisch nicht nachteilig auf andere Bereiche bzw. Leistungen der Grafikkarte auswirkt, würde ich die Miningleistung konsequent soweit drücken, wie es geht. Warum nicht?
Klar ist die Mining Bremse nicht der heilige Gral. So wie du schreibst hat Nvidia mit den Mining GPUs ja noch andere Interessen.

Aber trotzdem finde ich die Miningbremse richtig, weil sie am Ende nur den Effekt haben kann, dass die Gaming Karten unattraktiver für die Miner werden. Wie stark dieser Effekt ist, bzw. wie viele Karten GPUs von Nvidia in den Gaming bereich geschoben werden im Vergleich zu deren Mining Produkten, dass steht auf einem "ganz anderen Blatt"
Beitrag automatisch zusammengeführt:

Also ich persönlich würde ein Produkt ohne Einschränkungen zum gleichen Preis immer bevorzugen. Auch dann wenn es nicht benötigt wird, frei nach dem Motto "besser haben als brauchen"

Davon ab ist das nicht der springende Punkt. Egal wie dünn die Butter aufgetragen wird, sie wird dadurch nicht mehr.
Sprich: Durch mehr verfügbare Modelle der Karten mit jeweils der gleichen GPU (3060 ti, 3070, 3070 ti) steigt nicht die Produktionsmenge der G104 GPUS, sie wird nur auf mehr Modelle verteilt.

Zweige nun von den vorhandenen, in der Menge limitierten GPUs noch einen Anteil ab um damit einen anderen Markt zu bedienen (Mining - ja mit ist klar das es derzeit keine g104 fürs Minen gibt, das dient nur als Beispiel für den Kontext) und du hast nicht mehr Verfügbarkeit, sondern weniger, was sich wiederum negativ auf die Preise im Handel auswirkt.

Ja, mit den neuen LHR Modellen landen vielleicht mehr Karten als verfügbar im retail Markt - günstiger werden sie allerdings nicht unbedingt, da sich an dem Hauptproblem, der mangelnden Produktionskapazität, ja nichts ändert nur weil man ein Produkt mehr zur Auswahl hat.

Sprich die ganze Aktion mit den neuen Modellen ist ein Haufen heiße Luft: "hey Gamer schaut her, ihr könnt die Karten zu völlig überteuerten preis jetzt tatsächlich kaufen, und euch nicht nur die Bildchen anschauen"

Es bleibt nur zu hoffen das genug Leute die neuen Modelle zu überteuerten Preisen ignorieren, und somit über längere Zeit durch steigende Lagerbestände und hoffentlich steigende Produktion letztendlich Preisdruck auf die Händler ausgeübt wird.
 
Bezüglich VRam nochmal,

für mich sieht das so aus, als ob NV noch eine 3080 Super und 3070 Super plant.
 
Bezüglich VRam nochmal,

für mich sieht das so aus, als ob NV noch eine 3080 Super und 3070 Super plant.
Das haben sie schon, aufgrund der VRAM-Knappheit aber erstmal auf Eis gelegt. Es ist aber noch eine Menge Zeit, also Ende 2021 oder gar 2022, noch eine SUPER aufzulegen. Dass es technisch möglich ist gilt praktisch als bewiesen.
 
Ein Shadercluster mehr? Das hat doch beispielsweise die 3070 Ti jetzt. Sicher könnte NVIDIA auch noch eine 3080S rauspressen mit einem Cluster mehr, wie damals bei der 2080>S. Und eventuell schnelleren Speicher.
 
Nunja, schwer zu sagen wie konsequent NV immer war, aber z.B. eine 2060S ist deutlich stärker als eine 2060 und das nicht wirklich wegen den 2GB mehr vram.

Denke aber darum dass es keine Supers geben wird für die Lücken die schon mit einer Ti besetzt wurden.
Der Abstand der 2080Ti zur 2080 war relativ gross, so dass dort die Super noch rein passte.
 
GDDR6X ist bei der "schwachen" Karte eher unangebracht. Aber irgendwie musste Nvidia ja die 100€ mehr rechtfertigen können. Lieber nochmals 100€ investieren für eine 3080 oder 200€ weniger für eine 3060Ti und diese übertakten.
Mein Rat...Finger weg.

Die Entscheidung für GDDR6X könnte auch einfach sein, dass man hier ein größeres Volumen hat als für GDDR6.

GDDR6X ist doch jetzt ne art ECC Speicher, jedenfalls hattet ihr das mal geschrieben.
Das Error Detection and Replay soll das Overclocking des Speichers aber einfacher machen, da Fehler in der Übertragung des Speichers erkannt (Error Detection) und die Daten so lange übertragen werden, bis sie ankommen (Replay). Anstatt der Darstellung von Artefakten werden die Übertragungsfehler erkannt und der Speichercontroller versucht diese zu kompensieren. Es handelt sich um einen Cyclic Redundancy Check (CRC) und damit um ein Verfahren, welches mit einem Prüfwert für die Daten arbeitet. Stimmt der Prüfwert nicht, ist es bei der Übertragung zu einem Fehler gekommen.


Dies klingt alles nach klassischem Error-correcting Code Memory (ECC). Ob und in wie weit es hier Unterschiede gibt, wissen wir aktuell nicht.

Da kann ja GDDR6 Speicher und älterer nicht.
 
Nunja, schwer zu sagen wie konsequent NV immer war, aber z.B. eine 2060S ist deutlich stärker als eine 2060 und das nicht wirklich wegen den 2GB mehr vram.

Denke aber darum dass es keine Supers geben wird für die Lücken die schon mit einer Ti besetzt wurden.
Der Abstand der 2080Ti zur 2080 war relativ gross, so dass dort die Super noch rein passte.
Die SUPER war kaum schneller, sie hatte lediglich einen Shadercluster und schnelleren VRAM. Es ist also eher ein Refresh, genau wie eine 2070>S, keiner der da schon eine 2070 gekauft hatte wird die S gekauft haben. Was dieses mal auffällt ist dass die 3080 und Ti sehr nahe beieinander sind, was wohl auch daran liegen wird dass die 3080 ein Bigchip (x02) ist, sonst eigentlich immer ein x04-Chip.

Meines Wissens haben sämtliche modernen Speicher seit spätestens GDDR5x eine Fehlerkorrektur.
 
Das ist On-Die ECC und schützt die Daten nur, solange die sich im Speicher befinden. Im Grunde macht man das um die Ausbeute an funktionierendem im Speicher zu erhöhen. Der Transportweg ist nicht abgesichert.
 
Ich habe mir heute Morgen noch einmal die GPU-Spannung, Leistungsaufnahme der GPU und GPU-Takt im Vergleich zwischen der GeForce RTX 3070 FE und GeForce RTX 3070 Ti FE angeschaut.

Das Ganze sieht dann wie in den angehängten Grafiken aus.
 

Anhänge

  • GeForceRTX3070Ti-GPU-Voltage.png
    GeForceRTX3070Ti-GPU-Voltage.png
    25,2 KB · Aufrufe: 127
  • GeForceRTX3070Ti-GPU-Power.png
    GeForceRTX3070Ti-GPU-Power.png
    32,8 KB · Aufrufe: 136
  • GeForceRTX3070Ti-GPU-Clocks.png
    GeForceRTX3070Ti-GPU-Clocks.png
    26,3 KB · Aufrufe: 133
Ist es also einfach nur eine schlechte Ti? Fährt ja den selben Takt mit höherer Spannung.
 
Zuletzt bearbeitet:
Oder man hat es bewusst so gemacht. Ich finde es schon etwas seltsam. Die Ti hat ca. 50 MHz mehr Takt laut Spezifikation.
 
Der spezifizierte Takt ist doch schon seit einer Weile nur eine ungefähre Richtangabe.
Ist ja letztendlich auch der selbe Chip. 😉
 
Für die GeForce RTX 3080 Ti würde ich den hohen Preis kritisieren. Aber Leistung einer RTX 3090 für 999 Euro wäre der Knaller gewesen. Die Chance hat NVIDIA an sich vorbeiziehen lassen.
Bei der GeForce RTX 3070 Ti sehe ich tatsächlich die Lücke nicht wirklich, die man hier schließen will – vor allem nicht bei der Leistungsaufnahme.

Das hängt auch damit zusammen, dass die Preispolitik mit Turing schon verhältnismäßig unverschämt war. Wenn man das als 'angemessen' deklariert, dann kann man sich über die aktuellen UVP nicht beschweren: 2080 Ti FE für 1250 zum Release. Ich hab damals die Strix für ein klein wenig mehr bekommen.

Wenn der Markt heute UVP-nahe wäre, bekäme man 2080 Ti Leistung für weniger als die Hälfte bei Turing Release mit der 3070 Ti. Die 3080 Ti würde bei ca 30% mehr Leistung weniger kosten als eine 2080 Ti.
 
NVIDIA konnte sich feiern lassen den Preis bei der 3080 zu senken. Dabei war der Preis nicht wirklich günstig, sondern einfach nur wieder normal. Die X80er kamen all die Jahre immer für ~600 UVP raus.
 
Hat hier jemand eine GeForce RTX 3070 Ti Founders Edition erstanden? Falls ja, bitte bei mir melden! ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh