GeForce RTX 4060 Ti und 4060: NVIDIA kündigt neue Mittelklasse-Karten an

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.554
NVIDIA hatte bereits im vergangenen Jahr damit begonnen, das Pferd sozusagen von hinten aufzuzämen und erweitert die GeForce-40-Serie nach den Enthusiasten- und Oberklasse-Modellen nun um die neue Mittelklasse. Gleich drei Karten kündigt man an, zwei sind jedoch bis auf den Speicherausbau nahezu identisch und erhältlich sein wird ab kommender Woche auch nur eines dieser Modelle.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Anbindung ist der zweite Punkt, der vielen böse aufstoßen wird. Ein nur 128 Bit breites Speicherinterface kennen wir in der XX60-Klasse noch nicht. Bei der GeForce RTX 3060 war das Speicherinterface noch doppelt so breit und erreichte zudem mit 448 GB/s eine um mehr als 50 % höhere Speicherbandbreite als dies bei der GeForce RTX 4060 Ti der Fall ist. NVIDIA kontert dieses Argument mit dem größeren L2-Cache der Ada-Lovelace-GPUs. Dazu kommen wir gleich noch.

Das SI der 3060 12GB sind 192bit, bei der 8GB Variante sind es nur 128bit. Wenn ihr euch auf die ti bezieht ist es richtig, allerdings fehlt dann noch das ti im Text. Die angegebene Speicherbandbreite passt jedenfalls nur zur 3060ti, die 3060 Varianten haben nochmal weniger Bandbreite.
 
Danke, das korrigiere ich noch bei Gelegenheit.
 
Guter Text zum Thema L2 Cache. Bei der 4060Ti können wir dann zum ersten wirklich vergleichen, ob der fehlenden VRAM kompensieren kann.
 
UVP bei Release war für die 1070 im Jahr 2016 499€. Der Inflationsrechner gibt mir dafür im Jahr 2023 587€ aus.

Also alles entspannt.
Ja nur das die 4070 eigentlich eine 4060 ist. Du müsstest also die inflationsbereinigten 350€ der 1060 mit den 660€ der 4070 vergleichen :d

Nur weil 4070 drauf steht ist noch lange kein 4070 drinnen.

PS: Und selbst wenn man die Namensgebung links liegen lässt war die 1070 im damaligen Leistungsspektrum deutlich höher angesiedelt. Daher ist ein Preisvergleich zwischen 1070 und 4070 hinfällig. Der Preis mag ähnlich sein, im Verhältnis zu damals bekommt man allerdings deutlich weniger.
 
Zuletzt bearbeitet:
...und der nächste Bullshit gleich hinterher... lohnt nicht da weiter zu diskutieren.
 
Nicht *anders als dein völlig hinfälliger Vergleich ;)
Der Vergleich zeigt einfach nur die Realität. Das was Du verzapfst ist einfach Bullshit, das was der Kollege da behauptet sind hingegen Fake News. Das muss man nicht so stehen lassen. Für 399 hat er zum Release bestimmt keine neue 1070 bekommen 2016.
 
Echt nur 160 TDP, also auf GTX 1070 Niveau, hätte ich das vor ein paar Monaten gewußt, dann hätte ich bei der RTX 4060 Ti 16GB zugeschlagen.:oops: Dann muß ich wohl mit der 3060 Ti erst einmal bis zum nächsten Systemupdate ausharren.

ShiZoedit: Nach etwas intensiverer Recherche, kann Nvidia sich die RTX 4060 Ti 8/16 GB in den Arsch schieben, die braucht kein Mensch. Habe das echt mit den 128-Bit Speicheranbindung überlesen. :fresse:
 
Zuletzt bearbeitet:
Bevor ich mir so eine 1080p Schrott Karte hole, hol ich mir lieber eine vernünftige APU oder Konsole und gut ist...
Wen interessieren heutzutage noch solche Karten? Kinder, Schüler/Studenten? 🤔...
Ach ja und dann kommt auch noch Lowest End mit der RTX 4050. Unfassbar 🤦🏻‍♂️
 
Bevor ich mir so eine 1080p Schrott Karte hole, hol ich mir lieber eine vernünftige APU oder Konsole und gut ist...
Wen interessieren heutzutage noch solche Karten? Kinder, Schüler/Studenten? 🤔...
Na Leute die auf 1080p zocken. ;)
 
Na Leute die auf 1080p zocken. ;)
Ja aber da reicht doch eine RX 6600 XT für unter 300€. Was will man mit einer 4060 für über 400€. Dann kann man sich doch direkt eine 4070 holen. Eine RX 6700 XT wäre auch viel besser in Preis-Leistung.
 
Womit begründest Du also so eine Theorie?
Das ist inzwischen doch echt kein Geheimnis mehr.

Die 1070 hat 75% der Cuda cores der 1080. Sie hat den gleiche Menge an VRAM wie die 1080 und die gleiche Speicheranbindung. Die 1060 hat 50% der Cuda Cores, 75% der VRAM-Menge, 75% der Speicherbandbreite.

Die 4070 hat 60% der Cuda cores im Vergleich zur 4080, 75% des VRAMs, 75% der Speicheranbindung und fällt damit sehr genau in die Ausbaustufe einer x060TI. Darüber hinaus entspricht die Chip-Bezeichnung einer x060-Karte was eindeutig darauf hinweist, dass die Karte intern als x060-Klasse behandelt wurde.

Während die Leistungssprünge zwischen den Generationen schwanken sind die Abstufungen innerhalb der Generationen über Jahre hinweg konstant. Von daher ist mehr als auffällig, wenn plötzlich nach 4+? Generationen der Ausbau einer typischen 60er-Karte (50-60% cores, 75% Ram, 75% Speicherbus) erst als 80er-Karte und dann nach dem entsprechenden Gegenwind als 70er-Karte verkauft wird.

PS: Die Abstufungen treffen natürlich auf jede Karte zu, NV hat in der Vergangenheit ja schon bei einigen Karten die Bezeichnung oberhalb der technischen Eigenschaften angesiedelt. (1060-3 bspw)
 
Zuletzt bearbeitet:
@Don
Es fehlt ein Leerzeichen bei der 8 (Die GeForce RTX 4060 Ti verwendet – egal ob nun mit8 oder 16 GB an Grafikspeicher ...)

Ich gehe davon aus, das(s) die Einheiten falsch verwendet wurden vom Autor.
Bitte nur einheitliche Einheiten beim L2 Cache - entweder nur MiB oder KiB
Wobei ich mich frage, warum man KB nicht auf MB umwandelt?
Wobei MB bzw. KB sicherlich falsch ist beim Cache, da es sicherlich MiB gemeint sein wird. 2er Basis und nicht 10er Basis.
Von einem Journalisten erwarte ich mir, die richtige Verwendung von Einheiten.
Immer die kleinstmögliche noch sinnvolle Einheit verwenden. Beispiel: Nicht 10.000 Meter schreiben, wenn 10km üblicher und verständlicher sind.
 
Ja aber da reicht doch eine RX 6600 XT für unter 300€. Was will man mit einer 4060 für über 400€. Dann kann man sich doch direkt eine 4070 holen. Eine RX 6700 XT wäre auch viel besser in Preis-Leistung.
War auch nicht ganz ernst gemeint. :) Am Ende wird es wohl ne Kundschaft geben, sonst würden sie die Karten ja auch nicht mehr rausbringen. Bin auch kurz davor eine 4070 oder eben ne 60Ti 16GB für den Wohnzimmer PC zu kaufen. Hängt zwar am 4K Fernseher, aber der schafft eh nur 60Hz und was da gezockt wird, schafft auch ne 4060. Da kommt mir eher die Effizienz gut zu pass. Und DLSS 3 mit FG nimmt man halt gerne mit.
Beitrag automatisch zusammengeführt:

Das ist inzwischen doch echt kein Geheimnis mehr.

Die 1070 hat 75% der Cuda cores der 1080. Sie hat den gleiche Menge an VRAM wie die 1080 und die gleiche Speicheranbindung. Die 1060 hat 50% der Cuda Cores, 75% der VRAM-Menge, 75% der Speicherbandbreite.

Die 4070 hat 60% der Cuda cores im Vergleich zur 4080, 75% des VRAMs, 75% der Speicheranbindung und fällt damit sehr genau in die Ausbaustufe einer x060TI. Darüber hinaus entspricht die Chip-Bezeichnung einer x060-Karte was eindeutig darauf hinweist, dass die Karte intern als x060-Klasse behandelt wurde.

Während die Leistungssprünge zwischen den Generationen schwanken sind die Abstufungen innerhalb der Generationen über Jahre hinweg konstant. Von daher ist mehr als auffällig, wenn plötzlich nach 4+? Generationen der Ausbau einer typischen 60er-Karte (50-60% cores, 75% Ram, 75% Speicherbus) erst als 80er-Karte und dann nach dem entsprechenden Gegenwind als 70er-Karte verkauft wird.
Am Ende zählt nur die Leistung. Wie sie erreicht wird ist doch eher zweitrangig, oder? Und auch ohne DLSS passt das im Vergleich zu den Vorgängern. Aber NVidia spielt klar die DLSS3 Karte, ihre Produkte sind also innerhalb dieses Kontextes zu sehen. Wer das nicht mag wird sicherlich bei Team rot fündig, aber das im Zuge der Nomenklatur zu ignorieren zeigt eben nur, dass man die Realität ignoriert und sich seine eigene Wahrheit baut. Wenn Du hauptsächlich n Game zockst, wo diese Features nicht angeboten werden ist NVidia aktuell nichts für Dich. Aber dann braucht man auch nicht von zu hohen Preisen oder falschen Kartennamen fabulieren.

Ansonsten beißen bei der Argumentation der Serien untereinander nur solche Leute an, die keine Graphen lesen können. Die 4090 allein hat das Gefüge doch schon durcheinander gebracht und es ist somit nicht mehr mit Ampere etc vergleichbar.
 
Zuletzt bearbeitet:
Liegt ja alles im Auge des Betrachters, ob man etwas zu teuer findet oder nicht. Aber ich zähle mich auch eher zu Team 'das ist ein Tacken zu teuer'. Hätte es den Druck nicht gegeben wäre der Fail mit der Namensgebung Realität, und dann gäbe es auch nicht die Preiskorrekturen nach unten, so wie aktuell.
Natürlich gibt es Mining Boom und Corona nicht mehr so stark und die Lager sind übertrieben voll, aber genau deswegen sind die Preise auch zu hoch und das zeigen die um über 40% gesunkenen Verkäufe.
Gut Ukraine Konflikt und Probleme mit der 3nm Fertigung auf der anderen Seite, aber zu versuchen alles den Kunden ausbaden zu lassen scheint ein wenig arrogant.
Aber wie gesagt dann müssen sie halt mit den Verkaufszahlen leben.

@Gurkengraeber
Man sieht auf deiner verlinkten Seite zumindest wie stark der Leistungssprung in den Jahren gesunken ist
970 1070 2070 3070 4070
+85% +47% +53% +30%
der UVP Release Preis aber gestiegen
330€ 499€ 639€ 499€ 659€
Abstand zum HighEnd ebenfalls gestiegen (Quelle techpowerup)
ca. 30% 50% 40% 48% 84%
 
Und auch ohne DLSS passt das im Vergleich zu den Vorgängern.
Eben nicht. In ganz simpel: Eine 70er Karte hat bisher ~75% der Leistung einer 80er Karte gebracht. Jetzt sind es nur noch 60%. Innerhalb der Generation bekommt man 15% weniger. Von daher macht es keinen Sinn den Preis einer Karte zu vergleichen die 15% langsamer ist.

Abstand zum HighEnd ebenfalls gestiegen (Quelle techpowerup)
ca. 30% 50% 40% 48% 84%
Das ist genau der Knackpunkt.

Natürlich kann man jetzt die Hände in die Luft strecken und sagen, kann man eh nichts dran ändern. Aber das stimmt nicht, wenn man bei dem Kasperle-Theater nicht mit macht und Ahnungslose davor warnt, das ihnen mit irreführenden Bezeichnung Geld aus der Tasche gezogen wird, bekommen das NV & AMD (da geben sich die beiden Unternehmen aktuell überhaupt nichts) in ihrer Bilanz zu spüren und müssen reagieren. Würden alle mit dieser Schaaf-Mentalität ihre Kaufentscheidungen treffen, würde die 4070 aktuell 4080-12 heißen und 800€ kosten.
 
Zuletzt bearbeitet:
8GB Karten in dieser Preisklasse in 2023 sind einfach völlig realitätsfern, diese Karten hätten so nie auf den Markt kommen dürfen. Da braucht man gar keinen Test zu lesen, die Karten sind absoluter Müll. Entweder man hat das Geld für eine RTX 4070, oder man sieht sich in Richtung RDNA2 um, die momentan recht attraktiv bepreist sind.
 
Liegt ja alles im Auge des Betrachters, ob man etwas zu teuer findet oder nicht. Aber ich zähle mich auch eher zu Team 'das ist ein Tacken zu teuer'. Hätte es den Druck nicht gegeben wäre der Fail mit der Namensgebung Realität, und dann gäbe es auch nicht die Preiskorrekturen nach unten, so wie aktuell.
Natürlich gibt es Mining Boom und Corona nicht mehr so stark und die Lager sind übertrieben voll, aber genau deswegen sind die Preise auch zu hoch und das zeigen die um über 40% gesunkenen Verkäufe.
Gut Ukraine Konflikt und Probleme mit der 3nm Fertigung auf der anderen Seite, aber zu versuchen alles den Kunden ausbaden zu lassen scheint ein wenig arrogant.
Aber wie gesagt dann müssen sie halt mit den Verkaufszahlen leben.

@Gurkengraeber
Man sieht auf deiner verlinkten Seite zumindest wie stark der Leistungssprung in den Jahren gesunken ist
970 1070 2070 3070 4070
+85% +47% +53% +30%
der UVP Release Preis aber gestiegen
330€ 499€ 639€ 499€ 659€
Abstand zum HighEnd ebenfalls gestiegen (Quelle techpowerup)
ca. 30% 50% 40% 48% 84%
Dem würde ich entgegen halten, dass die älteren Karten in 4K gar nicht mehr mithalten können und man höchstens 1080p vergleichen könnte (CPU Bottleneck?)

Aber gut, spielen wir das Spiel.

1684430395618.png


Ich hab die Werte aus der THW Benchmark Liste genommen (100% ist hier die 4090) und da sind die wohl alle recht nah bei einander. Im Prozentualen Durchschnitt habe ich 4K mal rausgenommen, das wurde für die älteren Karten gar nicht mehr aufgeführt. Aber eben mit einem Unterschied: Die 4070 kann FG und RT besser als die anderen, die das zum Teil auch gar nicht können. Die 4070 schneidet im Vergleich am schlechtesten ab, allerdings auch nur wenn es um die nackten FPS ohne Features oder RT Performance geht.

Also warum werden die reinen Rasterization Werte genommen? Das ist so als würde ich ein Auto von 1990 mit dem heute vergleichen und jammern dass der Verbrauch nicht gesunken (oder gar gestiegen) ist. Dass die Kisten aber zig Kilo schwerer sind und viel bessere Features und Sicherheitsstandards haben würde dabei ignoriert werden. Genau so wenig kann ich die Features von Lovelace ignorieren. Ganz zu schweigen von der Effizienz (die in Deinem Vergleich anscheinend völlig unwichtig ist). So wird immer gejammert dass die 4070 gerade mal so schnell wie eine 3080 ist. Dass letzere dabei aber 150W mehr durch den Schornstein ballert ist wohl nicht so entscheident.

Und nochmal, jemand der FG nicht mag oder RT gar nicht nutzt hat aus seiner Sicht natürlich recht, die 4070 bringt ihm im Vergleich am wenigsten fürs Geld. Aber siehe oben, dann kauf Dir eben auch n Golf von 1992 wenn das reicht. Von A nach B kommt man damit auch. Für 1080p behalte ich meine 3070, wenn sie noch funktioniert.

Edit: die 330€ der GTX970 wären heute 421€. bleibt also eine Preissteigerung der 4070 im vergleich zur 970 von 238€. Muss jeder für sich entscheiden ob das gut ist.
 
Zuletzt bearbeitet:
Das mit der Bandbreite Erklärung ist mal mutig
Nehme ich mal an das nvidia ähnlich zu amd inf fab agiert was sie nicht tut und die 554gb/s annehme
Müsste die hitrate bei 75% sein
Da passen die knapp 15% vs rtx3060ti nicht dann wären es min 50% schneller.
Realistisch ist das eher das man die latenz 1,57ns vs 1,22 Differenz nimmt und den Takt der rtx3060ti auf nur 1,8ghz limitiert dann kommen da 15% raus.
ich nehme aber realistischer +0- 10% an
Die 16gb Modell ist die einzige die Zählt
Dlss3 ist kein argument
mwredforst demo ue5 nantinelumen mit tsr(upscaler uq) +- 16fps
the wither 3 dxr mit dlss q maxed 43fps
tlou maxed 92fps wenn 16gb durchschnittliche vram belegung etwa 9,2gb 1080p
Daten verkehr zum ram 4,81gb
oder
cod black ops cold war +- 100fps und min etwa 10,7gb vram mit 1,4gb shared übern pcie bus
da sieht die 8gb modell alt aus und wird definitiv ruckeln wie blöde
 
Zuletzt bearbeitet:
Ich finde nur den Preissprung von der 8G->16G mit 100 zu hoch..

achja und dass es wohl von der 16er keine FE geben soll..:fire:
Da muss ich wohl irgendwann doch rot sehen :fresse:
 
Nie im Leben glaube ich nvidia die Pressebenchmarks, dass eine 4060 ti mit den Leistungsdaten doppelt so schnell wie eine 3060 ti ist.
 
@Gurkengraeber
Ja RT ist schon ne coole Tech und man muss Nvidia auch zugestehen, dass sie noch einiges besser machen als die Konkurrenz. Dass sie die Rolle des Klassenprimus besetzen und jeden Obolus mitnehmen den Sie aus dem Vorsprung ziehen können ist auch klar.

Aber du stellst das mit den Features so dar als ob es es ein Sprung wäre von 2016 z.b. zu heute oder von einem Golf 92 auf die Technik von heute. Ne jede Generation wurde mit Innovationen und Upgrades beworben und jede Produktgeneration erhält Investitionen dahingehend mit einer bestimmten Erwartungshaltung, dass diese durch den Käufer als kaufenswert empfunden wird.
Genauso wie beim Auto erhalte ich ein Produkt woran an jeder Kategorie gearbeitet wurde, sei es Design, Umweltfreundlichkeit, Energieverbrauch, Performance, Marketing.. was auch immer.
Die Verbesserungen dessen werden dem Kunden dann zu den Produktzyklen angeboten, wobei es natürlich immer neue Anreize bieten muss, um Wachstum zu generieren, sowie Werte zu stärken, bzw neue zu schaffen, welche die Konkurrenz vielleicht nicht hat.

Auf dem Weg gibt es dann zwischendurch auch immer größere Sprünge oder Innovationen die größere Auswirkung haben, das ist auch normal, wie Cuda oder AI Technologien.
Nur weil heutige Produkte mehr dieser Innovationen enthalten müssen sie nicht teurer werden, das ist doch eine viel zu flache Ansichtsweise. Es geht doch darum wie viel Investiert wird und was dann dafür verlangt werden kann, um auf einen fairen Preis zu kommen.
Nicht umsonst werden auch Business Strategien und Produktionstechnologien entworfen und verbessert, die darauf hinzielen günstiger zu produzieren und Leistungen an den Kunden zu bringen.

Und dann mit dem Argument zu kommen, "dann nimm doch ein Produkt von damals wenn das reicht" pass dann eben auch nicht und ist auch ein bisschen kindisch.
Genauso könnte man auch sagen dann kauf doch die 4070 zum Preis einer 4080, wenn doch alles so gut bepreist wird.

Ich sehe nur dass die Produktzyklen und deren Preisgestaltung durcheinander geraten sind, dadurch auch das gebotene für die Leistung, die sie bringen. Es ist leider ein Fakt den man nicht wegdiskutieren kann.
Klar am Ende kann jeder für sich selber entscheiden, ob das für einen noch in Ordnung geht und kein Hate an die für die das noch in Ordnung geht. Aber jeder der sein Missmut äußert und entsprechen handelt bewirkt etwas und das kommt allen zu Gute auch denen die mehr zu zahlen bereit sind.
 
Zuletzt bearbeitet:
Ich sehe nur dass die Produktzyklen und deren Preisgestaltung durcheinander geraten sind, dadurch auch das gebotene für die Leistung, die sie bringen.
NV & die Partner sitzen auf einem Berg veralteter Karten aus dem Miningboom, weshalb die 40er Gen preislich zwangsläufig oberhalb angesiedelt sein muss um die (schleppenden) Verkäufe der 30er Gen nicht vollständig zum Erliegen zu bringen. Da ist es verständlich, dass der eine oder andere Winkelzug gestartet wird um die Situation zu vertuschen (die 4060ti wird zur 4080 bspw.). Amd könnte hier angreifen und mit aggresiven Preisen Marktanteile gewinnen, allerdings ist denen ihr Berg an 'Altkarten' wahrscheinlich genauso groß, weshalb bei dem Schauspiel fleißig mitgemacht wird (von der 7800, 7700 keine spur, erst müssen die 6000er weg :d )

Wie gesagt, ist verständlich, dass die Unternehmen so handeln, wie sie es tun. Verwunderlich ist nur, wie hier teilweise Beifall geklatscht wird, während man sich gleichzeitig über den Tisch ziehen lässt.

PS: Nun gut auf der anderen Seite ist auch das irgendwo verständlich. Wenn man schon über den Tisch gezogen wurde, möchte man da auch nicht drauf hingewiesen werden. Ok.

PS2: Und wer an dem Berg an Altkarten zweifelt, wann gab es das letzte Mal alle alten Modellreihen in zig Varianten Monate nach dem Release der nächsten Gen? Ich würde behaupten noch nie.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh