GeForce RTX 4060 Ti mit 16 GB: Zum Start wohl keine Tests

durch den 32MB großen L2 Cache kompensiert
Die Ergebnisse in der realen Welt sprechen eine andere Sprache. Bei höheren Auflösungen fallen die neuen Karten merklich zurück. Mag sein, dass der Cache den Nachteil etwas reduziert, aber es bleibt ein Nachteil.

Ganz abgesehen davon, dass die 8GB für 2023 einfach zu wenig sind, erst recht für den Preis.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich möchte damit nur sagen, dass das geringe Interface durch den L2 Cache ausgeglichen wird, und man dadurch eine höhere Transferrate erzielt als beim Vorgänger!

Die meisten User hören von geringeren Interface und heben den Finger, ohne den Hintergrund des L2 Cache zu wissen.

Damit will ich mich nicht auf dich beziehen, aber in vielen Diskussionen die ich verfolge, wird dieser Ausgleich gar nicht erwähnt.

Was nicht in den VRam passt, wird in den Hauptspeicher geladen. Die acht Lanes bei PCIE 4.0 übertragen 12.5GB/s, das entspricht sechzehn Lanes bei PCIE 3.0!

Ich behaupte mal für den Anwendungsbereich der 4060 TI absolut ausreichend! Den sehe ich absolut bei FHD und QHD mit Einschränkungen bzw. maximal ESport Titel. In UHD hat das Teil nichts verloren, wenn man von älteren Titeln mal absieht.

Die Spiele welche VRam deutlich herausstechen sind TLOU, CODMW2 und Hogwarts Legacy. Die drei sind hinsichtlich Management des VRam schlecht optimiert.

In FHD kommen die Drei in FHD wohl auf zehn bis zwölf GB VRam in maximalen Einstellungen und Raytracing.

Selbst CP2077 kommt auf unter acht GB. In UHD auf an die dreizehn GB. Der Durchschnitt von Spielen in FHD liegt aber bei acht Gigabyte bei maximalen Einstellungen und Raytracing, sofern verfügbar.

Und die 4060TI ist eben eine untere Midrange Karte, ich persönlich hätte da nicht die Erwartungen in QHD mit allen Settings auf Max im hohen FPS Bereich unterwegs zu sein…

Die 4060 TI ist definitiv zugeschnitten worden, etwa die nur acht Lanes wirken sich spätestens bei PCIE 3.0 negativ aus, oder wenn große Mengen Daten geladen werden müssen. Aber sie ist eben auf ihren Anwendungsbereich zugeschnitten worden.

Und den Bereich den die 4060TI abdecken soll, den erfüllt sie mit guter Performance und im Vergleich zur Vorgängerin deutlich besserer Effizienz. Die hat in den letzten Jahren auch zunehmend für den Endverbraucher an Bedeutung gewonnen.

Umgekehrt gibt es eben auch Spiele wie TLOU oder HL, welche sehr verschwenderisch mit den vorhandenen Ressourcen (VRam) umgehen. Schlecht optimierte Spiele aber würde ich nicht den Herstellern von Grafikkarten vorwerfen. Die meisten Games sind eben auf Konsolen ausgelegt, wo 16GB Ram von GPU und System geteilt werden. Ich meine das dabei bei der XBox und Ps5 jeweils um die 10GB für die Grafik bereit gestellt werden. Entsprechend werden die halt einfach vollgepackt…

Zweifellos hätten der 4060TI ein paar GB mehr Speicher gut getan, mehr Lanes hätten ihr auch gut getan, allen voran in Verbindung mit PCIE 3.0, was heutzutage nicht ausgestorben ist. Aber den Bereich für den sie gedacht ist, den deckt sie zweifellos gut ab - in meinen Augen. Und Midrange bedeutet eben auch mitunter Kompromisse eingehen zu müssen.
 
Du solltest mal bei NV fragen, jemand mit so viel Talent zum Sugarcoating können die aktuell bestimmt gut gebrauchen.

Und den Bereich den die 4060TI abdecken soll, den erfüllt sie mit guter Performance und im Vergleich zur Vorgängerin deutlich besserer Effizienz.
0-15% (~5 in WQHD) Mehrleistung bei einem Aufpreis von 25%, sry aber das ist einfach nur Müll, Effizienz hin oder her.
 
Zuletzt bearbeitet:
Ist ne Meinung genau wie Deine, kannst derlei Attacken gerne stecken lassen.
 
Ist ne Meinung genau wie Deine, kannst derlei Attacken gerne stecken lassen.
Welche Attacke? Das ist ein Kompliment. So einen langen Text zu den "Vorteilen" der 4060 zu verfassen, das kann nicht jeder..

PS: Bei der 4090 gibts gebenüber dem Vorgängermodell 40-70% Mehrleistung bei einem Aufpreis von 20% (UVP vs UVP). Im Vergleich dazu ist alles außerhalb der 4070 eine richtigehende Beleidigung der Kunden.
 
Zuletzt bearbeitet:
Was nicht in den VRam passt, wird in den Hauptspeicher geladen. Die acht Lanes bei PCIE 4.0 übertragen 12.5GB/s, das entspricht sechzehn Lanes bei PCIE 3.0!
Und eben da ist das Problem - sie hat nur 8 Lanes. Auch bei PCIE 3.0. Und die Mehrzahl der PCs wird sicher noch kein PCIE 4.0 haben. Da wurde am falschen Ende gespart (zusätzlich zur geringen Anbindung).
 
Da wurde am falschen Ende gespart (zusätzlich zur geringen Anbindung).
Das hat IMO weniger was mit einsparen zu tun, sondern eher mit Marktplatzierung: quasi "wer ne bessere Anbindung will, soll mehr Geld ausgeben".
Wenn dann die Käufer wg. der Anbindung und die Berichte dadrüber mehr Geld ausgeben, freut sich Nvidia.
 
Wie sich manche das schön reden können, unglaublich :coffee:
 
Für Leute die von einer 1060 kommen oder so ist die 4060ti eine gutes Upgrade, daran wird auch das beschnittene Interface nichts ändern.
 
Holzmann dann kauf die doch wenn du so begeistert von bist.

Mal davon abgesehen das die preislich nicht zur einer 1060 passt.
 
Für Leute die von einer 1060 kommen oder so ist die 4060ti eine gutes Upgrade, daran wird auch das beschnittene Interface nichts ändern.
Wem bis jetzt eine 1060 gereicht hat und bei NV bleiben möchte bekommt mit der 3060 für 250€ einen ordentlichen Leistungssprung und sollte einen riesen Bogen um die 4060 machen.
 
Für Leute die von einer 1060 kommen oder so ist die 4060ti eine gutes Upgrade, daran wird auch das beschnittene Interface nichts ändern.
Die werden aber mit einer 3060 Ti für 100 EUR weniger auch gut bedient - oder mit einer 3060 12 GB für 150 EUR weniger...
Die 4060er sind sicher keine schlechten Karten - nur einfach (noch) zu teuer.
 
Mit dlss3 und Frame Generation und ihren 16Gb ist sie aber einigermaßen zukunftssicher und das wird diese Zielgruppe interessieren.
 
Ich möchte damit nur sagen, dass das geringe Interface durch den L2 Cache ausgeglichen wird, und man dadurch eine höhere Transferrate erzielt als beim Vorgänger!
Das musst du mir bitte erklären wie das funktionieren soll.
 
Ja sie ist teuer aber euch ist schon aufgefallen, dass die Ada Lovelance Generation deutlich im Preis gestiegen sind?
Warum soll das für die kleinen Karten dann anders sein?
Ich kann das Preismimi an der Stelle einfach nicht verstehen.
 
Ja sie ist teuer aber euch ist schon aufgefallen, dass die Ada Lovelance Generation deutlich im Preis gestiegen sind?
Warum soll das für die kleinen Karten dann anders sein?
Ich kann das Preismimi an der Stelle einfach nicht verstehen.

Korrektur dazu. Bei allen Karten außer der 4090 gibts deutlich weniger Leistung fürs Geld. Die UVP der 4090 entspricht in etwa der der 3090, während man zusätzlich den größten Leistungssprung von Generation zu Generation hat. Die kleineren Karten sind prozentual deutlich stärker im Preis gestiegen und/oder es gibt einen deutlich geringeren Leistungssprung gegenüber dem namentlichen Vorgänger.

Wenn man wie du ne 4090 hat kann man sich die Situation auch schönreden, betrifft ja nur diejenigen, die sich keine 4090 leisten können oder wollen.
 
Der l2 cache macht hier mal gar nix
Dieser ist für den RT core und sar sowie ofa zuständig
Da daten darin sein müssen um FG sowie Dxr besser auszualstemn zu können da wird nix am Si entlastet
Der unterschied machen die Spiele die bei mehr als tatsächlich genutzten videospeicher die bandbreite ausgeht.
Bei allen spielen wo das nicht der fall ist ist die rtx4060ti auch gut 20% schneller als die rtx3060ti nur Überraschung das tun neuerdings kaum noch neue games.
Die letzten spiele die mit 1080p und nur 288gb/s auskommen sind von 2020 und ich meine Große Produktionen keine indi oder UE4 ports dazu kommt das alle engines bei zu wenig vram die qualität reduzieren.
Die rtx4060ti 8gb dürfte gar nicht existieren und das 16gb modell müsste bei nur 399€ sein was auch umsetzbar ist
Allgemein ist das eigentlich ne rtx4060 aber ich ahne das nvidia beim refresh von ada bzw nen super rebrand diese sku umsetzt.

Was mich zu rtx5060 bringt da gibt es zwei Lösungen
ada in n4 was kaum die chips verkleinert und sich daher nicht lohnt trotz nur 15000$ Waferkosten
ada in n3 die chips werden um 25% kleiner und die chipkoste sinken um 25% aus derzeit 188mm² wird nur 141mm²
Chip kostet nvidia nur noch 40$ statt bisher 50$ daraus lässt sich sogar wegen gddr7 das Si nochmal kürzen
ad206 =96bit 32gbps =384gb/s 36sm 3,2ghz ~20tf kein limit mehr 12gb vram =rtx5060 q2 2025

Wer ungeduldig ist nimmt in q1 2024 die rtx4060 super hat mehr vram aber weniger Leistung bei 17tf die durch das Si und somit maxed 320gb/s gebremst wird die sku wird 20gbps gddrf6x bekommen mit glück 21gbps das sind dann 336gb/s. Das wird ausreichen aber kaum ein Trost sein wenn später dies durhc noch höhere bandbreite anfprderungen die sku gerade mal so schnell wie die rtx3060ti sein wird.
erst ab 500gb/s wird die sku erhaben schneller sein und das geht aktuell nicht das maxed wären 384gb/s mit 24gbps
Und dann erst erreicht man +16% vs rtx3060ti

Am ende ist di rtx4060ti nix festes als rtx4060 verakuft wäre man bei +25% angekommen was ok wäre nur das man partout auf gddr6 pocht anstatt gddr6x mit 24gbps das würde die sku retten
Bleibt am ende nur auf den refresh in n3 mit gddr7 zu hoffen aber da sehe ich auch das man das SI nochmal kürzt und dasselbe problem hat nur als rtx 5060er sku kann man das Aktzeptieren.
 
Was ist den da schief gelaufen, dass die AMD CPUs so abgeschlagen sind?

Das muss untersucht werden, denn das Spiel ist doch ein Konsolenport mit AMD Hardware.
 
Zuletzt bearbeitet:
Cache hilft halt nicht immer :hust:
 
Kommt bestimmt noch ein patch der den Fehler behebt.
 
Und wenn nicht schmeisst du alles hin? :wut::rofl:
 
Der patch kommt.
Wird auch so im Artikel geschrieben, die verstehen das ja auch nicht.
Da wird nachgemessen werden müssen, bis dahin Füsse still halten. ;)
 
Was ist den da schief gelaufen, dass die AMD CPUs so abgeschlagen sind?

Das muss untersucht werden, denn das Spiel ist doch ein Konsolenport mit AMD Hardware.
Mir geht es eigentlich um die 4060TI mit 16GB.
 
Ja stimmt aber viel interessanter ist ja das desaströse Abschneiden der XD3 CPUs in diesem Titel.
Ich vermute, dass das an Sony liegt, denn so gut wie alle PC-Portierung sind aufgefallen durch schlechte Optimierung.
 
Ja stimmt aber viel interessanter ist ja das desaströse Abschneiden der XD3 CPUs in diesem Titel.
Ich vermute, dass das an Sony liegt, denn so gut wie alle PC-Portierung sind aufgefallen durch schlechte Optimierung.
Ach es gab aber auch Spiele Ports wo die X3D gut laufen.
Raytracing funktioniert ja wohl auch auf AMD Karten noch nicht bei dem Spiel ich hab auch im Video gesehen das der 13900K dort CPU limits hat.
Das ganze Ding läuft noch nicht rund.

Wie gesagt da rum ging es mir nicht sondern darum das die 16GB durch aus massiv Vorteile bei den kleinen Karte bringen können.
Gruß
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh