GeForce RTX 4060 Ti mit 16 GB: Zum Start wohl keine Tests

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.559
Mitte des Monats soll sie offiziell in den Handel kommen, doch einen Test wird es zum Start wohl nicht geben. Die Rede ist vom letzten Modell der GeForce-RTX-4060-Familie, welche uns in Form der GeForce RTX 4060 Ti mit 16 GB Grafikspeicher noch erwartet. Wir haben in den vergangenen Tagen versucht ein Sample zu organisieren, aber keiner der Partner von NVIDIA hat offenbar ein Interesse daran die Karte zur Verfügung zu stellen. Auch seitens NVIDIA wird es offenbar keine Karten geben.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Soll jetzt nicht gehässig klingen, aber hattet Ihr nicht auch keinen 7800X3D vorab?

Irgendwelche Reviews wird es zum Start schon geben. Mich jedenfalls interessiert der Vergleich zur 8GB 4060. Dann können einige Vorurteile zum VRAM Bedarf bei 1080p endlich mal entkräftet (oder bestätigt :fresse: ) werden. Die Karte soll an ansonsten identische Specs haben.
 
jay wird wieder eine bekommen um bisschen nvidias popo zu pudern
 
Ich freue mich schon auf die unabhänigen Tests, speziell von Hardware Unboxed und Jay2Cents. Solche unabhänigen und sehr objektive Tests sind dann sehr vergleichbar. (sarkasmus)
Ich hoffe Gamers Nexus macht ordentliche Tests und techpowerup.

Ich kenne mich nicht so aus mit dem NVIDIA Marketing


Aber von der Nvidia Performance bin ich nicht so überzeugt im Vergleich zu meiner Radeon 6800 Non XT. Diese wurde um 475€ im Mai 2023 gekauft.
 
Dasn Witz oder
ich hoffe doch sehr das hwluxx eine kauft und alsbald kurztest macht etwa mit gleiche gpu klassen vergleich
Indemfall
rtx3060 12gb
rtx3060ti
rtx4060ti16gb
rtx4060ti 8gb
rx6700xt
ich ahne das man gerade kurz vor der rtx3060ti sitzt

Spiel dafür wären

tlou (sony eigene engine) szene lauf vom auto zum blockade, 2te level
hogwarts legacies, hogwarts meats quer durch dorf (ue4)
Spiderman timesquare zum park (sony eigene engine)
watch dogs legion mit dxr intrigierter bench (anvil 2)
far cry 6 intrigierter bench (dunia 2)
cod cold war singelplayer fracture jaw hubschrauberflug (iwtech 7)
the division 2 (intrigierter benchmark snowdrop engine 2)

Alles mit capframex Diagramme Sensoren einstellen


gpu memory dedi =der genutzte vram
gpu mem game shared = der transfer vom vram in den ram
gpu mem dedicated game = das vom spiel benötigte vram
used mem + cache game = vom spiel Übertragene ram Belegung
gpu load= gpu Auslastung der alu
fps =frame per second
frametime
tbp + manuell geprüft
gpu hotspot temp
gpu temp

Das sollte einer in 5 Arbeitstagen schaffen

Man könnte andere spiele nehmen die meisten werden aber unter 8gb nutzen auf 1080p was die primäre auflösung wäre

Ein bildvergleich wäre ratsam zwischen 8/16gb modell gleiche Szene
 
Ich werde die Karte für meine Tochter im Auge behalten.
 
Soll jetzt nicht gehässig klingen, aber hattet Ihr nicht auch keinen 7800X3D vorab?
Ok, Intel CPU und Nvidia Grafikkarte.
In den Whataboutism will ich gar nicht rein. Je nach Windrichtung?

Auch ComputerBase bekommt kein Muster. Zudem wird Nvidia auch keine FE bringen und überhaupt ist generell keine Nvidia Einführung seitens Nvidia für die 16GB vorgesehen. CB mutmaßt sogar, dass selbst die Partner eher zögerlich solche Modelle bringen werden und wohl es eher ein Glücksfall sein wird, wenn es zum 18. Tests geben wird.
Aber wichtig war dir ja zu diesem Thema, einen Missstand durch den Verweis auf einen anderen zu relativieren, den du nicht einmal belegen kannst.
Aber natürlich bin ich AMD Fanboy, weil ich im Zusammenstellungsforum im Preisbereich eines 7800X3D den 13700K empfehle.
 
Ich freue mich schon auf die unabhänigen Tests, speziell von Hardware Unboxed und Jay2Cents. Solche unabhänigen und sehr objektive Tests sind dann sehr vergleichbar. (sarkasmus)
“anyway“ - wie er immer zu sagen pflegt. Das denke ich mir auch über seine Videos und frage mich, was ich davon jetzt mitgenommen habe. Meistens viel Sülz und kein Ergebnis.
 
Die Marketingpolitik und Produktion seitens NV wundert mich schon ein wenig. Irgendwie beschleicht mich das Gefühl, dass NV die Grafikchipproduktion für den Consumer/Gamer immer unwichtiger wird und zunehmend andere und lukrativere Schwerpunkte setzt. Es scheint so, dass Rechenzentren jeden Preis zahlen, hohen Bedarf haben und längerfristig mehr Kontinuität für die Zukunft bieten. Gut, abgespeckte, in Schnittstellen reduzierte und überteuerte GPUs waren für mich nie eine Option. Verschenktes Potenzial, um verdammt zu sein, ausgetauscht zu werden, weil die Limits viel zu schnell erreicht werden und Spiele immer mehr von Grafikchips abverlangen, weil die breite Bevölkerung geilere Grafik wollen :LOL:
 
Die Marketingpolitik und Produktion seitens NV wundert mich schon ein wenig. Irgendwie beschleicht mich das Gefühl, dass NV die Grafikchipproduktion für den Consumer/Gamer immer unwichtiger wird und zunehmend andere und lukrativere Schwerpunkte setzt. Es scheint so, dass Rechenzentren jeden Preis zahlen, hohen Bedarf haben und längerfristig mehr Kontinuität für die Zukunft bieten. Gut, abgespeckte, in Schnittstellen reduzierte und überteuerte GPUs waren für mich nie eine Option. Verschenktes Potenzial, um verdammt zu sein, ausgetauscht zu werden, weil die Limits viel zu schnell erreicht werden und Spiele immer mehr von Grafikchips abverlangen, weil die breite Bevölkerung geilere Grafik wollen :LOL:
Die Gamer waren nicht die Hauptzielgruppe, das versuchen die ein wenig mit Marketing zu verkaufen.
Wenn man sich DLSS und FG anschauen, sind die Gamer eigentlich mehr oder weniger die zahlenden Beta Tester.

=> hat sich noch keiner gewundert warum die richtigen Workstation Karten / Server Karten immer erst viel Später auf den Markt kommen zu jeder neuen Generation?
 
Zuletzt bearbeitet:
Fragt doch mal einen der Händler die hier Werbung machen, oder einen Händler die im Test genannt werden will, die Händler werden sicher schon früher (vielleicht schon jetzt) Karten auf Lager haben, laufen wird die Karte wohl schon jetzt denn es ist doch nur eine bereits unterstützte Karte mit lediglich mehr Vram.

Die GeForce RTX 4060 Ti mit 16 GB Grafikspeicher dürfte einzig einen Zweck haben: Diejenigen Kritiker ruhig zu stellen, denen die 8 GB zu wenig sind.
Die Logik ist doch krank, eine Karte bekommt mehr Vram als zwei schnellere Karten - 4070 & 4070Ti ... 🤨
 
Hier kommt der Gewinner des diesjährigen Ratten Rennens um die schlechteste Karte 2023. AMD und NV haben nach harten ringen endlich einen Sieger gefunden. Nach schweren kämpfen an der Namensfront wird der kleinste Chip für Notebooks und die 50er Einsteigsserie noch mal mit zusätzlichen 8GB in vollkommen absurde Preisphären befördert.
Mit etwas Glück wird so der Endsieg gegen jede Vernunft preislich in der Entscheidungsschlacht gegen die 7700 geführt.
 
who cares?
sinnlose überteuerte Karte
 
Nvidia bringt doch die 4060ti/16 nur auf Grund des ganzen Geschrei nach mehr Vram raus, man wollte das aber nicht.
Und wenn sie sich dann nicht verkauft, ist das am Ende nur eine Bestätigung für Nvidia, dass die User nicht mehr als 8GB haben wollen.
 
Nvidia bringt doch die 4060ti/16 nur auf Grund des ganzen Geschrei nach mehr Vram raus, man wollte das aber nicht.
Und wenn sie sich dann nicht verkauft, ist das am Ende nur eine Bestätigung für Nvidia, dass die User nicht mehr als 8GB haben wollen.
Nur wissen die informierten User, dass mehr Vram nicht dabei hilft einen schlechten Chip mit beschnittenem Speicherinterface zu übertriebenen Preisen zu einem guten Produkt zu machen.

Das spricht für die informierten User wenn keiner das Ding bauen will, weil keine Nachfrage ist.

Und es spricht gegen das Produktmanagement von Nvidia, wenn sie den VRAM von ohnehin unattraktiven Produkten verdoppeln.

Deinen Twist sehe ich absehbar von der Nvidia Presseabteilung veröffentlicht, hat aber mit der Realität herrlich wenig zu tun.
 
Und ein starker Grafikchip bei einer 4070 Ti muss mit 12GB VRAM auskommen und kostet trotzdem ab 820€.
AMD zeigt Stümperhaftigkeit bei der Leistungaufnahme und nur +8% zu RDNA 2 und Nvidia bring Konstellationen mit der 4000er Serie, die tolle Grafikchips zu einer Schäbigkeit und Frechheit abstempeln.
Intel bringt auf dem billigsten Weg einen Reptor Refresh, denn der 13700K DIE ist ein 13900K DIE mit 8 deaktivierten E-Kerne, oder defekte Kerne und ein 14700K wird eben nur 4 deaktivierte E-Kerne haben, oder defekte. Wahrscheinlich werden die Alder-Lake 13100 - 13600 keine Raptoren werden. Wohl noch nicht einmal ein neues Stepping.
Bei AMD ist die Auswahl an Ryzen 7000 CPUs ungenügend und APUs lassen weiter auf sich warten. Zumindest konnte Raptor, die überzogenen Preise bei der Einführung der Ryzenn 7000 CPUs, gleich mal zurechtstutzen.

Hersteller des Jahres werden alle anderen sein, nur nicht AMD, Intel und Nvidia.

Darf ich eigentlich als verschriener AMD Fanboy auch Intel und Nvidia kritisieren, oder nur AMD? :wall:
 
Zur Realität scheint einfach aber auch zu gehören, dass man Nvidia nicht verstehen will oder kann.
Denn seit Ada Lovelace kommt Frame Generation, DLSS3 mit ins Spiel und wird mittelfristig mehr Nutzten haben, als 8GB einschränken können.
Das werden oder würden allerdings die Tests einer 4060ti/16 heute noch nicht zur genüge zeigen können.

Im übrigen ist es ja auch nicht so, dass die Konkurrenz da mehr bieten würde, auch die aktuelle Mittelklasse GPU von AMD die Rx 7600 hat nur 8GB Vram.
 
Zuletzt bearbeitet:
auch die aktuelle Mittelklasse GPU von AMD die Rx 7600 hat nur 8GB Vram
Die Einstiegsklasse RX 7600 als Mittelklasse zu bezeichnen, lässt deine Meinung eher schlechter aussehen. Und da es hier um eine ab 400€ Grafikkarte geht und die 7600 ab 280€ kostet, da möchte ich jetzt keine weiteren Worte verwenden.
Und die preislich abgehobenen Mittelklassekarten 4070 (ab 580€) und Ti (ab 820€) werden mit 12GB VRAM abgespeist.

Die 4060, die mittlerweile ab 300€ zu haben ist, sind die 8GB ok.
Trotzdem ist aus meiner Sicht, die 7600 genauso etwas zu teuer wie die 4060. Aber das liegt auch daran, dass es noch zu viele RX 6000er und RTX 3000er gibt. Die beste Einstiegsklasse ist die RX 6600 (ab 200€), während eine RTX 3050 ab 220€ preislich eine Frechheit ist.
 
Allgemeiner Rant über Intel und AMD CPUen im Thread für eine sehr spezielle Nvidia GPU.

In der Schule wäre das Thema verfehlt, setzen 6 gewesen. 🥱

@Holzmann
Ich sehe es nicht so dass ein zweifelhaftes Softwarefeature fehlende Rohleistung entschuldigt oder kompensiert.
Äpfel und Birnen (und davon einer noch faul) zu vergleichen war noch nie sinnvoll oder im Sinne der Kunden/Verbraucher.
 
Zuletzt bearbeitet:
Nichts desto trotz kann man nur sagen, dass DLSS / FG oder RT keine "zweifelhaften Softwarefeatures" mehr sind, sondern ab sofort fester Bestandteil des Gesamtpaketes. Daran sollte man sich gewöhnen. Nur halt blöd dass ausgerechnet die 8GB Karten nicht so richtig Gebrauch davon machen können. :fresse:

Dessen ungeachtet aber volle Zustimmung, auch völlig unabhängig vom Preis ist die 4060/Ti einfach ein in keinster Weise stimmiges Produkt, die technischen Features passen so einfach nicht zusammen. Daran wird auch die 16GB Variante nichts ändern (bzw. verschlimmert sie diesen Umstand sogar). Trotzdem bin ich gespannt, wie sie bestimmte Games im Vergleich zur 8GB Karte bewältigt.
 
Zuletzt bearbeitet:
Nur halt blöd dass ausgerechnet die 8GB Karten nicht so richtig Gebrauch davon machen können. :fresse:

Diesen Punkt scheint Nvidia aber noch anders zu sehen, warten wir dann mal die Tests ab, die sicher kommen werden, selbst wenn es stimmen sollte, dass es zum Start nur wenige Test Samples geben wird.
 
Irgendwelche Tests wird es schon geben. Und wenn halt nach Release, ist doch egal. Ich glaube kaum, dass irgendwer auf diese Karte geiert.
 
Warum sich NVIDIA so ziert / aufführt? Die Strategie Speichergeiz ist gescheitert, und diese Karte wird sie brüskieren und dazu zwingen das in Zukunft zu beachten!

Diese Karte wird ja das Bla Bla mit dem:"Die karte hat ja einen so und so grossen Cache, das langt noch ewig"
also solches überführen. Klar das die da keine grosse Sache draus machen wollen und die lieber "totschweigen".

NAch dieser Karte "müssen" sie - wenn sie keinen Shitstorm bei jeder kleineren Karte haben wollen, mehr Speicher reinbauen, können weniger schnell neue Karten verkaufen, ist doch logisch..........

Wenn eine Karte mit guter Leistung voher als 8 GB Modell nach 2-3 j. obsolet gewesen wäre, reichen 16 GB nun vil. sogar doppelt so lange?

Das NVIDIA davon nicht begeistert ist, dürfte doch nicht so schwer nach zuvollziehen sein
02 sm_=).gif
. Ich bin sowieso überrascht, das sie sich diesen "Dammbruch" überhaupt ins Protfolio gelegt haben, wahrscheinlich wurde der Druck zu gross.

Für so doof, sich freiwillig die Strategie zu zerschiessen halte ich sie nämlich nicht.
 
Warum sich NVIDIA so ziert / aufführt?
Weil man AyyyEiii-Karten verkaufen will und diese Leute gefälligst Milliarden für "PRO"-Karten ausgeben sollen und nicht Peanuts für die Normalokarten.

Die Karte wird von ein paar Reviewbots getestet werden und exakt NICHTS zutage fördern was Nvidia schlecht dastehen lassen würde.
Um die Probleme der Karten zu finden müsste man das Texturstreaming/RBAR verhindern via Pcie2x4/8 und noch einen Treiber nutzen in dem niemand von NV rumgemurkst hat (Bildqualität/Renderdistance etc. höhö).
Da das aber niemand machen wird wird von den "unabhängigen/unfähigen Testern" nur kommen: 8GB=16GB also hatte NV Recht, schön weiterkaufen!
Für so doof, sich freiwillig die Strategie zu zerschiessen halte ich sie nämlich nicht.
Siehe oberer Absatz und warte ab....^^
 
Diesen Punkt scheint Nvidia aber noch anders zu sehen, warten wir dann mal die Tests ab, die sicher kommen werden, selbst wenn es stimmen sollte, dass es zum Start nur wenige Test Samples geben wird.
Jedes Produkt muss man eine Chance geben, um sich zu bewähren. Von daher abwarten und einen möglichen Benefit bei der Speicherverdoppelung ausarbeiten. Wenn ich mich nicht täusche, dann ist die 4060 ti für HD, maximal WQHD konzipiert. Zumindest wird die Speicherschnittstelle sicher nicht mehr zulassen können, um spielbare FPS hinzulegen. Einen anderen Effekt sehe ich auch: Tester/User werden kritischer, wenn für das Produkt recht viel Geld auf den Tisch gelegt werden muss. Keine Frage, die Hardwarearchitektur der GPU, im Zusammenspiel mit Treibern, ist schon sehr potent, wenn die Peripherie nicht so beschnitten wäre. Allen voran die 128 Bit Speicherbreite. Nicht auszumalen, wenn es 256 Bit gewesen wäre ...
 
Nvidia bringt doch die 4060ti/16 nur auf Grund des ganzen Geschrei nach mehr Vram raus, man wollte das aber nicht.
Und wenn sie sich dann nicht verkauft, ist das am Ende nur eine Bestätigung für Nvidia, dass die User nicht mehr als 8GB haben wollen.

Klar, Nvidia hat hier das Problem selbst und höchstpersönlich geschaffen und verkauft jetzt ne Lösung für das Problem. Das Problem sind nicht die Nutzer sondern Nvidia, die aus dem berechtigten Aufschrei bei der 3060 nix gelernt haben und es jetzt nochmal probieren.

Zur Realität scheint einfach aber auch zu gehören, dass man Nvidia nicht verstehen will oder kann.
Denn seit Ada Lovelace kommt Frame Generation, DLSS3 mit ins Spiel und wird mittelfristig mehr Nutzten haben, als 8GB einschränken können.
Das werden oder würden allerdings die Tests einer 4060ti/16 heute noch nicht zur genüge zeigen können.

Im übrigen ist es ja auch nicht so, dass die Konkurrenz da mehr bieten würde, auch die aktuelle Mittelklasse GPU von AMD die Rx 7600 hat nur 8GB Vram.

Die Sache ist nur, dass Sowohl DLSS als auch Framegeneration (genauso wie RT) ebenfalls VRAM verbrauchen. Die funktionieren also nur sehr eingeschränkt bis garnicht zum kompensieren des zu kleinen VRAMs, bzw. eben nur in dem Fall in dem durch die reduzierte Renderauflösung mehr VRAM frei wird als DLSS und FG wieder wegfressen.

Und was AMD tut hat hier in dem Thread zu tun und rechtfertigt auch in keinster Weise das Verhalten von Nvidia. Die einzigen die für Nvidias Verhalten verantwortlich sind ist Nvidia selbst. Baut Nvidia Scheiße ist Nvidia Schuld, nicht AMD!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh