GeForce RTX 4060 Ti mit 16 GB: Zum Start wohl keine Tests

Diesen Punkt scheint Nvidia aber noch anders zu sehen, warten wir dann mal die Tests ab, die sicher kommen werden, selbst wenn es stimmen sollte, dass es zum Start nur wenige Test Samples geben wird.
Was soll sich denn ändern?

Hier meine Prognose:
Der Chip bleibt der gleiche, das Interface Bottleneck vom VRAM bleibt gleich, die Tensorcores werden auch nicht mehr.
Das einzige was größer wird ist der VRAM. Also mehr Platz für Texturen und andere Dinge die RAM brauchen. z.B.Raytracing.
Wenn du das Video von Hardware Unboxed kennst, 3070 8GB gegen A4000 (= 3060ti 16GB), dann kennst du das Ergebnis.

Gleiches bei den Dingen die sich nicht ändern:
Frame Generation?
Erwarte keine Wunder weil Tensor Cores fehlen und das Input Lag deutlich höher wird im Vergleich z.B. zu einer 4090 mit mehr Tensorcores.
Dazu kommen durch fehlende Rechenpower sowieso hohe Frametimes und relativ geringe Average FPS, so dass sich der Input-Lag Effekt verstärkt.
Auch dazu wieder Techvideo DLSS3.0 von Hardware unboxed.

Rohpower?
Es ist der gleiche Chip wie bei der 4060ti 8GB. Schau da in einem beliebigen Test nach.

Mal schauen ob ich richtig liege.
Fine wine oder fine milk? :shot:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenns nach euch geht verdoppelt ihr seit 10 Jahren alle 2 Jahre die VRAM Menge.
Schaut euch doch bei Steam an wieviel Leute noch mit FullHD rumgurken. Seit gefühlt 20 Jahren die verbreiteste Auflösung.
Wenn nvidia euch 64GB gibt kommt irgend Modding Idiot 16k Texturen um die Ecke und ihr schreit nahc 128GB.
 
Im übrigen ist es ja auch nicht so, dass die Konkurrenz da mehr bieten würde, auch die aktuelle Mittelklasse GPU von AMD die Rx 7600 hat nur 8GB Vram.
40k Beiträge in 6 Jahren, solltest vllt. etwas recherchieren bevor du postest, AMD ist keine Konkurrenz zu Nvidia.
Beitrag automatisch zusammengeführt:

Baut Nvidia Scheiße ist Nvidia Schuld
Die bauen keine Scheiße, die machen ein (für sie) gutes Geschäft.
 
DLSS erhöht auch die Latenzen und ist nicht ganz Bug frei, dann den Regler nach links verschieben ansonten
bleibt nur die Möglichkeit bei 1080p und VRR.
 
40k Beiträge in 6 Jahren, solltest vllt. etwas recherchieren bevor du postest, AMD ist keine Konkurrenz zu Nvidia.
manchmal denke ich, dass er nicht 2 Sekunden überlegt bevor er etwas schreibt.

Was anderes: Ob die Preise für die 4060-16 von Nvidia vorgegeben werden? Die 8GB extra kosten etwa 20-30 USD und für die Herstellung macht es effektiv keinen Unterschied. Im Prinzip könnte ein Boardpartner die Karte für ~440€ raus bringen und so die miserablen Verkaufszahlen ankurbeln.
 
40k Beiträge in 6 Jahren, solltest vllt. etwas recherchieren bevor du postest, AMD ist keine Konkurrenz zu Nvidia.
für <=300€ --- das ist eher die Einstiegsklasse der 7000er Generation und beweget sich in etwas dem gleichen Spektrum wie die 4060 ohne TI.

Von AMD waren TI gegner immer die 6650, 6750 etc.

Man müsste eine 7650XT vergleichen.

Ich hab meiner Schwägerin aktuell eine 6750XT empfohlen für ~380€ zu dem Preis mit einigermaßen aktuellen VRAM gibts leider nichts von Nvidia. Schade um die Nvidia features die nett gewesen wären, aber scheiß drauf. Die kauft nicht alle Jahre eine neue Karte.
 
Nooo, you no understand! AMD CEO is die NIchte vom nGreedia CEO :d...
 
Gar nicht, das ist ja das Problem.
600€ 7900XT & 850€ XTX und AMD wäre sofort am Drücker, auch wenn sie bei der Effizient kein Land sehen. Die geschrumpfte Marge könnte man locker über die Verkaufszahlen wieder reinholen, die steigenden Marktanteile hätten noch weitere Vorteile. Aber nein, lieber bleiben sie der bedeutungslose Juniorpartner von Nvidia, der die deutlich schlechteren Karten etwas günstiger anbietet. :wall:

Die 6800XT hat den größeren und deutlich teureren Chip als beide neuen Karten und wurde ursprünglich für 590€ verkauft. AMD hätte mehr als genug Luft da was zu reißen.
 
Gar nicht, das ist ja das Problem.

RDNA3 ist kein besonders großer Wurf, da war RNDA2 deutlich stärker aber deswegen zu behaupten AMD sei keine Konkurrenz für Nvidia ist einfach Unsinn.
 
Der Umstand ist doch nichts Neues und seit Jahren bekannt.
 
... und dann schwurbelst du immer noch was von einer Konkurrenz? :d
 
Ich denke ihr solltet euch dran gewöhnen dass gaming in 2023 nur eine Randerscheinung ist, zumindest aus Hersteller Sicht.
Mining wurde durch KI abgelöst, entsprechend wird mehr Dampf auf MI300 als auf einer 7800xt sein.

AMD will auch n paar Krümel vom KI Kuchen. Da ist Risikokapital drin, da gibt's mehr zu holen als bei Otto Normal.

Muss man jetzt kein rot gegen grün Thema draus machen.
🤷🏻‍♂️
 
AMD will auch n paar Krümel vom KI Kuchen.
Da die Karten normal nur in ihren jeweiligen Gebieten am besten performen, müsste das kein Problem sein.
Eine Profikarte bringt schon durch die nicht optimierten Treiber weniger Leistung, manchmal fehlen schlicht,
Gamingrelevante Teile komplett.

Wiederum bringt selbst die stärkste Gemingkarte im Profibereich nur wenig Leistung. Gab Tests zu diesem Sachverhalt.
 
Ich denke ihr solltet euch dran gewöhnen dass gaming in 2023 nur eine Randerscheinung ist, zumindest aus Hersteller Sicht.

Ich weiß nicht, PC-Gaming wird seit bald 20 Jahren tot geredet. Inzwischen müssten die Konsolen und Tablets den Gaming-Desktop schon 5x abgelöst haben. Wenn man sich die Spielerzahlen auf Steam oder die Investitionen von Microsoft in dem Bereich anguckt, sieht die Sache komplett anders aus. Auch würde Sony nicht die meisten großen Titel für den PC portieren, wenn das nur eine Randerscheinung wäre.

Es sieht auch nicht so aus als würden Desktop-GPUs aus der Mode kommen, sonst würden nicht regelmäßig neue Modelle mit neuen Features raus kommen. Das Problem ist schlichtweg, das in den letzten Jahren mit dem Mining ein Markt existiert hat, bei dem grundlegend andere Regeln geherrscht haben. GPUs waren keine Konsumgüter, sondern Investitionsgegenstände. Dieser Markt hat sich nur halt zu 100% in Luft aufgelöst, aber sowohl AMD als auch NV tun so, als hätte sich da nichts geändert.
 
Es sieht auch nicht so aus als würden Desktop-GPUs aus der Mode kommen, sonst würden nicht regelmäßig neue Modelle mit neuen Features raus kommen. Das Problem ist schlichtweg, das in den letzten Jahren mit dem Mining ein Markt existiert hat, bei dem grundlegend andere Regeln geherrscht haben. GPUs waren keine Konsumgüter, sondern Investitionsgegenstände. Dieser Markt hat sich nur halt zu 100% in Luft aufgelöst, aber sowohl AMD als auch NV tun so, als hätte sich da nichts geändert.
Und genau DAS ist der Kern, den jeder gerne mal verstehen darf. Und nein, daran ist nichts verwerfliches, ganz im Gegenteil. Man ist seinen Aktionären gegenüber verpflichtet, das Maximum rauszuholen. Dieses ganze lächerliche Geblubber "des kleinen Mannes" (und seiner Youtube Schreihälse) über unverschämte Preise usw.. kommt einfach daher, dass die Leute ein Anspruchsdenken entwickelt haben, sich bestimmte GPUs leisten zu können. Und nun sind sie frustriert, dass das eigene Budget kein wirkliches Upgade mehr hergibt, wenn alles bis 600€ eher Down/Sidegrades sind. Aber solange es der Markt hergibt, werden die Preise da bleiben, wo sie sind. Ganz zu schweigen davon, dass Fehlinvestitionen (Herstellung zu vieler alter GPUs bei plötzlichem Einbrechen des Mining Marktes bspw.) auch irgendwie kompensiert werden müssen. Gerade NVidia zeigt sich ja trotz anzunehmender schlechter Verkaufszahlen recht beharrlich im Preismanagement. AMD hat ja zwangsweise bereits nachgesteuert.

Nicht ohne Grund verschiebt NVidia Blackwell nach hinten. AMD wird sicherlich auch sehr genau darauf achten, dass Altbestände nicht mehr in der eigenen Produktionskette schmoren, bevor die 8000er Serie rauskommt.
 
Und nun sind sie frustriert, dass das eigene Budget kein wirkliches Upgade mehr hergibt, wenn alles bis 600€ eher Down/Sidegrades sind.
Also müsste man nach deiner Logik auf Preissenkungen warten, nur gibts die bei NV irgendwie kaum mehr. Bisher kam ja immer die neue Gen. und es wurde nix mehr Abverkauft.......
Aber wenn die Blackwell nach hinten verschieben, müsste es eigentlich trotzdem Anpassungen geben......... Wie willste einem Käufer vermitteln, das man für 1,5 - 2+ Jahre alte Hardware fast Neupreis will?

Das kann doch nur ein schwachsinniger glauben dass das funktioniert - oder ein weltfremder BWL´er :cautious:
 
Wieso warten? Die meisten hier tönen doch ständig wie egal ihnen FG oder RT sind. Bei Team Rot findet man dann ganz gute Angebote wenn einem der Verbrauch egal ist. :d
 
Wieso warten? Die meisten hier tönen doch ständig wie egal ihnen FG oder RT sind. Bei Team Rot findet man dann ganz gute Angebote wenn einem der Verbrauch egal ist. :d
Also ganz ehrlich auf 50W kommt es auch nicht mehr drauf an. Viele kaufen sich heuchlerisch die Dickste CPU um diese zu drosseln und dann will man beim Verbrauch der GPU sparen?
0,5l Treibstoff beim Auto spart mehr ein als 50W-100W an der Grafikkarte oder CPU.

Wie immer kann man mit einem Framelimit z. B dynamisch den Verbrauch etwas senken und limitieren.
Die Verbrauchskalkulation auf Vollgas ist nicht rein Zielführend. Ja man kann den Frame/W Verbrauch gegen einander Rechnen ist richtig. Aber man kann auch die Anschaffungskosten gegen Rechnen und dann sind 100-150€ mehr für eine vergleichbare Nvidia Karte die 50-10W spart zu wenig für durchschnittliche 4 Stunden Gaming/Tag Session.
sind das 0,4 KW.
Das ist recht großzügig gerechnet die Tatsächlich Spielzeit pro Woche liegt bei weitaus geringer.
 
Also mich musste da nicht anschauen, ich sehe das ähnlich. Deswegen der Smiley. Meinte das durchaus ernst, dass man im lower Midrange Bereich eher auf RDNA2 schauen sollte, als Lovelace.
 
Viele kaufen sich heuchlerisch die Dickste CPU um diese zu drosseln und dann will man beim Verbrauch der GPU sparen?
Viele machen das ja wegen der Kühlung. Stichwort UV und OC. Schneller bei weniger Verbrauch, das ist und bleibt in meinen Augen sexi=)!

Und das geht selbstverständlich bei CPU und GPU.
 
Viele machen das ja wegen der Kühlung. Stichwort UV und OC. Schneller bei weniger Verbrauch, das ist und bleibt in meinen Augen sexi=)!

Und das geht selbstverständlich bei CPU und GPU.
Ja aber sich einen 13900K kaufen um den auf 65W zu betreiben... ist halt Verschwendung. Aber muss jeder für sich wissen.
 
Bei NBB kannst du zumindest welches Vorbestellen. Aber ka, wann die dann geliefert werden...

 
Ja aber sich einen 13900K kaufen um den auf 65W zu betreiben... ist halt Verschwendung.
Man hat dann in ein paar Jahren die Möglichkeit den noch weiter "auf zubohren", je nach dem wieviel man von seiner Spitzenleistung dann braucht, um das System aus zulasten.
 
Man hat dann in ein paar Jahren die Möglichkeit den noch weiter "auf zubohren", je nach dem wieviel man von seiner Spitzenleistung dann braucht, um das System aus zulasten.
Das ist ein Trugschluss, das Resultat zählt. Limitieren kann man über FPS.

Du musst halt gegenrechnen mit 65W brauch er 10 Sekunden für Resultat= X
Mit 125W brauch er halt nur 5 Sekunden= X

= gleicher Verbrauch

Diesen Faktor muss man bei so einer Rechnung berücksichtigen. Wenn man keine Energiespareinstellungen zulassen möchte, muss man klar begrenzen in allen anderen Fällen wird die nicht mehr benötigte Taktflanke quasi "abstürzen" und somit der Verbrauch wieder gedrosselt/reduziert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh